Localização e Mapeamento na Movimentação de um Robô
CONAENGE » Robótica »Uma geometria para localização e mapeamento na movimentação de um robô com estrutura rocker-bogie
Gustavo Yoshimi Yamashita*
[email protected]
Cristiano Natal Tonéis**
[email protected]
Centro Universitário FIAP/SP – Engenharia Mecatrônica
Link para vídeo de apresentação: <https://youtu.be/9Rr8V5WvkE4>.
Resumo
Este trabalho tem como objetivo a construção e aplicação de um sensor LIDAR de baixo custo, como o apresentado por Charles Grassin, delimitando um processo geométrico para localização e mapeamento simultâneos em robôs móveis. Organizamos nossa pesquisa com a metodologia ativa STEM (Science, Technology, Engineering, and Mathematics) articulada com a fenomenologia de Merleau-Ponty. Inicialmente, observamos as potencialidades deste tipo de sensor e os modelos matemático-computacionais adequados para este sistema ao direcionarmos para uma metodologia de identificação dos elementos de nosso mundo vivencial em sua representação geométrica realizada e interpretada pela máquina – robô móvel – e com isso promover uma solução para problemas de estabilidade ao mapear ambientes em sua navegação e em tomadas de decisões diante de obstáculos, para desvios e traçar rotas.
Introdução: Uma arquitetura robótica
Ao compreendermos que os processos de automação – industrial, residencial, segurança etc. – fornecem alguns dos elementos para conceituamos a robótica, então verificamos que este conceito se apoia em diferentes articulações, desde engenharia mecânica, hidráulica até sistemas eletrônicos e engenharia de software. Certamente que ao delimitarmos um sistema robótico autômato encontramos a necessidade de observar a arquitetura para robôs.
Em Arkin (1998) a arquitetura de robô está relacionada com arquitetura de software, enquanto uma adaptação da arquitetura de computadores. Para Stone (1980) este processo se dedica ao projeto de robôs altamente específicos ou individuais a partir de uma coleção de características comuns de softwares ou aplicações. Mataric (1992) identificou a robótica como um conjunto de sistemas de controle, ou seja, uma arquitetura precisa fornecer uma maneira para organizar um sistema de controle, contudo, também oferece restrições sobre a forma como o problema de controle pode ser resolvido, devido à disponibilidade de hardwares (sensores, microcontroladores, conexões etc.) são empregados a um determinado projeto.
Deste modo, quando delimitamos a necessidade de um sistema de controle autômato para um robô móvel dede sua estrutura até seu sensoriamento se destacam ao verificarmos que para produção deste sistema robótico existe uma necessidade adjacente de inteligência artificial capaz de realizar um mapeamento e detecção de obstáculos que sejam suficientes e adequados à arquitetura deste robô.
Neste sentido, o LIDAR – do inglês Light Detection And Ranging – refere-se a uma tecnologia que possui um sensor óptico que emite feixes de luz infravermelho medindo distâncias e – por meio do desenvolvimento de uma representação adequada de seus dados gerados – um software pode mapear e localizar ambientes dinâmicos.
Entendemos um ambiente dinâmico como um espaço “não estruturado”, ou seja, sempre que um robô navega em um ambiente “não estruturado”, torna-se necessário assegurar que ele não irá colidir com obstáculos. Na maioria das aplicações em robótica móvel é necessário um método eficiente para o desvio quanto ao processo de navegação do robô. Esses métodos, de acordo com a abordagem adotada, podem ser classificados como deliberativos e reativos (PEREIRA, 2006). Os métodos deliberativos são aqueles que contêm um modelo simbólico do mundo (analítico), e como nessa abordagem é realizado um mapeamento do ambiente onde o robô vai navegar pode oferecer uma baixa eficiência em ambientes dinâmicos. Então uma abordagem reativa que não utiliza nenhum conhecimento prévio do meio, não possui um “mapa do ambiente” revela a necessidade de reações do robô a “imprevistos”.
A navegação baseada na abordagem reativa tem seu princípio relacionado com as ações, isto é, o “robô reage ao que percebe”. Isto resulta em simplicidade e em um baixo custo computacional, duas qualidades importantes em robótica móvel.
Para um robô autômato a articulação entre os dois modelos seria de extrema importância e desafiadora, Pereira (2006) classificou este método de “Varredura Laser ou modelo híbrido” ao combinar os modelos citados. O sensor LIDAR oferece esta estrutura possibilitando o mapeamento e localização simultâneos, desta maneira nossa questão de pesquisa se destaca: como um sistema LIDAR pode ser produzido e aplicado à robótica móvel?
Estabilidade e Movimentação em um ambiente dinâmico
Se o objetivo de nosso projeto está em produzir um robô capaz de se movimentar em ambientes desconhecidos, deve-se considerar a sua capacidade de interpretar o cenário à sua volta para poder determinar suas próximas ações, como o fato de que obstáculos não previstos podem surgir durante um trajeto do robô móvel. O ato de se movimentar tem como base sua capacidade motora e em sua capacidade de “entender” por onde está se movimentando. Por exemplo, nós, seres humanos, utilizamos de alguns sensores capazes de coletar as informações necessárias e julgar se no meio do nosso trajeto possui algum obstáculo em potencial a nossa visão, audição, olfato, tato, ou seja, nossos sentidos funcionam como sensores metafóricos, capazes de interpretar e então classificar esses sinais em objetos e terrenos e auxiliar em nossa tomada de decisões.
Para um robô móvel a “lógica” será semelhante, torna-se necessário a utilização de sensores capazes de realizar leituras precisas dos ambientes e ao mesmo tempo processar estas informações convertendo-as em dados interpretáveis pelo código do robô, como pontos que indicam objetos em uma determinada distância, além disso é necessária uma arquitetura capaz de suportar terrenos que possuem irregularidades como inclinações e objetos obstáculos (pedras, degraus, galhos etc.).
Os robôs do tipo Micromouse são capazes de entrar em labirintos e então resolvê-los, a partir de algoritmos que determinam o caminho mais rápido para algum destino ou saída. Em nossos estudos anteriores foi demonstrado a utilização do algoritmo Flood Fill para a lógica de exploração e mapeamento do robô em labirintos até então desconhecidos, de forma que fica evidente a necessidade de um sistema inteligente para uma exploração e mapeamento sem ou com mínima intervenção de algum operador.
As aplicações de um sistema inteligente capaz de se movimentar em terrenos desconhecidos e aplicar o processo de exploração e mapeamento se estende em robôs exploradores (como o caso do Rover Perseverance, em Marte), robôs capazes de se locomoverem em espaços de difícil acesso ou em cenários desastrosos até mesmo robôs aspiradores e robôs automáticos para entrega de pratos em restaurantes.
Todos estes exemplos são modelos de uma “arquitetura robótica”, ou seja, uma robótica que está sendo desenvolvida e preparada para tomada de decisões por parte das máquinas, uma robótica “do fazer, do agir”. Para além de uma inteligência artificial a arquitetura destas máquinas também se torna fundamental nestas decisões, bem como o seu sensoriamento e interpretações do mundo, ou seja, em um processo de mapeamento e localização simultâneos.
Um sensor feito para “ver 360º”: A Estrutura do Lidar
O sensor Lidar é um sistema a laser pulsado em geral útil para obtenção de informações – mapeamento – de espaços tridimensionais. É capaz de medir e obter a distância real que os objetos estão uns dos outros, mas também pode ser usado para definir medidas. Ele também pode ser encontrado por outro nome, LADAR (Laser Detection and Ranging). As aplicações, usos e tecnologias são as mesmas, é apenas outra forma de ser chamado. Geralmente, essa nomenclatura é encontrada em contextos militares. E em português, ele também pode ser encontrado pelos nomes “Sistema de Varredura a Laser” e “Sistema de Perfilamento a Laser”.
- Sensores Lidar são utilizados há algum tempo: Na década de 1980, o laser começou a ser usado para medir distâncias;
- Eles servem para medir as distâncias entre objetos: aprimoramento do sistema de SLAM – Simultaneous localization and mapping;
- Seu principal benefício é a precisão do cálculo gerado; por utilizar um sensor laser de longo alcance as interferências são minimizadas;
- Além de ajudar em estudos topográficos, robôs móveis, também estão integrando alguns modelos de dispositivos móveis;
- Os modelos de mercado ainda possuem valores elevados para “cientistas de garagem” ou pesquisadores sem financiamento.
Neste sentido nossa proposta está em criar um sensor LIDAR e posteriormente acoplá-lo a um sistema de robô móvel Rocker-Boquie.
Um Lidar necessita de um mecanismo que possibilite sua leitura (2D ou 3D) do ambiente, esse sistema é capaz de fazer leituras de distâncias. Para esse propósito o seu design precisa rotacionar e produzir as leituras em 360 graus. A princípio isso não parece ser um problema complexo para se resolver, já que um motor poderia cumprir essa tarefa, o problema surge quando o sensor infravermelho não pode rotacionar junto com a estrutura, caso isso ocorra teríamos um problema com os fios do próprio sensor.
O modelo projetado por Grassin (2020) resolve essa questão da rotação, em seu modelo o sensor fica fixo em uma posição no qual a emissão do laser fica perpendicular ao chão, o laser então é refletido por um espelho que se encontra na parte superior da estrutura, o espelho por sua vez é fixado em uma estrutura capaz de se movimentar em um eixo, variando seu ângulo e o ângulo da reflexão do sensor. Dessa forma, com apenas um único feixe de laser é possível gerar um mapa 2D ou 3D, podemos observar a estrutura criada no programa de CAD 3D SolidWorks pela imagem abaixo.
Fonte: Grassin (2020).
Charles Grassin desenvolveu este modelo de LIDAR (Figura 1) “para os engenheiros de garagem”, estudantes e apaixonados por robótica que não dispõem de recursos financeiros para investir em projetos.
O motor de passo, responsável pela rotação da estrutura, possibilita uma leitura de 360 graus do ambiente e se prende na engrenagem da cor azul, o sensor Lidar se encontra fixo com o feixe do laser perpendicular ao chão na parte interior da engrenagem vermelha, o espelho responsável pela reflexão do feixe de laser se encontra na placa cinza no topo da estrutura.
Recriamos a estrutura como descrita (Figura 2). Para alternar o ângulo do espelho, foi utilizado dois micros servos motores modelo mg90, que necessitam de um movimento sem grande torque. Um anel com dois pequenos braços com um furo (cada braço está separado em 180 graus), esse furo é utilizado para encaixar um arame que se prende ao servo motor, proporcionando o movimento.
Método para o mapeamento: modelos matemáticos
A quantidade de dados gerados por um sensor pode se tornar complexa devido ao seu tamanho, mas ao mesmo tempo com o uso de algoritmos e técnicas é possível coletar as informações essenciais para um robô autônomo. O Lidar é um sensor que tem sido utilizado em robôs móveis que necessitam de uma leitura detalhada de algum ambiente, com o método de nuvem de pontos é possível extrair informações sobre o terreno no qual o robô está se movimentando.
Fonte: Elaborado pelo autor (2022).
Grassin (2020) propôs um método de coleta dos dados de um sensor Lidar baseado em nuvem de pontos. O microcontrolador utilizado deve converter os dados coletados do sensor em coordenadas cartesianas, para isso devemos saber a posição angular atual do motor de passo utilizado. Para isso deve ser dividido o passo atual do motor pela quantidade de passos existentes e então multiplicar o valor por 2 π
A inclinação do espelho é feita por meio do servo motor que está ligado por um eixo ao rotor que por sua vez se liga ao espelho por um outro eixo, a equação desse sistema é representada abaixo para a obtenção do ângulo de inclinação do espelho.
Com o ângulo do espelho agora é possível descobrir o ângulo relativo com feixe horizontal:
Fonte: Grassin (2020).
Dessa forma é possível descobrir as coordenadas tridimensionais do ponto do laser:
Fonte: Grassin (2020).
Chu et al. (2019) explicou que vários esforços por pesquisadores foram feitos para a segmentação 3D com base em dados de nuvens de pontos. Entretanto, o trabalho de mapeamento por meio desses dados ainda continua sendo muito complexo e desafiador.
Wallenberg et al. (2011) utilizou um sistema baseado em um sensor kinect. O algoritmo funciona em padrões de RGB, com a profundidade do ambiente sendo relacionada com a cor da imagem com o objetivo de rastrear objetos, mantendo-os no centro da câmera.
Fonte: Wallenberg, et al. (2011).
Hernández (2009) propôs um método de detecção automática de objetos e sua respectiva classificação em terrenos, em sua pesquisa ele explica que o sistema possui bons resultados em terrenos retos e com poucas irregularidades, mas em ambientes com um nível maior de entropia como rugosidades e inclinações tornam o processo mais complicado e menos preciso. Detalhe importante em seu projeto está no fato de que o algoritmo utilizado necessita de um alto poder de processamento impossibilitando assim a funcionalidade em tempo real. Cho (2014) e Lin (2015) demonstraram em sua pesquisa um sistema que coleta os dados de nuvens de pontos e transformam o ambiente em blocos ou em voxel (equivalente a um pixel em 3D), seu projeto se demonstrou eficaz em variados tipos de terrenos, mas seu ponto negativo está no tempo de processamento. Douillard (2011) propôs um conjunto de métodos de segmentação designado para a densidade de várias nuvens de pontos 3D.
Os autores propõem também um método chamado scanline segmentation que possuem um bom equilíbrio entre eficiência e quantidades grandes de dados, porém seu método funciona apenas em áreas urbanas. Wellington et al. (2006) trabalhou na exploração de terrenos e estruturas naturais por meio de sensores e sua pesquisa buscou coletar os dados dessa exploração e então classificá-la como possíveis obstáculos e vegetação. Em seu modelo de processamento ele utiliza dois algoritmos do tipo campos aleatórios de Markov, o semi-Markov model (HSMM) e o modelo de Voxel. Devido ao poder de processamento necessário se torna inviável a utilização desse método em tempo real.
Desta forma um estudo sobre um método ou algoritmo capaz do processamento em tempo real dos dados coletados por um sensor LIDAR se demonstra necessário para as aplicações em robôs móveis.
O Microcontrolador STM32
Em decorrência do espaço criado pela metodologia DIY (Do it Yourself) e da cultura Maker, a plataforma Arduino tem se popularizando em projetos de eletrônica e robótica, inicialmente projetado para ser um kit educacional para estudantes da área de eletrônica, tem se demonstrado muito útil em tarefas que não exigem um grau de complexidade de processamento muito alta. A placa Arduino foi pensada como opção para o projeto, porém ao considerarmos a velocidade de leitura do Lidar, um microcontrolador com um nível maior de processamento se tornou necessário.
O STM32 foi escolhido como substituto do Arduino, pois seu microcontrolador se trata do STM32F103C8T6, um microcontrolador que possui características superiores do microcontrolador utilizado pelo Arduino, o Atmega328p.
Tabela 1. Tabela de comparação entre o STM32 e o Arduino.
Fonte: Bauermeister (2018)
Um robô móvel com o Lidar: A Estrutura Rocker-Bogie
Em 2011 foi lançado o Rover Curiosity que aterrissou em Marte, sua estrutura era um passo extremamente importante, podendo definir o sucesso da missão de exploração, isso deve-se ao fato de que a manutenção de um robô desses é impossível por causa da distância no qual o Rover está atuando em relação a Terra. Os projetistas, engenheiros e cientistas tiveram que garantir que a movimentação do Rover Curiosity não fosse prejudicada por algum obstáculo como buracos ou pedras, um carro comum poderia facilmente ficar preso e não ser capaz de seguir seu trajeto previsto.
Um carro comum comercial possui um total de 4 rodas, sendo normalmente 2 rodas com o torque de movimento ou as 4 rodas com o torque, apesar de existir a suspensão (mola encontrada nas rodas) que é capaz de evitar vibrações causadas por pequenos obstáculos como pedras no caminho, o carro continua possuindo a desvantagem de ficar “empacado” quando vai de encontro com terrenos muito irregulares ou arenosos.
-
-
- Teorema de tales
- Lugar geométrico
- Semelhança entre triângulos
-
Podemos observar, pela imagem abaixo, uma estrutura inspirada no modelo de Khambhala (2020) projetada no programa de CAD chamado SolidWorks.
Fonte: Elaborado pelo autor (2022).
Para a montagem escolhemos o uso de materiais de fácil acesso e de baixo custo, a estrutura foi montada com canos de PVC que se encaixam por meio de parafusos. Pela imagem abaixo fica evidente as conexões mencionadas, além de que apesar de estar evidente apenas 4 motores na parte da frente, o objetivo do projeto é utilizar 6 motores com um motor em cada roda, a foto então apenas ilustra a aparência final do projeto, sem representar a versão final devidamente montada.
Fonte: Elaborado pelo autor (2022).
O motor para fornecer a tração necessária para o movimento do Rover se baseia em um motor de 12V, para conseguir prender a roda foi necessário projetar um encaixe em 3D.
O motor e a roda não possuem um encaixe pronto para se utilizar, dessa forma se viu necessário projetar uma estrutura capaz de suportar a roda sem entortar. É possível encontrar na internet a venda de vários modelos compatíveis com o que estávamos procurando, o problema principal surge quando precisávamos para o Rover um método capaz de ler as distâncias percorridas pelo robô, para cumprir essa tarefa utilizamos um sensor encoder muito comum utilizado em projetos de eletrônica. A imagem seguinte representa o encoder utilizado.
Fonte: Elaborado pelo autor (2022).
Esse sensor se baseia na emissão de um feixe de luz, a lógica de contagem de passos se dá pela recepção e interrupção desse feixe de luz. É necessário então fixar um disco com furos preso no motor, que ao girar irá gerar pulsos de leitura no sensor, podendo representar a quantidade de passos dados pelo robô.
Fonte: Oliveira (2019).
Para resolver esse problema projetamos, com auxílio de uma ferramenta de CAD, uma estrutura capaz de conectar o motor com a roda e o disco perfurado para as leituras do encoder.
O encaixe foi dividido em duas partes, a primeira parte se prende no motor com um espaço para encaixar o sensor encoder no disco perfurado, a base dessa primeira parte possui 4 furos para conectar com a segunda parte. Toda a estrutura poderia ter sido projetada em uma única parte e então imprimido em uma impressora 3D, a escolha então de dividi-la em duas partes estava para garantir uma base lisa de apoio na mesa de impressão, evitando suportes de PLA que poderiam ter gerado gastos desnecessários.
Esta peça trata da primeira parte, podemos observar o disco perfurado no qual será utilizado para as leituras do sensor encoder.
Fonte: Elaborado pelo autor (2022).
A segunda parte da peça se conecta com a primeira por meio de parafusos, em sua base podemos perceber uma estrutura hexagonal que se encaixa diretamente com a roda que será utilizada, o furo no meio novamente serve para um parafuso garantir que a roda não escape do motor.
Fonte: Elaborado pelo autor (2022).
Na imagem a seguir o resultado, com a peça antes de ser encaixada com o motor e a roda, e logo depois com o encaixe.
Considerações finais e próximas etapas
Entre os objetivos da robótica móvel está o desenvolvimento de robôs autônomos. A robótica móvel enfatiza os problemas relacionados à locomoção dos robôs em ambientes complexos, que podem se alterar
dinamicamente. Um robô autônomo deve ser capaz de navegar nestes ambientes sem que haja intervenção humana, ou seja, deve adquirir informações suficientes e utilizar estes dados sobre o ambiente, respondendo a necessidade de detectar obstáculos e agir de tal forma que possa concluir tarefas nestes espaços explorados.
O conceito de “inteligência” para este tipo de robô está no âmbito da capacidade de coleta e interpretação dos dados na ação de exploração do ambiente – modelos matemático-computacionais, ou seja, esses robôs são considerados “inteligentes” se dependentes de técnicas de controle e de sensores atuam sobre a solução de problemas de locomoção – mapeamento e localização simultâneos.
Esse processo pode envolver muitos sensores, neste sentido é que compreender o funcionamento e aplicação de um sensor LIDAR de baixo custo oferece um modelo de interpretação e navegação para o robô móvel. O sensor de varredura inicialmente utilizado em robôs móveis possuía uma amplitude de 180° (Pereira, 2006), porém adotando um modelo de LIDAR com 360° de amplitude dinâmica e adotando os paradigmas reativo e deliberativo indicamos um caminho para robótica móvel e dos modelos matemáticos aplicados na interpretação destes dados.
Deste modo, nosso trabalho se revela pertinente aos estudos e ampliações dos modelos robóticos, sejam em meios acadêmicos ou ainda laboratórios de mecatrônica visando a compreensão e aplicação desta tecnologia – LIDAR, bem como a articulação de conhecimentos de desenvolvimento de modelos matemático-computacionais adequados a este sistema.
* Graduando em Engenharia Mecatrônica pelo Centro Universitário FIAP/SP e aluno de Iniciação cientifica. Possui experiência como professor de robótica educacional e laboratório maker pelo colégio Módulo/SP.
** postdoc em Educação Matemática e Jogos Digitais pela UNESP/FEG. Doutor em Educação Matemática e Novas Tecnologias Digitais. Atua como pesquisador junto ao grupo de pesquisa Fenomenologia em Educação Matemática (FEM) UNESP de Rio Claro. Entre outras atividades é docente junto ao Centro Universitário FIAP/SP nos cursos de Engenharia Mecatrônica e Engenharia da Computação. Pesquisador em jogos digitais e novas tecnologias na educação.
Referências Bibliográficas
AGUIRRE, P. S., VACA, V. C., POVEDA, R. S., & JARAMILLO, e. Steam methodology, as a resource for learning in higher education. Proceedings of INTED2020 Conference, 2nd-4th March 2020, Valencia, Spain.
BACICH, Lilian; MORAN, José. Metodologias ativas para uma educação inovadora: uma abordagem teórico-prática. Penso Editora, 2018.
BAUERMEISTER Giovanni. FilipeFlop Componentes Eletrônicos. STM32 com IDE Arduino. 2 de novembro de 2018. Disponível em: <https://www.filipeflop.com/blog/stm32-com-ide-arduino-primeiros-passos/>. Acesso em jul 2020.
Breiner, J. M., Harkness, S. S., Johnson, C. C., & Koehler, C. M. (2012). What is STEM? A discussion about conceptions of STEM in education and partnerships. School Science and Mathematics. v. 112, n. 1, p. 3-11, 2012.
BREINER, Jonathan M. et al. What is STEM? A discussion about conceptions of STEM in education and partnerships. School Science and Mathematics, v. 112, n. 1, p. 3-11, 2012.
Cho S, Kim J, Ikram W, Cho K, Jeong Y, Um K, Sim S (2014) Sloped terrain segmentation for autonomous drive using sparse 3D point cloud. Sci World J 2014:1–10.
COLAÇO, A. F., MOLIN, J. P., ROSELL-POLO, J. R., & ESCOLÀ, A. (2018). Application of light detection and ranging and ultrasonic sensors to high-throughput phenotyping and precision horticulture: current status and challenges. Horticulture research, 5(1), 1-11.
CUI, Xiao; SHI, Hao. A*-based Pathfinding in Modern Computer Games. IJCSNS International Journal of Computer Science and Network Security, VOL.11 No.1, Janeiro 2011.
Douillard B, Underwood J, Kuntz N, Vlaskine V, Quadros A, Morton P, Frenkel A (2011) On the segmentation of 3D LIDAR point clouds. In: IEEE international conference on robotics and automation, Shanghai, China, 9–13 May, pp 2798–2805.
DroneBot Workshop. DF Robot LIDAR Sensors – Getting Started with LIDAR. Em: <https://dronebotworkshop.com/getting-started-with-lidar/>. Acesso em dez 2020.
FERNÁNDEZ-MADRIGAL, Juan-Antonio (Ed.). Simultaneous Localization and Mapping for Mobile Robots: Introduction and Methods: Introduction and Methods. IGI global, 2012.
GLENNIE, Craig. Kinematic terrestrial light-detection and ranging system for scanning. Transportation research record, v. 2105, n. 1, p. 135-141, 2009. doi:10.3141/2105-17
GRASSIN, Charles. Charles’ Labs – 3D Lidar Scanner MK2. Em: <https://charleslabs.fr/en/project-3D+Lidar+Scanner+MK2>. Electronics, 14 out 2020. Acesso em dez 2020.
GUIMARÃES, Carlos SS; MAURER, Henrique P. EduBOT: Protótipo de uma plataforma robótica para educação através da Metareciclagem. IN: II Simpósio de Tecnologia da Informação da Região Noroeste do Rio Grande do Sul, 2011.
Hernández J, Marcotegui B (2009) Point cloud segmentation towards urban ground modeling. In: 2009 urban remote sensing event, Shanghai, China, 20–22 May, pp 1–5.
INGLE, Shantanu; PHUTE, Madhuri. Tesla Autopilot : Semi Autonomous Driving, an Uptick for Future Autonomy. International Research Journal of Engineering and Technology (IRJET). Volume 3, Set 2016.
KHAMBHALA, Navin. Rocker bogie Robot “Stair climbing car”. 2020. Disponível em: <https://navinkhambhala.com/rocker-bogie-robot>. Acesso em dez 2020.
LAMON, Pierre; SIEGWART, Roland. 3D-Odometry for rough terrain–Towards real 3D navigation. 2003. Proceedings – IEEE International Conference on Robotics and Automation 1ed. pp.440- 445. 2003. DOI: 10.1109/ROBOT.2003.1241634. em https://www.researchgate.net/publication/4041316_3D-Odometry_for_rough_terrain_-_Towards_real_3D_navigation.
LI, Yangming; OLSON, Edwin B. A general purpose feature extractor for light detection and ranging data. Sensors, v. 10, n. 11, p. 10356-10375, 2010.
Lin X, Zhanga J (2015) Segmentation-based ground points detection from mobile laser scanning point cloud. In: The international archives of the photogrammetry, remote sensing and spatial information sciences, 2015 international workshop on image and data fusion, Hawaii, USA, 26 June, pp 99–102.
Nia, D. N., Tang, H. S., Karasfi, B., Motlagh, O. R. E., & Kit, A. C. Virtual force field algorithm for a behaviour-based autonomous robot in unknown environments. Proceedings of the Institution of Mechanical Engineers, Part I: Journal of Systems and Control Engineering, v. 225, n. 1, p. 51-62, 2011. doi:10.1243/09596518JSCE958
Olhar Digital. Conheça Colossus, o robô bombeiro que ajudou a apagar o incêndio na Notre-Dame. Em: https://olhardigital.com.br/2019/04/17/noticias/conheca-o-colossus-robo-bombeiro-que-ajudou-a-apagar-o-incendio-na-notre-dame/. Acesso em Março 2021.
OLIVEIRA, Fábio Ricardo. Embarcados: Transdutor Digital de Movimento – Encoder. julho 4, 2019. Disponível em:<https://www.embarcados.com.br/transdutor-digital-de-movimento-encoder/>. Acesso em out 2021
OLUNLOYO, V. O. S.; AYOMOH, M. K. O. Autonomous mobile robot navigation using hybrid virtual force field concept. European Journal of Scientific Research, v. 31, n. 2, p. 204-228, 2009.
REUTEBUCH, Stephen E.; ANDERSEN, Hans-Erik; MCGAUGHEY, Robert J. Light detection and ranging (LIDAR): an emerging tool for multiple resource inventory. Journal of forestry, v. 103, n. 6, p. 286-292, 2005.
ROBERTS, Amanda; CANTU, Diana. Applying STEM Instructional Strategies to Design and Technology Curriculum. 2012.
SOUZA, Luis F. F.; CARVALHO, Felipe C. T.; JÚNIOR, Lenir A.; REIS, Gabriela L.; BARROSO, Márcio F. S.; PEREIRA, Eduardo B. Algoritmo De Propagação Wavefront Associado ao Genético para Otimização de Trajetórias. Anais do XX Congresso Brasileiro de Automática. Belo Horizonte, MG, 20 a 24 de Setembro de 2014. Em: <http://www.swge.inf.br/CBA2014/anais/PDF/1569935591.pdf>. Acesso em jan 2020.
STENTZ, Anthony. The focussed D* algorithm for real-time replanning. Robotics Institute Carnegie Mellon University.Pittsburgh, Pennsylvania. In: IJCAI. 1995. p. 1652-1659. http://robby.caltech.edu/~jwb/courses/ME132/handouts/Dstar_ijcai95.pdf
TOWNES, C. Theodore H. Maiman (1927–2007). Nature 447, 654 (2007). Em: https://www.nature.com/articles/447654a. Acesso em Março 2021.
VINCENT, R. A., & ECKER, M. Light detection and ranging (LiDAR) technology evaluation (No. OR11-007). Missouri. Dept. of Transportation, 2010.
Wallenberg M, Felsberg M, Forssén P (2011) Leaf segmentation using the Kinect. In: Proceedings SSBA’11 symposium on image analysis, Linköping, Sweden, 17–18 March.
WATKINS, Jessica; MAZUR, Eric. Retaining students in science, technology, engineering, and mathematics (STEM) majors. Journal of College Science Teaching, v. 42, n. 5, p. 36-41, 2013. Disponível em: < http://www.jstor.org/stable/43631580.>. Acesso em fev 2020.
WATKINS, Jessica; MAZUR, Eric. Retaining students in science, technology, engineering, and mathematics (STEM) majors. Journal of College Science Teaching, v. 42, n. 5, p. 36-41, 2013.
Wellington C, Courville A, Stentz A (2006) A generative model of terrain for autonomous navigation in vegetation. Int J Robot Res 25(12):1287–1304.
WILLNER, Christopher Allen; MCDOWELL, James. Full-field light detection and ranging imaging system. U.S. Patent n. 7,746,450, 29 jun. 2010.
YAMASHITA, Gustavo Y. & TONÉIS, Cristiano N. A Cinemática de um Micromouse: Modelos matemáticos aplicados a um robô móvel. 11SEMAT – 11ª Semana da Licenciatura em Matemática (canal YouTube), IFGoiás – Campus Goiânia: Goiás, 2020b.
YAMASHITA, Gustavo Y. & TONÉIS, Cristiano N. A robótica como um espaço para uma ressignificação de aplicações matemáticas: a cinemática de um micromouse. CIET:EnPED – Congresso Internacional de Educação e Tecnologias / Encontro de Pesquisadores em Educação a Distância (canal YouTube). UFSCar, 2020a.
YAMASHITA, Gustavo Y. & TONÉIS, Cristiano N. Estabilidade e Controle de um Micromouse: Modelos matemático-computacionais. CONAENGE 2020 – 6° Congresso Nacional Online de Engenharia Mecânica e Automação. 2020. Disponível em < https://conaenge.com.br/estabilidade-e-controle-de-um-micromouse/>.