Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/39113
Título: Melhoria de navegação para um robô de trekking por meio de processamento de imagem
Título(s) alternativo(s): Navigation enhancement for a trekking robot through image processing
Autor(es): Ferreira Neto, João Paulo
Orientador(es): Torrico, César Rafael Claure
Palavras-chave: Robôs
Navegação autônoma
Raspberry Pi (Computador)
Inteligência computacional
Visão por computador
Robots
Autonomous navigation
Raspberry Pi (Computer)
Computational intelligence
Computer vision
Data do documento: 12-Nov-2025
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Pato Branco
Citação: FERREIRA NETO, João Paulo. Melhoria de navegação para um robô de trekking por meio de processamento de imagem. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025.
Resumo: A navegação autônoma de robôs móveis, especialmente em ambientes internos, onde tecnologias como o GPS apresentam limitações significativas, representa um dos grandes desafios da robótica contemporânea. No contexto da competição de Robô Trekking indoor, propôs-se o desenvolvimento de um sistema de visão computacional embarcado. O objetivo foi desenvolver implementar e validar a viabilidade e o desempenho de um sistema de visão computacional embarcado para o robô Trekking da equipe Patobots, utilizando a detecção da cor de cones de sinalização para gerar comandos de correção de trajetória em tempo real. Para tanto, empregou-se uma Raspberry Pi 4 como unidade de processamento, acoplada a uma câmera USB e a um servo motor modelo MG90S, integrando-se com algoritmos implementados em Python por meio da biblioteca OpenCV. O sistema de visão foi projetado para identificar cores de cones de sinalização coloridos presentes na trilha da competição, utilizando conversão de espaço de cores para o Matiz, Saturação e Brilho (HSB), segmentação por limiarização de faixa e extração de contornos. A partir dessas informações, o protótipo foi capaz de calcular o centro do alvo e aplicar estratégias de rastreamento ativo em tempo real. Durante os testes do sistema, verificou-se que a abordagem atingiu taxas médias de até 70 quadros por segundo, apresentando latência suficientemente baixa para aplicações de controle dinâmico. As ações de controle derivadas da visão são transmitidas via comunicação serial (Receptor/Transmissor Assíncrono Universal, do inglês Universal Asynchronous Receiver/Transmitter (UART)) ao microcontrolador STM32, responsável pela locomoção, estabelecendo a arquitetura para uma futura estratégia de controle híbrido que combina dados inerciais e visuais. Esses resultados demonstraram a capacidade do sistema em identificar alvos com precisão e gerar os comandos de direção necessários para o alinhamento do robô ao objetivo. A validação do sistema completo de navegação em campo não foi realizada devido a limitações de cronograma, sendo a integração e a fusão sensorial os principais trabalhos futuros. O projeto apresenta um sistema de visão performático e documentado que representa uma base sólida e promissora para a futura implementação completa no Robô Trekking.
Abstract: Autonomous navigation of mobile robots, especially in indoor environments where technologies such as GPS face significant limitations, represents one of the major challenges of contemporary robotics. In the context of the indoor Trekking Robot competition, the development of an embedded computer vision system was proposed. The objective was to develop, implement, and validate the feasibility and performance of an embedded computer vision system for the Patobots team’s Trekking robot, using the detection of signaling cone colors to generate real-time trajectory correction commands. To this end, a Raspberry Pi 4 was employed as the processing unit, coupled with a USB camera and an MG90S servo motor, integrated with algorithms implemented in Python using the OpenCV library. The vision system was designed to identify colored signaling cones present along the competition track by using color-space conversion to Hue, Saturation, and Brightness (HSB), range-based threshold segmentation, and contour extraction. Based on this information, the prototype was able to compute the target’s center and apply active tracking strategies in real time. During system testing, the approach achieved average rates of up to 70 frames per second, demonstrating sufficiently low latency for dynamic control applications. The control actions derived from vision are transmitted via serial communication (Universal Asynchronous Receiver/Transmitter – UART) to the STM32 microcontroller responsible for locomotion, establishing the architecture for a future hybrid control strategy that combines inertial and visual data. These results demonstrated the system’s capability to accurately identify targets and generate the steering commands required to align the robot with its objective. Full validation of the navigation system in the field was not carried out due to scheduling constraints, with integration and sensor fusion identified as the main directions for future work. The project presents a high-performance and well-documented vision system that provides a solid and promising foundation for the full future implementation on the Trekking Robot.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/39113
Aparece nas coleções:PB - Engenharia de Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
melhoriaroboprocessamentoimagem.pdf12,01 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons