Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/27888
Título: Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais
Título(s) alternativo(s): Object detection and 3D pose estimation through the use of convolutional neural networks
Autor(es): Conter, Felipe Pierre
Orientador(es): Fabro, Joao Alberto
Palavras-chave: Robótica
Robôs - Programação
Redes neurais (Computação)
Imagem tridimensional
Robotics
Robots - Programming
Neural networks (Computer science)
Three-dimensional imaging
Data do documento: 3-Fev-2022
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Curitiba
Citação: CONTER, Felipe Pierre. Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais. 2022. Dissertação (Mestrado em Computação Aplicada) - Universidade Tecnológica Federal do Paraná, Curitiba, 2022.
Resumo: Para aplicar com sucesso soluções de robótica em ambientes não controlados é necessário obter informação de qualidade sobre o ambiente de atuação do robô. A detecção, o reconhecimento e a estimativa de posição 3D de objetos fazem parte desse processo, sendo importantes para tarefas como a manipulação de objetos com um braço robótico. Métodos baseados em redes neurais convolucionais e modelos 3D dos objetos obtiveram sucesso nesta tarefa, em diferentes cenários, apesar da dificuldade de obtenção de modelos 3D em uma situação prática. Além disso, nem todos os métodos podem ser executados em sistemas embarcados, como aqueles usualmente presentes em robôs autônomos de serviço. Sensores RGB-D recentemente ganharam importância como ferramentas para o sensoriamento 3D do ambiente. Estes sensores associam a imagens coloridas RGB (red, green and blue) uma estimativa de profundidade para cada pixel da imagem, tornando possível a estimativa de posição 3D de objetos na cena com relação ao sensor. Este trabalho propõe e avalia um método que, a partir de dois registros RGB-D feitos de posições diferentes, faz a estimativa do ponto central 3D de um objeto, sem a necessidade de conhecer o formato 3D do objeto de antemão. Os experimentos demonstram que a distância euclidiana média entre o ponto central 3D estimado e o real foi de 9,4 cm, com desvio padrão de 5,4 cm, sendo que na melhor estimativa este valor foi de 8 mm.
Abstract: To successfully apply robotics solutions in uncontrolled environments it is necessary to obtain quality information about the robot’s operating environment. Detecting, recognizing and estimating 3D position of objects are part of this process and are important for tasks such as object manipulation with a robotic arm. Methods based on convolutional neural networks and 3D models of objects were successful in this task, in different scenarios, despite the difficulty of obtaining 3D models in a practical situation. Also, not all methods can be executed in embedded systems, such as those usually present in autonomous service robots. RGB-D sensors have recently gained importance as tools for environment 3D sensing. These sensors associate RGB color images (red, green and blue) with a depth estimate for each pixel of the image, making it possible to estimate the 3D position of objects in the scene with respect to the sensor. This work proposes and evaluates a method that, from two RGB-D shots made from different positions, estimates an object’s 3D center point, without the need of knowing the object’s 3D shape in advance. The experiments show that the average euclidian distance between the estimated and the real 3D center points was 9.4 cm, with a standard deviation of 5.4 cm and in the best estimation this value was 8 mm.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/27888
Aparece nas coleções:CT - Programa de Pós-Graduação em Computação Aplicada

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
deteccaoobjetosestimativaposicao.pdf13,55 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons