Use este identificador para citar ou linkar para este item:
http://repositorio.utfpr.edu.br/jspui/handle/1/27888
Título: | Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais |
Título(s) alternativo(s): | Object detection and 3D pose estimation through the use of convolutional neural networks |
Autor(es): | Conter, Felipe Pierre |
Orientador(es): | Fabro, Joao Alberto |
Palavras-chave: | Robótica Robôs - Programação Redes neurais (Computação) Imagem tridimensional Robotics Robots - Programming Neural networks (Computer science) Three-dimensional imaging |
Data do documento: | 3-Fev-2022 |
Editor: | Universidade Tecnológica Federal do Paraná |
Câmpus: | Curitiba |
Citação: | CONTER, Felipe Pierre. Detecção de objetos e estimativa de posição 3D através da aplicação de redes neurais convolucionais. 2022. Dissertação (Mestrado em Computação Aplicada) - Universidade Tecnológica Federal do Paraná, Curitiba, 2022. |
Resumo: | Para aplicar com sucesso soluções de robótica em ambientes não controlados é necessário obter informação de qualidade sobre o ambiente de atuação do robô. A detecção, o reconhecimento e a estimativa de posição 3D de objetos fazem parte desse processo, sendo importantes para tarefas como a manipulação de objetos com um braço robótico. Métodos baseados em redes neurais convolucionais e modelos 3D dos objetos obtiveram sucesso nesta tarefa, em diferentes cenários, apesar da dificuldade de obtenção de modelos 3D em uma situação prática. Além disso, nem todos os métodos podem ser executados em sistemas embarcados, como aqueles usualmente presentes em robôs autônomos de serviço. Sensores RGB-D recentemente ganharam importância como ferramentas para o sensoriamento 3D do ambiente. Estes sensores associam a imagens coloridas RGB (red, green and blue) uma estimativa de profundidade para cada pixel da imagem, tornando possível a estimativa de posição 3D de objetos na cena com relação ao sensor. Este trabalho propõe e avalia um método que, a partir de dois registros RGB-D feitos de posições diferentes, faz a estimativa do ponto central 3D de um objeto, sem a necessidade de conhecer o formato 3D do objeto de antemão. Os experimentos demonstram que a distância euclidiana média entre o ponto central 3D estimado e o real foi de 9,4 cm, com desvio padrão de 5,4 cm, sendo que na melhor estimativa este valor foi de 8 mm. |
Abstract: | To successfully apply robotics solutions in uncontrolled environments it is necessary to obtain quality information about the robot’s operating environment. Detecting, recognizing and estimating 3D position of objects are part of this process and are important for tasks such as object manipulation with a robotic arm. Methods based on convolutional neural networks and 3D models of objects were successful in this task, in different scenarios, despite the difficulty of obtaining 3D models in a practical situation. Also, not all methods can be executed in embedded systems, such as those usually present in autonomous service robots. RGB-D sensors have recently gained importance as tools for environment 3D sensing. These sensors associate RGB color images (red, green and blue) with a depth estimate for each pixel of the image, making it possible to estimate the 3D position of objects in the scene with respect to the sensor. This work proposes and evaluates a method that, from two RGB-D shots made from different positions, estimates an object’s 3D center point, without the need of knowing the object’s 3D shape in advance. The experiments show that the average euclidian distance between the estimated and the real 3D center points was 9.4 cm, with a standard deviation of 5.4 cm and in the best estimation this value was 8 mm. |
URI: | http://repositorio.utfpr.edu.br/jspui/handle/1/27888 |
Aparece nas coleções: | CT - Programa de Pós-Graduação em Computação Aplicada |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
deteccaoobjetosestimativaposicao.pdf | 13,55 MB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma Licença Creative Commons