Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/29123
Título: Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos
Título(s) alternativo(s): Comparison of performance of the Deep Q-Learning algorithm in simulated environments with continuous states
Autor(es): Colombo, Gabriel
Orientador(es): Casanova, Dalcimar
Palavras-chave: Aprendizado de máquinas
Aprendizado do computador
Inteligência artificial
Redes neurais (Computação)
Machine learning
Neural networks (Computer science)
Artificial intelligence
Neural networks (Computer science)
Data do documento: 24-Jun-2022
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Pato Branco
Citação: COLOMBO, Gabriel. Comparação de desempenho do algoritmo Deep Q-Learning em ambientes simulados com estados contínuos. 2022. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2022.
Resumo: A aprendizagem por reforço surgiu na década de 80 e compõe uma das três grandes áreas de aprendizagem de máquinas, sendo as outras duas a aprendizagem supervisionada e a não supervisionada. Os problemas de reforço possuem características peculiares, como a troca de informação que ocorre entre o agente e o ambiente em que ele está inserido, além disso, todos os problemas de aprendizagem por reforço são focados em objetivos e utilizam recompensas como estímulos para a aprendizagem. Outra particularidade da aprendizagem por reforço é que ela não precisa de informações prévias sobre o ambiente, pois é possível coletar os dados a partir das interações, utilizando técnicas de tentativa e erro. Apesar de ter surgido na década de 80, a aprendizagem por reforço voltou a ganhar popularidade recentemente com o avanço das redes neurais e o surgimento das redes neurais profundas, pois o fato de elas conseguirem encontrar aproximações de funções, tornou possível solucionar problemas com infinitos estados, que são mais semelhantes aos problemas existentes no mundo real. Uma grande ambição da aprendizagem por reforço é criar um algoritmo que possa ser generalizado e consiga se adaptar a diversos ambientes. Nesse sentido, esse trabalho tem o objetivo de avaliar o algoritmo Deep Q-Learning em 5 ambientes com estados contínuos e analisar tanto o seu desempenho quanto sua capacidade de adaptação para diferentes ambientes.
Abstract: Reinforcement learning emerged in the 1980s and is one of three main areas of machine learning, the other two being supervised and unsupervised learning. Reinforcement problems have unique characteristics, such as the exchange of information between the agent and the environment in which it is inserted. In addition, all reinforcement learning problems are based on objectives and make use of rewards as stimulus for learning. Another particularity of reinforcement learning is that it does not need prior information about the environment, as it is possible to collect data from interactions, using trial and error techniques. Although it emerged in the 1980s, reinforcement learning has recently gained popularity with the advancement of neural networks and the emergence of deep neural networks, since the fact that they can find function approximations has made it possible to solve problems with infinite states, which are more similar to problems in the real world. A major ambition of reinforcement learning is to create an algorithm that can be generalized and adapted to various environments. In this sense, this work aims to evaluate the Deep Q-Learning algorithm on 5 continuous state environments and to analyze both its performance and its adaptation capacity for different environments.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/29123
Aparece nas coleções:PB - Engenharia de Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
aprendizagemreforcotreinamentoagente.pdf3,3 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons