Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/40084
Registro completo de metadados
Campo DCValorIdioma
dc.creatorRaphael, Igor de Oliveira-
dc.date.accessioned2026-04-09T14:22:40Z-
dc.date.available2026-04-09T14:22:40Z-
dc.date.issued2025-11-03-
dc.identifier.citationRAPHAEL, Igor de Oliveira. Assistente universitário baseado em modelos de linguagem e geração aumentada por recuperação. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia da Computação) - Universidade Tecnológica Federal do Paraná, Cornélio Procópio, 2025.pt_BR
dc.identifier.urihttp://repositorio.utfpr.edu.br/jspui/handle/1/40084-
dc.description.abstractQuick and clear access to institutional information represents a challenge for higher education students, as regulations and academic documents are often dispersed and written in technical language. Aiming to mitigate this problem, this work details the development of an intelligent university assistant prototype, based on Large Language Models (LLMs) and the Retrieval- Augmented Generation (RAG) technique. Contextualizing itself with institutional academic documents, the solution was implemented in Python, using the Transformers library to orches- trate the data flow, the FAISS library for creating a vector database of official documents, and a compact language model (Llama-3.2-1B-Instruct) for execution in a local environment. The user interface was built with Streamlit. In functional tests, although the RAG architecture was successfully implemented, the quality of the responses generated by the assistant proved unsatisfactory, with generic, evasive, and disconnected information. It was concluded that the results were inconclusive due to severe hardware limitations, which forced the use of a language model with low context interpretation capabilities. The study validates the proposed architecture but highlights that the effectiveness of systems like this is directly dependent on the computational capacity to support more robust LLMs.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Tecnológica Federal do Paranápt_BR
dc.rightsopenAccesspt_BR
dc.rightsAttribution-NonCommercial-ShareAlike 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/*
dc.subjectLinguagem de programação (Computadores)pt_BR
dc.subjectServiços de suporte (Gerenciamento)pt_BR
dc.subjectDocumentospt_BR
dc.subjectProgramming languages (Electronic computers)pt_BR
dc.subjectSupport services (Management)pt_BR
dc.subjectRecordspt_BR
dc.titleAssistente universitário baseado em modelos de linguagem e geração aumentada por recuperaçãopt_BR
dc.title.alternativeUniversity assistant based on models of language and retrieval-augmented generationpt_BR
dc.typebachelorThesispt_BR
dc.description.resumoO acesso rápido e claro a informações institucionais representa um desafio para estudantes do ensino superior, onde regulamentos e documentos acadêmicos se encontram dispersos e em linguagem técnica. Visando mitigar esse problema, este trabalho detalha o desenvolvimento de um protótipo de assistente universitário inteligente, baseado em Modelos de Linguagem em Larga Escala (LLMs - Large language Models) e na técnica de Geração Aumentada por Recuperação (RAG - Retrieval-Augmented Generation). Se contextualizando com os documentos institucionais acadêmicos, a solução foi implementada em Python, utilizando a biblioteca Transformers para orquestrar o fluxo de dados, a biblioteca FAISS para a criação de uma base vetorial de documentos oficiais, e um modelo de linguagem compacto (Llama-3.2-1B-Instruct) para execução em ambiente local. A interface de usuário foi construída com Streamlit. Nos testes funcionais, embora a arquitetura RAG tenha sido implementada com sucesso, a qualidade das respostas geradas pelo assistente se mostrou insatisfatória, com informações genéricas, evasivas e desconexas. Concluiu-se que os resultados foram inconclusivos devido às severas limitações de hardware, que forçaram o uso de um modelo de linguagem com baixa capacidade de interpretação de contexto. O estudo valida a arquitetura proposta, mas evidencia que a eficácia de sistemas como este é diretamente dependente da capacidade computacional para suportar LLMs mais robustos.pt_BR
dc.degree.localCornélio Procópiopt_BR
dc.publisher.localCornelio Procopiopt_BR
dc.contributor.advisor1Watanabe, Willian Massami-
dc.contributor.referee1Watanabe, Willian Massami-
dc.contributor.referee2Silva, Adriano Rivolli da-
dc.contributor.referee3Feitosa, Alexandre Rômolo Moreira-
dc.publisher.countryBrasilpt_BR
dc.publisher.programEngenharia da Computaçãopt_BR
dc.publisher.initialsUTFPRpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
Aparece nas coleções:CP - Engenharia da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
assistenteuniversitariomodeloslinguagem.pdf709,33 kBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons