Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/39540
Registro completo de metadados
Campo DCValorIdioma
dc.creatorOliveira, Isadora Fernandes-
dc.date.accessioned2026-03-03T14:36:06Z-
dc.date.available2026-03-03T14:36:06Z-
dc.date.issued2025-02-10-
dc.identifier.citationOLIVEIRA, Isadora Fernandes. Identificação de discurso de ódio nas redes sociais por meio de redes neurais artificiais LSTM e RoBERTa 2025. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) - Universidade Tecnológica Federal do Paraná, Medianeira, 2025.pt_BR
dc.identifier.urihttp://repositorio.utfpr.edu.br/jspui/handle/1/39540-
dc.description.abstractThis work addresses the detection of hate speech on social networks using RNA, focusing on the comparison between the LSTM architectures and the BERT variant, RoBERTa. The alarming growth of speeches on these platforms makes it essential to use Artificial Intelligence (AI) for the automatic identification of this type of content. The study seeks to analyze the performance of these architectures in the classification of hate speech, evaluating their effecti veness metrics and comparing the results with other models that used the same database. For this, textual data were collected and preprocessed, followed by training and tuning the models, testing different configurations of batch size and number of epochs. The results indicated that the RoBERTa model outperformed LSTM, presenting greater accuracy in the classification of content. However, a multilingual BERT model demonstrated even better performance than RoBERTa, possibly due to its ability to handle linguistic variations and generalize across different contexts. Despite the effectiveness of transformers, high computational cost and training time have been challenges for their large-scale implementation. We conclude that IA, especially transformer-based models, represent a promising tool in combating online hate speech. However, optimizations are straightforward to balance performance and computational efficiency, making these models more viable for practical applications.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Tecnológica Federal do Paranápt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttps://creativecommons.org/licenses/by-nc-sa/4.0/pt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectAlgorítmospt_BR
dc.subjectAprendizado do computadorpt_BR
dc.subjectArtificial intelligencept_BR
dc.subjectAlgorithmspt_BR
dc.subjectMachine learningpt_BR
dc.titleIdentificação de discurso de ódio nas redes sociais por meio de redes neurais artificiais LSTM e RoBERTapt_BR
dc.title.alternativeIdentification of hate speech in social networks through Artificial Intelligencept_BR
dc.typebachelorThesispt_BR
dc.description.resumoO presente trabalho aborda a detecção de discurso de ódio nas redes sociais utilizando Rede Neural Artificial (RNA), com foco na comparação entre as arquiteturas Long Short Term Memory (LSTM) e a variante do Bidirectional Encoder Representations from Transformers (BERT), a RoBERTa. O crescimento alarmante de discursos prejudiciais nessas plataformas torna essencial o uso de Inteligência Artificial (IA) para a identificação automática desse tipo de conteúdo. O estudo busca analisar o desempenho dessas arquiteturas na classificação de discurso de ódio, avaliando suas métricas de eficácia e comparando os resultados com outros modelos que utilizaram o mesmo banco de dados. Para isso, foram coletados e pré-processados dados textuais, seguidos pelo treinamento e ajuste dos modelos, testando diferentes configurações de batch size e número de épocas. Os resultados indicaram que o modelo RoBERTa superou o LSTM apresentando maior acurácia na classificação dos conteúdos. No entanto, um modelo BERT Multilíngue demonstrou um desempenho ainda melhor do que o RoBERTa, possivelmente devido à sua capacidade de lidar com variações linguísticas e generalizar em diferentes contextos. Apesar da eficácia dos transformers, o alto custo computacional e o tempo de treinamento foram desafios para sua implementação em larga escala. Conclui-se que a Inteligência Artificial (IA), especialmente os modelos baseados em transformers, representa uma ferramenta promissora no combate ao discurso de ódio online. No entanto, otimizações são necessárias para equilibrar desempenho e eficiência computacional, tornando esses modelos mais viáveis para aplicações práticas.pt_BR
dc.degree.localMedianeirapt_BR
dc.publisher.localMedianeirapt_BR
dc.contributor.advisor1Aikes Junior, Jorge-
dc.contributor.referee1Aikes Junior, Jorge-
dc.contributor.referee2Lamb, Juliano Rodrigo-
dc.contributor.referee3Betzek, Nelson Miguel-
dc.publisher.countryBrasilpt_BR
dc.publisher.programCiência da Computaçãopt_BR
dc.publisher.initialsUTFPRpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
Aparece nas coleções:MD - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
identificacaodiscursoodioredes.pdf2,28 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons