Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/39925
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSilva, Geovana Figueiredo-
dc.date.accessioned2026-03-31T13:54:07Z-
dc.date.available2026-03-31T13:54:07Z-
dc.date.issued2025-06-18-
dc.identifier.citationSILVA, Geovana Figueiredo. Avaliando diferentes técnicas de inteligência artificial explicável em classificação automática de sementes de soja. 2025. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Universidade Tecnológica Federal do Paraná, Campo Mourão, 2025.pt_BR
dc.identifier.urihttp://repositorio.utfpr.edu.br/jspui/handle/1/39925-
dc.description.abstractThis study addresses the challenge of automatic classification of defects in soybean seeds, a task in which Artificial Intelligence (AI) models are employed. In this context, we aim to investigate the application of Explainable Artificial Intelligence (XAI) techniques, focusing on LIME and Grad-CAM, to conduct a qualitative analysis of the decision-making process of Convolutional Neural Networks (CNNs) in the classification of defects in soybean seeds. The ResNet50 and SqueezeNet architectures were evaluated, with the goal of assessing quantitative performance metrics and understanding the basis of their predictions. The results indicate that although both architectures presented similar accuracy, the XAI-based analysis revealed significant distinctions. The ResNet50 architecture demonstrated a superior ability to focus on relevant and specific semantic features of the defects, generating explanations that were visually more coherent and aligned with human interpretation. In contrast, SqueezeNet exhibited a more dispersed attentional behavior, with activations on generic textures or irrelevant regions, suggesting a reliance on spurious correlations. It is concluded that explainability is an indispensable tool for validating AI models, providing critical insights into the robustness and reliability of the system that are not captured by traditional performance metrics. The integration of qualitative analysis is, therefore, essential for the development of safer and more transparent artificial intelligence systems.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Tecnológica Federal do Paranápt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/pt_BR
dc.subjectInteligência artificialpt_BR
dc.subjectSementespt_BR
dc.subjectRedes neurais (Computação)pt_BR
dc.subjectArtificial intelligencept_BR
dc.subjectSeedspt_BR
dc.subjectNeural networks (Computer science)pt_BR
dc.titleAvaliando diferentes técnicas de inteligência artificial explicável em classificação automática de sementes de sojapt_BR
dc.title.alternativeEvaluating different explainable artificial intelligence techniques in automatic soybean seed classificationpt_BR
dc.typebachelorThesispt_BR
dc.description.resumoEste trabalho aborda o desafio da classificação automática de defeitos em sementes de soja, uma tarefa em que modelos de Inteligência Artificial. Nesse contexto, neste trabalho buscamos investigar a aplicação de técnicas de Inteligência Artificial Explicável (XAI), com foco em LIME e Grad-CAM, para realizar uma análise qualitativa do processo de decisão de Redes Neurais Convolucionais (CNNs) na classificação de defeitos em sementes de soja. Foram avaliadas as arquiteturas ResNet50 e SqueezeNet, com o objetivo de avaliar as métricas de desempenho quantitativas e compreender a base de suas predições. Os resultados indicam que, embora ambas as arquiteturas tenham apresentado acurácia similar, a análise via XAI revelou distinções significativas. A arquitetura ResNet50 demonstrou uma capacidade superior de focar em características semânticas relevantes e específicas dos defeitos, gerando explicações visualmente mais coerentes e alinhadas à interpretação humana. Em contrapartida, o SqueezeNet exibiu um comportamento atencional mais disperso, com ativações em texturas genéricas ou regiões irrelevantes, sugerindo uma dependência de correlações espúrias. Conclui-se que a explicabilidade é uma ferramenta indispensável para a validação de modelos de IA, fornecendo insights críticos sobre a robustez e a confiabilidade do sistema que não são capturados por métricas de desempenho tradicionais. A integração da análise qualitativa é, portanto, fundamental para o desenvolvimento de sistemas de inteligência artificial mais seguros e transparentes.pt_BR
dc.degree.localCampo Mourãopt_BR
dc.publisher.localCampo Mouraopt_BR
dc.contributor.advisor1Foleis, Juliano Henrique-
dc.contributor.advisor-co1Gonçalves, Diego Bertolini-
dc.contributor.referee1Foleis, Juliano Henrique-
dc.contributor.referee2Ensina, Leandro Augusto-
dc.contributor.referee3Borsato, Frank Helbert-
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentDepartamento Acadêmico de Computaçãopt_BR
dc.publisher.programCiência da Computaçãopt_BR
dc.publisher.initialsUTFPRpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
Aparece nas coleções:CM - Ciência da Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
avaliandoInteligenciasementessoja.pdf6,02 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons