Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/32649
Registro completo de metadados
Campo DCValorIdioma
dc.creatorFerraz, Aroldo-
dc.date.accessioned2023-10-06T21:42:50Z-
dc.date.available2023-10-06T21:42:50Z-
dc.date.issued2023-08-07-
dc.identifier.citationFERRAZ, Aroldo. Emprego de Swin Transformer para classificar imagens radiográficas de tórax e diagnosticar covid-19. 2023. Dissertação (Mestrado em Computação Aplicada) - Universidade Tecnológica Federal do Paraná, Curitiba, 2023.pt_BR
dc.identifier.urihttp://repositorio.utfpr.edu.br/jspui/handle/1/32649-
dc.description.abstractAccording to data from the World Health Organization (WHO), since the beginning of 2020, the COVID-19 pandemic has infected over 770.56 million people worldwide. Of those infected, more than 6.95 million individuals have lost their lives. COVID-19 is an extremely contagious disease and can swiftly overwhelm healthcare systems if infections are not diagnosed, and if isolation measures and treatment for deteriorating conditions are not promptly implemented. The primary screening test used to diagnose COVID-19 has been the Real Time Reverse Transcription-Polymerase Chain Reaction (RT-PCR). Although it is accurate and reliable, it takes a significant amount of time to deliver a definitive diagnosis. Since the onset of the pandemic, several researchers have demonstrated the feasibility of employing various Deep Learning (DL) techniques based on Convolutional Neural Networks (CNN), which have shown promising performance in diagnosing COVID-19 from X-rays and CT scans. However, some authors argue that existing DL methods, based on CNN, are being challenged by newer DL architectures and models. Motivated by this, in this study, we propose the use of the Swin Transformer (instead of CNN) for COVID-19 screening using X-ray images from four original datasets: COVID-QU-Ext Dataset, SARS-COV2-CT Dataset, HUST-19, and HCV-UFPR-COVID-19. These datasets were merged using different strategies, resulting in a total of 9 distinct datasets. We employed transfer learning to address the issue of data scarcity. Moreover, we assessed whether the models have a high generalization capability, based on the learned features, allowing training on one dataset, and testing on another, aiming to evaluate if there are significant losses in the metric values obtained. Upon analyzing the cumulative results from experiments across all datasets and strategies, the Swin Transformer stands out. In terms of sensitivity/recall, it performed 107% and 80% better than ViT and CNN, respectively. In the HUST-19 dataset, the Swin Transformer achieved the maximum score (1 or 100%) for all metrics and continued to show notable performance in other datasets. Compared to the state of the art, the results reveal a promising and highly competitive performance for the Swin Transformer. Additionally, statistical tests were conducted which showed, in several instances, that there are statistically significant differences in the metrics obtained by the Swin Transformer when compared to CNN and ViT.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Tecnológica Federal do Paranápt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/pt_BR
dc.subjectImagens - Radiografiapt_BR
dc.subjectVisão por computadorpt_BR
dc.subjectCOVID-19 (Doença) - Diagnósticopt_BR
dc.subjectAprendizado profundo (Aprendizado do computador)pt_BR
dc.subjectTomografiapt_BR
dc.subjectImages - Radiographypt_BR
dc.subjectComputer visionpt_BR
dc.subjectCOVID-19 (Disease) - Diagnosispt_BR
dc.subjectDeep learning (Machine learning)pt_BR
dc.subjectTomographypt_BR
dc.titleEmprego de Swin Transformer para classificar imagens radiográficas de tórax e diagnosticar COVID-19pt_BR
dc.title.alternativeUse of Swin Transformer to classify chest radiographic images and diagnose COVID-19pt_BR
dc.typemasterThesispt_BR
dc.description.resumoSegundo dados da Organização Mundial da Saúde (WHO), a pandemia de COVID-19, desde o início de 2020, já infectou mais de 770,56 milhões de pessoas em todo o mundo. Dentre os infectados, mais de 6,95 milhões de pessoas perderam a vida. A COVID-19 é uma doença extremamente contagiosa, e pode incapacitar rapidamente os sistemas de saúde se os infectados não forem diagnosticados e as medidas de isolamento e tratamento do agravamento não forem tomadas em tempo hábil. O principal teste de triagem utilizado para diagnosticar a COVID-19 foi o Real Time Reverse Transcription-Polymerase Chain ReactionRT-PCR, que embora seja preciso e confiável, demora um tempo considerável para o diagnóstico definitivo. Desde o início da pandemia, vários pesquisadores demonstraram a viabilidade de empregar várias técnicas de Deep Learning (DL) baseadas em Redes Neurais Convolucionais (CNN), com as quais obtiveram desempenho promissor para diagnosticar a COVID-19 em radiografias e em tomografia computadorizada. No entanto, alguns autores defendem que os métodos DL existentes e baseados em CNN estão sendo desafiados por novas arquiteturas e modelos de DL. Motivados por isso, neste trabalho, propomos o uso de Swin Transformer (em vez de CNN) para triagem de COVID-19 usando as imagens de raio X de quatro datasets originais: COVID-QU-Ext Dataset, SARSCOV2-CT Dataset, HUST-19 e HCV-UFPR-COVID-19. Esses datasets foram mesclados em diferentes estratégias o que resultou em um total de 9 datasets distintos. Empregamos transfer learning para mitigar a questão da escassez de dados. Além disso, avaliamos se os modelos têm alto poder de generalização, em função das características aprendidas, possibilitando o treinamento em um dataset e o teste em outro, com o objetivo de avaliar se há perda significativas nos valores das métricas obtidas. Ao analisar os resultados acumulados dos experimentos em todos os datasets e estratégias, fica evidente que o Swin Transformer se destaca. Em termos de sensibilidade/recall, este apresentou um desempenho 107% e 80% superior ao ViT e CNN, respectivamente. No dataset HUST-19, o Swin Transformer alcançou a pontuação máxima (1 ou 100%) em todas as métricas e continuou apresentando desempenho notável nos outros datasets. Em comparação com o estado da arte, os resultados revelam uma performance promissora e altamente competitiva para o Swin Transformer. Além disso, foi realizado testes estatísticos que demonstraram, em vários casos, que há diferenças estatisticamente significativas nas métricas obtidas pelo Swin Transformer quando comparadas com o CNN e ViT.pt_BR
dc.degree.localCuritibapt_BR
dc.publisher.localCuritibapt_BR
dc.creator.IDhttps://orcid.org/0000-0001-5730-9883pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/4492362903661166pt_BR
dc.contributor.advisor1Betini, Roberto Cesar-
dc.contributor.advisor1IDhttps://orcid.org/0000-0003-1817-6330pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/5470469752550438pt_BR
dc.contributor.referee1Lazzaretti, André Eugênio-
dc.contributor.referee1IDhttps://orcid.org/0000-0003-1861-3369pt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/7649611874688878pt_BR
dc.contributor.referee2Nassu, Bogdan Tomoyuki-
dc.contributor.referee2IDhttps://orcid.org/0000-0001-6441-8543pt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/4592104393315780pt_BR
dc.contributor.referee3Gomes, David Menotti-
dc.contributor.referee3IDhttps://orcid.org/0000-0003-2430-2030pt_BR
dc.contributor.referee3Latteshttp://lattes.cnpq.br/6692968437800167pt_BR
dc.contributor.referee4Betini, Roberto Cesar-
dc.contributor.referee4IDhttps://orcid.org/0000-0003-1817-6330pt_BR
dc.contributor.referee4Latteshttp://lattes.cnpq.br/5470469752550438pt_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.programPrograma de Pós-Graduação em Computação Aplicadapt_BR
dc.publisher.initialsUTFPRpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA BIOMEDICApt_BR
dc.subject.capesCiência da Computaçãopt_BR
Aparece nas coleções:CT - Programa de Pós-Graduação em Computação Aplicada

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
swintransformerimagensradiograficas.pdf5,86 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons