Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/36065
Registro completo de metadados
Campo DCValorIdioma
dc.creatorLima, Luiz Ricardo Brumati de-
dc.date.accessioned2025-03-12T16:33:11Z-
dc.date.available2025-03-12T16:33:11Z-
dc.date.issued2025-02-14-
dc.identifier.citationLIMA, Luiz Ricardo Brumati de. Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025.pt_BR
dc.identifier.urihttp://repositorio.utfpr.edu.br/jspui/handle/1/36065-
dc.description.abstractIn cases where speech disorders resulting from motor difficulties pose significant barriers to verbal communication, Speech therapy provides support to help individuals improve their communication skills. However, patients often face difficulties or even lack motivation when attempting to practice therapeutic exercises outside the clinical environment, without the direct and continuous assistance of a speech therapist. Given this scenario, this study proposed a tool to support therapeutic follow-up by allowing patients to record their exercise executions and receive an automated evaluation on a three-level scale based on the quality of execution. To achieve this goal, the MediaPipe FaceMesh Convolutional Neural Network model was used to extract key facial landmarks, which were preprocessed and used as input for a Long Short-Term Memory (LSTM) neural network. For model development, hyperparameter optimization techniques were applied, and evaluation was performed using K-Fold Cross-Validation. To verify the replicability of this approach, three models were generated for the movements of lip puckering, mouth opening, and lip stretching. The results confirmed that movement evaluation could be performed. To enable the use of the generated models, a mobile application was developed with a focus on usability, aiming to provide an intuitive user experience while allowing patients to track their consistency in performing the activities. The study successfully achieved its objective of developing a solution that can complement speech therapy while also suggesting future research possibilities within this context.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Tecnológica Federal do Paranápt_BR
dc.rightsopenAccesspt_BR
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/pt_BR
dc.subjectInteração humano-máquinapt_BR
dc.subjectAprendizado do computadorpt_BR
dc.subjectVisão por computadorpt_BR
dc.subjectHuman-computer interationpt_BR
dc.subjectMachine learningpt_BR
dc.subjectComputer visionpt_BR
dc.titleDesenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquinapt_BR
dc.title.alternativeDevelopment of a mobile application for automated evaluation of oral motor exercises using Computer vision and machine learningpt_BR
dc.typebachelorThesispt_BR
dc.description.resumoEm cenários em que transtornos de fala decorrentes de limitações motoras representam barreiras significativas para a comunicação verbal, a Terapia de Motricidade Orofacial oferece suporte para ajudar indivíduos a aprimorar suas habilidades de comunicação. No entanto, muitas vezes o paciente enfrenta dificuldades, ou, mesmo, desmotivação ao tentar praticar os exercícios terapêuticos fora do ambiente clínico, sem a assistência direta e contínua do fonoaudiólogo. Diante desse cenário, este trabalho propôs uma ferramenta para auxiliar o acompanhamento terapêutico ao permitir que o paciente grave a execução dos exercícios e receba uma avaliação automatizada que varia em uma escala de três níveis, de acordo com a qualidade da execução. Para atingir esse objetivo, foi utilizado o modelo MediaPipe FaceMesh para extrair pontos-chave (landmarks) da região facial, de modo que estes foram pré-processados e utilizados como entrada de uma Rede Neural do tipo Long Short-Term Memory (LSTM). Para o desenvolvimentodo modelo, foram utilizadas técnicas de otimização de hiperparâmetros e avaliação por meio de K-Fold Cross-Validation. Como método de verificação da replicabilidade dessa abordagem, três modelos foram gerados, para o movimento de beijo, abertura bucal e estiramento labial, de modo que os resultados comprovaram que é possível realizar a avaliação dos movimentos. A fim de viabilizar o uso dos modelos gerados, foi desenvolvida uma aplicação móvel com enfoque em usabilidade e com o objetivo de proporcionar uma experiência intuitiva ao usuário, permitindo o acompanhamento de sua consistência ao longo da realização das atividades. O trabalho atingiu o seu objetivo de desenvolver uma solução que pode ser utilizada como complemento à terapia fonoaudiológica, além de sugerir possibilidades de pesquisas futuras dentro desse contexto.pt_BR
dc.degree.localPato Brancopt_BR
dc.publisher.localPato Brancopt_BR
dc.contributor.advisor1Ascari, Soelaine Rodrigues-
dc.contributor.advisor-co1Casanova, Dalcimar-
dc.contributor.referee1Pola, Ives Renê Venturini-
dc.contributor.referee2Ascari, Rúbia Eliza de Oliveira Schultz-
dc.contributor.referee3Ascari, Soelaine Rodrigues-
dc.contributor.referee4Casanova, Dalcimar-
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentDepartamento Acadêmico de Informáticapt_BR
dc.publisher.programEngenharia de Computaçãopt_BR
dc.publisher.initialsUTFPRpt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAOpt_BR
Aparece nas coleções:PB - Engenharia de Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
avaliacaoautomatizadaorofacial.pdf5,53 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons