Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/36065
Título: Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina
Título(s) alternativo(s): Development of a mobile application for automated evaluation of oral motor exercises using Computer vision and machine learning
Autor(es): Lima, Luiz Ricardo Brumati de
Orientador(es): Ascari, Soelaine Rodrigues
Palavras-chave: Interação humano-máquina
Aprendizado do computador
Visão por computador
Human-computer interation
Machine learning
Computer vision
Data do documento: 14-Fev-2025
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Pato Branco
Citação: LIMA, Luiz Ricardo Brumati de. Desenvolvimento de aplicação móvel para avaliação automatizada de exercícios de motricidade orofacial com visão computacional e aprendizado de máquina. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025.
Resumo: Em cenários em que transtornos de fala decorrentes de limitações motoras representam barreiras significativas para a comunicação verbal, a Terapia de Motricidade Orofacial oferece suporte para ajudar indivíduos a aprimorar suas habilidades de comunicação. No entanto, muitas vezes o paciente enfrenta dificuldades, ou, mesmo, desmotivação ao tentar praticar os exercícios terapêuticos fora do ambiente clínico, sem a assistência direta e contínua do fonoaudiólogo. Diante desse cenário, este trabalho propôs uma ferramenta para auxiliar o acompanhamento terapêutico ao permitir que o paciente grave a execução dos exercícios e receba uma avaliação automatizada que varia em uma escala de três níveis, de acordo com a qualidade da execução. Para atingir esse objetivo, foi utilizado o modelo MediaPipe FaceMesh para extrair pontos-chave (landmarks) da região facial, de modo que estes foram pré-processados e utilizados como entrada de uma Rede Neural do tipo Long Short-Term Memory (LSTM). Para o desenvolvimentodo modelo, foram utilizadas técnicas de otimização de hiperparâmetros e avaliação por meio de K-Fold Cross-Validation. Como método de verificação da replicabilidade dessa abordagem, três modelos foram gerados, para o movimento de beijo, abertura bucal e estiramento labial, de modo que os resultados comprovaram que é possível realizar a avaliação dos movimentos. A fim de viabilizar o uso dos modelos gerados, foi desenvolvida uma aplicação móvel com enfoque em usabilidade e com o objetivo de proporcionar uma experiência intuitiva ao usuário, permitindo o acompanhamento de sua consistência ao longo da realização das atividades. O trabalho atingiu o seu objetivo de desenvolver uma solução que pode ser utilizada como complemento à terapia fonoaudiológica, além de sugerir possibilidades de pesquisas futuras dentro desse contexto.
Abstract: In cases where speech disorders resulting from motor difficulties pose significant barriers to verbal communication, Speech therapy provides support to help individuals improve their communication skills. However, patients often face difficulties or even lack motivation when attempting to practice therapeutic exercises outside the clinical environment, without the direct and continuous assistance of a speech therapist. Given this scenario, this study proposed a tool to support therapeutic follow-up by allowing patients to record their exercise executions and receive an automated evaluation on a three-level scale based on the quality of execution. To achieve this goal, the MediaPipe FaceMesh Convolutional Neural Network model was used to extract key facial landmarks, which were preprocessed and used as input for a Long Short-Term Memory (LSTM) neural network. For model development, hyperparameter optimization techniques were applied, and evaluation was performed using K-Fold Cross-Validation. To verify the replicability of this approach, three models were generated for the movements of lip puckering, mouth opening, and lip stretching. The results confirmed that movement evaluation could be performed. To enable the use of the generated models, a mobile application was developed with a focus on usability, aiming to provide an intuitive user experience while allowing patients to track their consistency in performing the activities. The study successfully achieved its objective of developing a solution that can complement speech therapy while also suggesting future research possibilities within this context.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/36065
Aparece nas coleções:PB - Engenharia de Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
avaliacaoautomatizadaorofacial.pdf5,53 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons