Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/36093
Título: Transcrição automática de música: explorando o treinamento de algoritmos
Título(s) alternativo(s): Automatic music transcription: delving into algorithm training
Autor(es): Ruthes, Dieyson
Orientador(es): Rodrigues, Érick Oliveira
Palavras-chave: Aprendizado do computador
Inteligência artificial
Processamento de sinais
Processamento de som por computador
Redes neurais (Computação)
Machine learning
Artificial intelligence
Signal processing
Computer sound processing
Neural networks (Computer science)
Data do documento: 14-Fev-2025
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Pato Branco
Citação: RUTHES, Dieyson. Transcrição automática de música: explorando o treinamento de algoritmos. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025.
Resumo: Este trabalho aborda a Transcrição Automática de Música (AMT), técnica que transforma áudios musicais em notações escritas, como partituras. Inicialmente, valida-se o sistema proposto por Maman e Bermano (2022), que combina métodos supervisionados e não supervisionados para rotulagem e treinamento de dados musicais. Em seguida, desenvolve-se um sistema modular voltado a duas áreas centrais da AMT: o reconhecimento de notas (pitch) e o reconhecimento de instrumentos. Para tal, organiza-se um banco de instâncias com segmentos de áudio rotulados nessas categorias, utilizado no treinamento de uma Rede Neural de Convolução (CNN). Os resultados experimentais apontam F1-scores superiores a 0,90 em determinadas classes, enquanto as categorias minoritárias apresentam limitações devido ao desbalanceamento de dados. A avaliação do modelo ocorre por meio de métricas de validação, evidenciando a eficácia do sistema em tarefas específicas de reconhecimento. Entretanto, em cenários de alta polifonia, surgem desafios que indicam a necessidade de investigações futuras, como o uso de redes recorrentes ou mecanismos de atenção. Este estudo contribui para o avanço das técnicas de AMT, ao fornecer uma base metodológica que apoia pesquisas voltadas ao aprimoramento da transcrição musical.
Abstract: This study addresses AMT, a technique that converts musical audio into written notation such as scores. Initially, it validates the system proposed by Maman e Bermano (2022), which combines supervised and unsupervised methods for musical data labeling and training. Next, it develops a modular system focused on two core areas of AMT: pitch recognition and instrument recognition. To achieve this, a dataset of audio segments labeled with these categories is organized and used to train a CNN. Experimental results show F1-scores above 0.90 in certain classes, while minority classes face limitations due to data imbalance. The model is evaluated through validation metrics, demonstrating its effectiveness in specific recognition tasks. However, in high-polyphony scenarios, the system encounters challenges that indicate the need for future investigations, such as the adoption of recurrent networks or attention mechanisms. This study contributes to the advancement of AMT techniques by providing a methodological foundation that supports research aimed at improving musical transcription.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/36093
Aparece nas coleções:PB - Engenharia de Computação

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
transcricaoautomaticaalgoritmos.pdf4,58 MBAdobe PDFVisualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons