Use este identificador para citar ou linkar para este item:
http://repositorio.utfpr.edu.br/jspui/handle/1/36093
Título: | Transcrição automática de música: explorando o treinamento de algoritmos |
Título(s) alternativo(s): | Automatic music transcription: delving into algorithm training |
Autor(es): | Ruthes, Dieyson |
Orientador(es): | Rodrigues, Érick Oliveira |
Palavras-chave: | Aprendizado do computador Inteligência artificial Processamento de sinais Processamento de som por computador Redes neurais (Computação) Machine learning Artificial intelligence Signal processing Computer sound processing Neural networks (Computer science) |
Data do documento: | 14-Fev-2025 |
Editor: | Universidade Tecnológica Federal do Paraná |
Câmpus: | Pato Branco |
Citação: | RUTHES, Dieyson. Transcrição automática de música: explorando o treinamento de algoritmos. 2025. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2025. |
Resumo: | Este trabalho aborda a Transcrição Automática de Música (AMT), técnica que transforma áudios musicais em notações escritas, como partituras. Inicialmente, valida-se o sistema proposto por Maman e Bermano (2022), que combina métodos supervisionados e não supervisionados para rotulagem e treinamento de dados musicais. Em seguida, desenvolve-se um sistema modular voltado a duas áreas centrais da AMT: o reconhecimento de notas (pitch) e o reconhecimento de instrumentos. Para tal, organiza-se um banco de instâncias com segmentos de áudio rotulados nessas categorias, utilizado no treinamento de uma Rede Neural de Convolução (CNN). Os resultados experimentais apontam F1-scores superiores a 0,90 em determinadas classes, enquanto as categorias minoritárias apresentam limitações devido ao desbalanceamento de dados. A avaliação do modelo ocorre por meio de métricas de validação, evidenciando a eficácia do sistema em tarefas específicas de reconhecimento. Entretanto, em cenários de alta polifonia, surgem desafios que indicam a necessidade de investigações futuras, como o uso de redes recorrentes ou mecanismos de atenção. Este estudo contribui para o avanço das técnicas de AMT, ao fornecer uma base metodológica que apoia pesquisas voltadas ao aprimoramento da transcrição musical. |
Abstract: | This study addresses AMT, a technique that converts musical audio into written notation such as scores. Initially, it validates the system proposed by Maman e Bermano (2022), which combines supervised and unsupervised methods for musical data labeling and training. Next, it develops a modular system focused on two core areas of AMT: pitch recognition and instrument recognition. To achieve this, a dataset of audio segments labeled with these categories is organized and used to train a CNN. Experimental results show F1-scores above 0.90 in certain classes, while minority classes face limitations due to data imbalance. The model is evaluated through validation metrics, demonstrating its effectiveness in specific recognition tasks. However, in high-polyphony scenarios, the system encounters challenges that indicate the need for future investigations, such as the adoption of recurrent networks or attention mechanisms. This study contributes to the advancement of AMT techniques by providing a methodological foundation that supports research aimed at improving musical transcription. |
URI: | http://repositorio.utfpr.edu.br/jspui/handle/1/36093 |
Aparece nas coleções: | PB - Engenharia de Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
transcricaoautomaticaalgoritmos.pdf | 4,58 MB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma Licença Creative Commons