Use este identificador para citar ou linkar para este item:
http://repositorio.utfpr.edu.br/jspui/handle/1/30618
Título: | Classificação de segmentos de vídeos por trechos de fala utilizando rede neural convolucional |
Título(s) alternativo(s): | Classification of video segments by speech snippets using convolutional neural network |
Autor(es): | Caveion, Thallia |
Orientador(es): | Rodrigues, Érick Oliveira |
Palavras-chave: | Redes neurais (Computação) Gravação em vídeo Edição de dados Neural networks (Computer science) Video recording Data editing |
Data do documento: | 5-Dez-2022 |
Editor: | Universidade Tecnológica Federal do Paraná |
Câmpus: | Pato Branco |
Citação: | CAVEION, Thallia. Classificação de segmentos de vídeos por trechos de fala utilizando rede neural convolucional. 2022. Trabalho de Conclusão de Curso (Bacharelado em Engenharia de Computação) - Universidade Tecnológica Federal do Paraná, Pato Branco, 2022. |
Resumo: | Vídeos são uma das formas mais populares de conteúdo na Internet, Plataformas de mídia social e telefones celulares tornaram simples e rápido capturar e publicar vídeos. No entanto, em diversos casos se faz necessário a edição manual desse tipo de conteúdo, a qual é considerada custosa, pois demanda muito tempo. Portanto, a necessidade de uma alternativa de edição automática. Neste trabalho, foi proposto um modelo de classificação de trechos de vídeo utilizando rede neural convolucional. A entrada é composta por diversos vídeos de autoria própria que foram cortados de forma aleatória em diversos trechos. Destes trechos foram extraídos os áudios obtendo arquivos no formato wav (waveform audio file format) que foram previamente classificados. Posteriormente, são extraídas características de cada arquivo utilizando o método coeficientes cepstrais de frequência de Mel (MFCC), obtendo assim espectrogramas equivalentes a imagens 2D. Estes espectrogramas servem como entrada para a rede neural convolucional ao qual gera como saída um modelo de classificação. Resultados experimentais da metodologia proposta mostraram que o modelo é capaz de classificar 92,52% dos trechos de forma correta. |
Abstract: | Videos are one of the most popular contents on the internet, social medias platforms and cell phone’s made capture and publish videos so easy and fast. However, in a lot of cases it’s necessary edit the content manually, which is irksome, because it takes a lot of time. Therefore, the need automatic editing alternative. In this final paper presents a creation proposal of video classification model, using convolutional neural networks. Starts with several self-authored videos, which each one was randomly cut in different parts. From these parts, there were took the audios in wav (waveform audio format), previously classified and after extracted the characteristics of each file using the Mel frequency cepstrum coefficients method (MFCC), it was got spectrograms as like 2D images. Those spectrograms start the convolutional neural networks implemented producing as output, a classification model. Experimental results from the methodology proposed, showed that this model it’s able to classify 92,52% of videos stretches correctly. |
URI: | http://repositorio.utfpr.edu.br/jspui/handle/1/30618 |
Aparece nas coleções: | PB - Engenharia de Computação |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
classificacaotrechosvideo.pdf | 1,39 MB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma Licença Creative Commons