Use este identificador para citar ou linkar para este item: http://repositorio.utfpr.edu.br/jspui/handle/1/38635
Título: Pose recognition system using bluetooth and machine learning techniques
Título(s) alternativo(s): Sistema de reconhecimento de poses utilizando bluetooth e técnicas de aprendizado de máquina
Autor(es): Pereira, Igor Vinícius
Orientador(es): Peron, Guilherme de Santi
Palavras-chave: Tecnologia bluetooth
Sistemas de reconhecimento de padrões
Equipamentos de Proteção Individual
Redes neurais (Computação)
Fourier, Transformadas de
Aprendizado do computador
Bluetooth technology
Pattern recognition systems
Personal protective equipment
Neural networks (Computer science)
Fourier transformations
Machine learning
Data do documento: 28-Ago-2025
Editor: Universidade Tecnológica Federal do Paraná
Câmpus: Curitiba
Citação: PEREIRA, Igor Vinicius. Pose recognition system using bluetooth and machine learning techniques. 2025. Dissertação (Mestrado em Sistemas de Energia) - Universidade Tecnológica Federal do Paraná, Curitiba, 2025.
Resumo: Devido à necessidade de compreender a condição física de trabalhadores em ambientes de risco, nos quais o uso de EPIs é obrigatório, este trabalho propõe um sistema de reconhecimento de poses capaz de identificar estados como em pé, sentado, deitado e andando a partir de sinais de dispositivos vestíveis. Este estudo propõe um sistema de reconhecimento de poses humanas baseado em dados de Ângulo de Chegada (AoA) obtidos a partir de dispositivos com Bluetooth Low Energy (BLE) 5.1. Três arquiteturas de redes neurais foram avaliadas, tais como Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM) e modelos híbridos, com o intuito de identificar quatro estados físicos: em pé, sentado, deitado e andando. Os dados foram coletados em um ambiente interno real utilizando Equipamentos de Proteção Individual (EPI) inteligentes equipados com transmissores BLE posicionados em um capacete, nas regiões superior e inferior da camisa e em uma bota. O pipeline de pré-processamento incluiu filtragem, interpolação, extração de características e aplicação da Transformada Rápida de Fourier (FFT). Os modelos foram avaliados em dois cenários: (i) posições conhecidas (utilizadas no treinamento) e (ii) posições desconhecidas (nunca vistas anteriormente). O melhor desempenho geral em posições desconhecidas foi alcançado pelo modelo Attention-based BiLSTM–CNN, atingindo uma acurácia de A = 94,89% e uma pontuação F1 macro média de F1 = 95,59%, demonstrando forte capacidade de generalização. No cenário com posições conhecidas, o melhor desempenho foi obtido pelo Deep CNN, com A = 97,27% e F1 = 97,28%, seguido de perto pelo Attention-based BiLSTM–CNN, que também apresentou elevada acurácia de classificação em todas as classes de posturas. A análise confirmou que a utilização de quatro dispositivos vestíveis resultou no melhor desempenho, e que as combinações de sensores impactaram significativamente a acurácia. O estudo também disponibiliza publicamente um conjunto de dados para apoiar a reprodutibilidade e a realização de benchmarks.
Abstract: Due to the need to understand the physical condition of workers in hazardous environments, where the use of PPE is mandatory, this work proposes a pose recognition system capable of identifying states such as standing, sitting, lying down, and walking from wearable device signals. This study proposes a human pose recognition system based on Angle of Arrival (AoA) data obtained from Bluetooth Low Energy (BLE) 5.1 devices. Three neural network architectures were evaluated, namely Convolutional Neural Network (CNN), Long Short-Term Memory (LSTM), and hybrid models, with the aim of identifying four physical states: standing, sitting, lying down, and walking. The data were collected in a real indoor environment using smart Personal Protective Equipment (PPE) equipped with BLE transmitters placed on a helmet, on the upper and lower regions of a shirt, and on a boot. The preprocessing pipeline included filtering, interpolation, feature extraction, and application of the Fast Fourier Transform (FFT). The models were evaluated in two scenarios: (i) known positions (used during training) and (ii) unknown positions (never seen before). The best overall performance in unknown positions was achieved by the Attention-based BiLSTM–CNN model, reaching an accuracy of A = 94.89% and a macro-average F1 score of F1 = 95.59%, demonstrating strong generalization capability. In the scenario with known positions, the best performance was obtained by the Deep CNN, with A = 97.27% and F1 = 97.28%, closely followed by the Attention-based BiLSTM–CNN, which also showed high classification accuracy across all posture classes. The analysis confirmed that the use of four wearable devices resulted in the best performance, and that sensor combinations significantly impacted accuracy. The study also makes available a public dataset to support reproducibility and benchmarking.
URI: http://repositorio.utfpr.edu.br/jspui/handle/1/38635
Aparece nas coleções:CT - Programa de Pós-Graduação em Sistemas de Energia

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
poserecognitionmachinelearning.pdf13,03 MBAdobe PDFThumbnail
Visualizar/Abrir


Este item está licenciada sob uma Licença Creative Commons Creative Commons