Skip navigation
Universidade Federal da Bahia |
Repositório Institucional da UFBA
Use este identificador para citar ou linkar para este item: https://repositorio.ufba.br/handle/ri/42029
Registro completo de metadados
Campo DCValorIdioma
dc.creatorSouza, João Marcelo Silva-
dc.date.accessioned2025-05-15T22:20:09Z-
dc.date.available2025-05-15T22:20:09Z-
dc.date.issued2025-03-
dc.identifier.urihttps://repositorio.ufba.br/handle/ri/42029-
dc.description.abstractIn Human-Robot Interaction (HRI), the visual estimation of biosignals over time is essential for extracting human features, interpreting behaviors, and providing various forms of cyber-physical feedback and stimuli. In this context, Facial Expression Recognition (FER) systems have been developed to automate the computational analysis of human behavior, a process which requires meticulous observation and complex and integrated processing of spatiotemporal correlations. However, current FER systems and datasets predominantly explore spatial, static, or instantaneous aspects, which limits investigations of facial muscle deformations and motion over time in real-world situations. To overcome this limitation, this work proposes an alternative approach to the conventional image domain, connecting the visual representation of points of interest to temporal descriptors. To achieve this, the points are tracked over time, normalized spatiotemporally, and converted into metrics that generate motion signatures represented through multivariate time series. This work presents: the proposed methodology, termed Visual-Temporal FER (VT-FER), along with its corresponding framework; 22 standardized face measurements based on the principles of Facial Action Coding System (FACS); the pipeline architecture for computational systems; and a new dataset, the Facial Biosignals Time-Series (FBioT), comprising more than 21,000 seconds of real-world footage collected in uncontrolled environments from public sources. The prototype results validated the temporal hypotheses of the proposed approach, achieving accuracy levels compatible with benchmarks from the scientific community: 94% accuracy in the neural network trained with the Extended Cohn-Kanade (CK+) dataset reference data for emotion detection in controlled environments, and 72% for arousal detection in uncontrolled environments, using the Acted Facial Expressions In The Wild - Valence and Arousal (AFEW-VA) dataset as reference. Additionally, the FBioT dataset enabled the exploration of the methodology’s potential in the development of neural networks, reaching 80% accuracy in the visual-temporal detection of emotions during conversations, and 88% in visual word identification from mouth movement analysis over time.pt_BR
dc.languageporpt_BR
dc.publisherUniversidade Federal da Bahiapt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectbiossinaispt_BR
dc.subjectvisual-temporalpt_BR
dc.subjectexpressões faciaispt_BR
dc.subjectnormalização espaço-temporalpt_BR
dc.subjectséries temporaispt_BR
dc.subject.otherbiosignalspt_BR
dc.subject.othervisual-temporalpt_BR
dc.subject.otherfacial expressionspt_BR
dc.subject.otherspatiotemporal normalizationpt_BR
dc.subject.othertime seriespt_BR
dc.titleSistemas de estimação visual-temporal de biossinais e assinaturas de movimento em vídeos para interação humano-robôpt_BR
dc.title.alternativeSpatiotemporal estimation systems of biosignals and motion signatures in videos for human-robot interactionpt_BR
dc.typeTesept_BR
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétrica (PPGEE) pt_BR
dc.publisher.initialsUFBApt_BR
dc.publisher.countryBrasilpt_BR
dc.subject.cnpqCNPQ::ENGENHARIAS::ENGENHARIA ELETRICA::MEDIDAS ELETRICAS, MAGNETICAS E ELETRONICAS INSTRUMENTACAO::INSTRUMENTACAO ELETRONICApt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::SISTEMAS DE COMPUTACAO::ARQUITETURA DE SISTEMAS DE COMPUTACAOpt_BR
dc.contributor.advisor1Cerqueira, Jés de Jesus Fiais-
dc.contributor.advisor1IDhttps://orcid.org/0000-0003-4072-0101pt_BR
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3099827700882478pt_BR
dc.contributor.advisor-co1Oliveira, Wagner Luiz Alves de-
dc.contributor.advisor-co1IDhttps://orcid.org/0000-0003-1784-2661pt_BR
dc.contributor.advisor-co1Latteshttp://lattes.cnpq.br/7355315368234452pt_BR
dc.contributor.referee1Fernandes Júnior, Antônio Carlos Lopes-
dc.contributor.referee1IDhttps://orcid.org/0000-0001-6361-7049pt_BR
dc.contributor.referee1Latteshttp://lattes.cnpq.br/2586671440653430pt_BR
dc.contributor.referee2Simas Filho, Eduardo Furtado de-
dc.contributor.referee2IDhttps://orcid.org/0000-0001-8707-785Xpt_BR
dc.contributor.referee2Latteshttp://lattes.cnpq.br/6012321412801915pt_BR
dc.contributor.referee3Santos Júnior, Fernando Alberto Correia dos-
dc.contributor.referee3IDhttps://orcid.org/0000-0003-0394-056Xpt_BR
dc.contributor.referee3Latteshttp://lattes.cnpq.br/3135778309945334pt_BR
dc.contributor.referee4Melo, Thamiles Rodrigues de-
dc.contributor.referee4IDhttps://orcid.org/0000-0002-2367-9533pt_BR
dc.contributor.referee4Latteshttp://lattes.cnpq.br/2065109080658475pt_BR
dc.contributor.referee5Oliveira, Wagner Luiz Alves de-
dc.contributor.referee5IDhttps://orcid.org/0000-0003-1784-2661pt_BR
dc.contributor.referee5Latteshttp://lattes.cnpq.br/7355315368234452pt_BR
dc.creator.IDhttps://orcid.org/0009-0001-5562-5337pt_BR
dc.creator.Latteshttp://lattes.cnpq.br/1431973892971280pt_BR
dc.description.resumoNa Interação Humano-Robô (IHR), a estimação visual de biossinais ao longo do tempo é fundamental para a extração de características humanas, a interpretação de comportamentos e o fornecimento de feedback e estímulos ciberfísicos diversos. Nesse contexto, sistemas de Facial Expression Recognition (FER) vêm sendo desenvolvidos para automatizar a análise computacional do comportamento humano, um processo que exige observação minuciosa e tratamento complexo de correlações espaço-temporais de forma integrada. Apesar dos avanços, os sistemas e datasets de FER ainda priorizam informações espaciais e instantâneas, o que limita a exploração das alterações musculares faciais e dos movimentos contínuos em situações do mundo real. Para superar essa limitação, este trabalho propõe uma abordagem alternativa ao domínio convencional de imagens, conectando a representação visual de pontos de interesse a descritores temporais. Para isso, os pontos são referenciados ao longo do tempo, normalizados de forma espaço-temporal e transformados em medidas que geram assinaturas de movimento representadas por meio de séries temporais multivariadas. Este trabalho apresenta: a proposta de metodologia denominada Visual-Temporal FER (VT-FER) e seu respectivo framework; as 22 medidas da face padronizadas baseadas nos fundamentos do Facial Action Coding System (FACS); a arquitetura do pipeline para sistemas computacionais; e um novo dataset, o Facial Biosignals Time-Series (FBioT), composto por mais de 21 mil segundos de vídeos de situações reais, gerados em ambiente não controlado e oriundos de bases públicas. Os resultados dos protótipos permitiram validar as hipóteses temporais da proposta, atingindo patamares de acurácia compatíveis com benchmarks da comunidade científica: 94% na rede neural treinada com dados de referência do dataset Extended Cohn-Kanade (CK+) para detecção de emoções em ambiente controlado; e 72% para detecção de arousal em ambiente não controlado, com base na referência Acted Facial Expressions In The Wild – Valence and Arousal (AFEW-VA). Além disso, com o dataset FBioT foi possível explorar o potencial da metodologia no desenvolvimento de redes neurais, atingindo 80% de acurácia na detecção visual-temporal de emoções embutidas em conversação e 88% na identificação visual de palavras a partir da observação temporal da boca.pt_BR
dc.publisher.departmentEscola Politécnicapt_BR
dc.relation.referencesSOUZA, João Marcelo Silva Souza. Sistemas de estimação visual-temporal de biossinais e assinaturas de movimento em vídeos para interação humano-robô. 2025. Tese (Doutorado em Engenharia Elétrica) - Programa de Pós-Graduação em Egenharia Elétrica. Universidade Federal da Bahia, Salvador, 2025.pt_BR
dc.type.degreeDoutoradopt_BR
Aparece nas coleções:Tese (PPGEE)

Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
Joao Marcelo. Tese doutorado.pdfTese Versao Final Joao Marcelo Silva Souza PPGEE6,19 MBAdobe PDFVisualizar/Abrir
Mostrar registro simples do item Visualizar estatísticas


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.