Fusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional

dc.contributor.advisor-co1Mello, Ricardo Carminati de
dc.contributor.advisor-co1IDhttps://orcid.org/0000-0003-0420-4273
dc.contributor.advisor-co1Latteshttp://lattes.cnpq.br/1569638571582691
dc.contributor.advisor1Vassallo, Raquel Frizera
dc.contributor.advisor1IDhttps://orcid.org/0000-0002-4762-3219
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/9572903915280374
dc.contributor.authorOliveira, Matheus Dutra de
dc.contributor.authorIDhttps://orcid.org/0009-0002-4548-8065
dc.contributor.authorLatteshttp://lattes.cnpq.br/5802812159654028
dc.contributor.referee1Cordeiro, Rafael de Angelis
dc.contributor.referee1IDhttps://orcid.org/0000-0002-9094-3365
dc.contributor.referee1Latteshttp://lattes.cnpq.br/1957732976527194
dc.contributor.referee2Fernandes, Mariana Rampinelli
dc.contributor.referee2IDhttps://orcid.org/0000-0001-8483-5838
dc.contributor.referee2Latteshttp://lattes.cnpq.br/6481644695559950
dc.date.accessioned2025-10-15T19:04:36Z
dc.date.available2025-10-15T19:04:36Z
dc.date.issued2025-08-20
dc.description.abstractThe estimation of mobile robot localization in indoor environments is one of the central challenges of autonomous navigation. Among the main techniques used to address this problem are Multi-View Visual Odometry, obtained through a multi-camera network, and Monte Carlo Localization. Both approaches have limitations: areas without camera coverage render navigation unfeasible when relying solely on visual odometry, while symmetric environments hinder convergence in the Monte Carlo method. Aiming to overcome these issues and achieve a more robust and reliable localization estimate, this work proposes the combination of these two global localization techniques through a data fusion approach based on Kalman Filter methods (Extended Kalman Filter and Unscented Kalman Filter). Additionally, the integration of the smart space architecture with the Robot Operating System (ROS) is adopted to implement this fusion. As a result, the fused localization can be integrated into the ROS navigation stack, leading to a complete localization and navigation system, and allowing the system to be triggered by other components of the smart environment. The system was evaluated in critical scenarios and case studies conducted in real environments. The results indicate that the information fusion effectively addresses the inherent limitations of each localization source, while increasing the robot’s global orientation accuracy by up to 12% and improving localization estimates by more than 5.2% when both sources are available.
dc.description.resumoA estimativa de localização de robôs móveis em ambientes internos é um dos desafios centrais da navegação autônoma. Entre as principais técnicas utilizadas para enfrentar esse problema, estão a Odometria Visual de Múltiplas Vistas, obtidas através de uma rede de múltiplas câmeras, e a Localização de Monte Carlo. Ambas possuem limitações, como áreas sem cobertura de câmeras, nas quais a navegação fica inviabilizada quando se utiliza apenas a odometria visual, e ambientes simétricos, que dificultam a convergência da localização no método de Monte Carlo. Visando solucionar esses problemas e obter uma estimativa de localização mais robusta e confiável, este trabalho propõe a união dessas duas técnicas de localização global, utilizando uma fusão de dados baseada em técnicas de Filtro de Kalman (Filtro de Kalman Estendido e Filtro de Kalman Unscented). Além disso, a estratégia de integração da arquitetura de espaços inteligentes com o Robot Operating System (ROS) foi adotada para realizar essa fusão. Assim, a localização fundida pode ser integrada à pilha de navegação do ROS, resultando em um sistema completo de localização e navegação, permitindo, ainda, que esse sistema seja acionado por outros componentes do espaço inteligente. O sistema foi avaliado em cenários críticos e em estudos de caso conduzidos em ambientes reais. Os resultados obtidos indicam que a fusão das informações trata de forma eficiente as limitações inerentes a cada fonte de localização, além de aumentar, nos estudos de caso realizados, em até 12% a precisão da orientação global do robô e aprimorar os valores de localização em mais de 5,2% quando ambas as fontes estão disponíveis
dc.description.sponsorshipCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
dc.formatText
dc.identifier.urihttp://repositorio.ufes.br/handle/10/20480
dc.languagepor
dc.language.isopt
dc.publisherUniversidade Federal do Espírito Santo
dc.publisher.countryBR
dc.publisher.courseMestrado em Engenharia Elétrica
dc.publisher.departmentCentro Tecnológico
dc.publisher.initialsUFES
dc.publisher.programPrograma de Pós-Graduação em Engenharia Elétrica
dc.rightsopen access
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectOdometria visual de múltiplas vistas
dc.subjectLocalização de Monte Carlo
dc.subjectFusão de dados
dc.subject Filtro de Kalman
dc.subject Multi-View visual odometry
dc.subjectMonte Carlo localization
dc.subjectData fusion
dc.subjectKalman filter
dc.subject.cnpqEngenharia Elétrica
dc.titleFusão de dados para a localização e navegação de robôs móveis em espaços inteligentes programáveis baseados em visão computacional
dc.typemasterThesis
Arquivos
Pacote Original
Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
MatheusDutradeOliveira-2025-dissertacao.pdf
Tamanho:
11.77 MB
Formato:
Adobe Portable Document Format
Descrição:
Licença do Pacote
Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
1.71 KB
Formato:
Item-specific license agreed upon to submission
Descrição: