Please use this identifier to cite or link to this item: http://repositorio.ufes.br/handle/10/6422
Title: Sistema de nagegação robótica por imagens e pontos de interesse
metadata.dc.creator: Silva, Avelino Forechi
Keywords: Navegação de robôs móveis;Visão robótica;Redes neurais(computação)
Issue Date: 29-Aug-2012
Publisher: Universidade Federal do Espírito Santo
Citation: SILVA, Avelino Forechi. Sistema de nagegação robótica por imagens e pontos de interesse. 2012. 139 f. Dissertação (Mestrado em Ciência da Computação) - Universidade Federal do Espírito Santo, Vitória, 2012.
Abstract: As imagens projetadas dentro de nossos olhos mudam o tempo todo por conta do movimento dos olhos ou do nosso corpo como um todo. Contudo, percebemos o mundo retratado nas imagens capturadas pelos olhos como estável. Muito embora as imagens projetadas nas retinas humanas sejam bidimensionais, o cérebro é capaz de sintetizar uma representação tridimensional estável a partir delas, com informações sobre cor, forma e profundidade a respeito dos objetos no ambiente ao nosso redor, viabilizando nossa navegação no mundo por meio do sentido da visão. Neste trabalho investigamos modelos matemático computacionais de cognição visual - compreensão do mundo e das ideias por meio da visão - aplicados ao problema de navegação de veículos autônomos. Nós empregamos modelos probabilísticos de navegação exploratória e de localização e mapeamento simultâneos (Simultaneous Localization And Mapping - SLAM) e desenvolvemos modelos dos movimentos oculares de busca visual e vergência baseados em Redes Neurais Sem Peso (Virtual Generalizing RAM - VG-RAM) para navegar um robô autônomo através de uma caminho definido por uma sequência de pontos de interesse especificados na forma de simples fotos 2D do ambiente. Nossos resultados mostraram que é possível navegar um robô autônomo de um ponto de origem até um ponto de destino fornecendo apenas imagens não contiguas do caminho
The projected images into our eyes change all the time due to the movement of the eyes or the body as a whole. However, we perceive a stable world depicted in the images captured by the eye. Although the images are projected onto two-dimensional human retinas, the brain is able to synthesize a stable three-dimensional representation from them with information about color, shape and depth about the objects in the environment around us, enabling our navigation in the world via the sense of vision. In this study we investigate mathematical-computational models of visual cognition - understanding of the world and the ideas through vision - applied to the problem of autonomous vehicle navigation. We employ probabilistic models of exploratory navigation and simultaneous localization and mapping (Simultaneous Localization And Mapping - SLAM) and develop models of eye movements for visual search and vergence based on Weightless Neural Network (Virtual Generalizing RAM - VG-RAM) to navigate an autonomous robot through a path defined by a sequence of points of interest specified as simple 2D images of the environment. Our results showed that it is possible to navigate a robot from an origin point to a destination point by providing only non-contiguous images of the way
URI: http://repositorio.ufes.br/handle/10/6422
Appears in Collections:PPGI - Dissertações de mestrado

Files in This Item:
File Description SizeFormat 
Avelino Forechi Silva.pdf2.03 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.