Combination of monocular vision and sparse sonares for mobile robots localization. / Combinação de visão monocular e sonares esparsos para a localização de robôs móveis.
AUTOR(ES)
Roberto José Giordano Barra
DATA DE PUBLICAÇÃO
2007
RESUMO
Um componente fundamental no sistema de um robô móvel consiste na habilidade de localizar-se acuradamente, o que envolve estimar sua postura em relação a uma representação global do espaço. A especificação geral de uma abordagem de localização baseada em dados sensoriais possui uma estimativa inicial da postura do robô e usa os dados coletados pelos sensores, em conjunto com um mapa do ambiente, para produzir uma estimativa mais precisa da postura, que oferece um valor de maior confiança em relação à postura real do robô. Uma dificuldade é que os dados sensoriais são corrompidos por erros de medidas derivados de diversas fontes, como ruídos, quantização, dispositivos de digitalização, deslizamentos do robô, entre outras. Sensores distintos medem diferentes propriedades físicas, corrompidas por diversos erros de medida. O uso de dados oriundos de vários sensores fornece informação redundante e complementar, que pode ser processada para derivar uma estimativa combinada com o objetivo de aumentar a confiança na estimativa final da postura. Nesta dissertação é proposto ELViS, um sistema que estima a localização de um robô móvel equipado com odômetros, uma câmera de vídeo e um semi-anel frontal de 8 sonares, o qual opera, com sucesso, em um ambiente interno, estruturado e estático. Assume-se que o robô navega sobre uma superfície plana e que diversos segmentos de retas possam ser identificados nas imagens do ambiente. Para aumentar a seletividade dos marcos visuais e diminuir a complexidade computacional no processamento e correspondência dos dados com os modelos, elementos do ambiente são representados por modelos minimalistas, possibilitando o uso do ELViS em um grande número de aplicações onde o custo ou tempo de execução sejam fatores limitantes. ELViS foi implementado e testado utilizando dois estimadores baseados em Filtro de Kalman. Os resultados, obtidos com robôs reais e em simulações, indicam direções bastante promissoras.
ASSUNTO(S)
computational vision visão computacional kalman filter robotics robótica filtros de kalman
Documentos Relacionados
- Evidence grids with omnidirectional stereovision for mobile robots.
- Auto-localização e construção de mapas de ambiente para robôs móveis baseados em visão omnidirecional estéreo.
- AAREACT: an adaptive behavioral architecture for mobile robots that integrates vision, sonars and odometry.
- Localização de robôs móveis autônomos utilizando fusão sensorial de odometria e visão monocular
- A HYBRID APPROACH FOR SIMULTANEOUS LOCALIZATION AND MAPPING WITH SONAR BASED ROBOTS AND EXTENDED KALMAN FILTER