Academic literature on the topic 'Odometria'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Odometria.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Odometria"

1

Renato Garcia Braga, José, Elcio Hideiti Shiguemori, and Haroldo Fraga de Campos Velho. "Odometria Visual para a Navegação Autônoma de VANT." Revista Cereus 11, no. 1 (March 31, 2019): 184–94. http://dx.doi.org/10.18605/2175-7275/cereus.v11n1p184-194.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bonin-Font, Francisco, Carles Coll Gomila, and Gabriel Oliver Codina. "Hacia la Navegación Visual de un Vehículo Autónomo Submarino en Áreas con Posidonia Oceanica." Revista Iberoamericana de Automática e Informática industrial 15, no. 1 (December 5, 2017): 24. http://dx.doi.org/10.4995/riai.2017.8828.

Full text
Abstract:
Este artículo presenta los resultados de un estudio experimental exhaustivo que determina el tipo de características visuales que presentan una mayor robustez, estabilidad y trazabilidad en imágenes submarinas tomadas en entornos colonizados con Posidonia Oceanica (P.O.), sean consecutivas o que cierran bucles (imágenes que muestran una misma área, parcial o totalmente, tomadas en tiempos distintos, desde puntos de vista distintos o incluso en condiciones de iluminación diferentes). El trabajo se ha centrado en dos puntos fundamentales: a) evaluar la capacidad que pueden tener varias técnicas de aumento de contraste en imágenes con P.O. a la hora de aumentar el número y calidad de las características visuales, y b) encontrar la combinación detector/descriptor invariante a rotación y traslación, que maximiza el número de correspondencias inliers usadas posteriormente para el cálculo de la odometria visual, o en el registro de imágenes que cierran bucles.
APA, Harvard, Vancouver, ISO, and other styles
3

Yang, Jingdong, Jinghui Yang, and Zesu Cai. "An efficient approach to pose tracking based on odometric error modelling for mobile robots." Robotica 33, no. 6 (April 1, 2014): 1231–49. http://dx.doi.org/10.1017/s0263574714000654.

Full text
Abstract:
SUMMARYOdometric error modelling for mobile robots is the basis of pose tracking. Without bounds the odometric accumulative error decreases localisation precision after long-range movement, which is often not capable of being compensated for in real time. Therefore, an efficient approach to odometric error modelling is proposed in regard to different drive type mobile robots. This method presents a hypothesis that the motion path approximates a circular arc. The approximate functional expressions between the control input of odometry and non-systematic error as well as systematic error derived from odometric error propagation law. Further an efficient algorithm of pose tracking is proposed for mobile robots, which is able to compensate for the non-systematic and systematic error in real time. These experiments denote that the odometric error modelling reduces the accumulative error of odometry efficiently and improves the specific localisation process significantly during autonomous navigation.
APA, Harvard, Vancouver, ISO, and other styles
4

Nevalainen, Paavo, Qingqing Li, Timo Melkas, Kirsi Riekki, Tomi Westerlund, and Jukka Heikkonen. "Navigation and Mapping in Forest Environment Using Sparse Point Clouds." Remote Sensing 12, no. 24 (December 14, 2020): 4088. http://dx.doi.org/10.3390/rs12244088.

Full text
Abstract:
Odometry during forest operations is demanding, involving limited field of vision (FOV), back-and-forth work cycle movements, and occasional close obstacles, which create problems for state-of-the-art systems. We propose a two-phase on-board process, where tree stem registration produces a sparse point cloud (PC) which is then used for simultaneous location and mapping (SLAM). A field test was carried out using a harvester with a laser scanner and a global navigation satellite system (GNSS) performing forest thinning over a 520 m strip route. Two SLAM methods are used: The proposed sparse SLAM (sSLAM) and a standard method, LeGO-LOAM (LLOAM). A generic SLAM post-processing method is presented, which improves the odometric accuracy with a small additional processing cost. The sSLAM method uses only tree stem centers, reducing the allocated memory to approximately 1% of the total PC size. Odometry and mapping comparisons between sSLAM and LLOAM are presented. Both methods show 85% agreement in registration within 15 m of the strip road and odometric accuracy of 0.5 m per 100 m. Accuracy is evaluated by comparing the harvester location derived through odometry to locations collected by a GNSS receiver mounted on the harvester.
APA, Harvard, Vancouver, ISO, and other styles
5

Miranda, Fábio L. N. de, and Carlos H. C. Ribeiro. "Extração automática de mapas de atributos baseada em técnica bayesiana para localização de robôs móveis." Sba: Controle & Automação Sociedade Brasileira de Automatica 17, no. 4 (December 2006): 391–408. http://dx.doi.org/10.1590/s0103-17592006000400002.

Full text
Abstract:
A solução do problema de determinação da postura (ou localização) é de fundamental importância para a incorporação de autonomia em robôs móveis. Entretanto, devido à natureza inexata do movimento, uma localização precisa não é possível usando unicamente odometria. Faz-se necessário extrair das leituras sensoriais do robô informações que permitam corrigir os desvios intrínsecos a cada ação executada. Neste contexto, os algoritmos de Monte Carlo estimam e atualizam a postura (com base em modelos a priori de sensores e atuadores) através de um conjunto de partículas que simbolizam possíveis posturas do robô no ambiente, associadas a uma crença que indica quão bem estas se aproximam de sua localização real. Complexa, no entanto, é a tarefa de obtenção do modelo sensorial, principalmente quando realizada por meio de técnicas não-automáticas. A idéia central aqui utilizada consiste no treinamento de redes neurais artificiais para extração automática de um mapa de atributos que simplifica o modelo sensorial, usando um método bayesiano (BaLL - Bayesian Landmark Learning) a partir de leituras sensoriais. Este trabalho descreve a implementação utilizando-se como base a plataforma ARIA para simulação de um robô móvel Magellan Pro cujos sensores externos são sonares. Os resultados mostram o funcionamento da técnica e a sua aplicabilidade para a obtenção automática de mapas de atributos.
APA, Harvard, Vancouver, ISO, and other styles
6

Tang, Hengbo, and Yunhui Liu. "Automatic Simultaneous Extrinsic-Odometric Calibration for Camera-Odometry System." IEEE Sensors Journal 18, no. 1 (January 1, 2018): 348–55. http://dx.doi.org/10.1109/jsen.2017.2764125.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Chindakham, Nachaya, Young-Yong Kim, Alongkorn Pirayawaraporn, and Mun-Ho Jeong. "Simultaneous Calibration of Odometry and Head-Eye Parameters for Mobile Robots with a Pan-Tilt Camera." Sensors 19, no. 16 (August 20, 2019): 3623. http://dx.doi.org/10.3390/s19163623.

Full text
Abstract:
In the field of robot navigation, the odometric parameters, such as wheel radii and wheelbase length, and the relative pose of the optical sensing camera with respect to the robot are very important criteria for accurate operation. Hence, these parameters are necessary to be estimated for more precise operation. However, the odometric and head-eye parameters are typically estimated separately, which is an inconvenience and requires longer calibration time. Even though several researchers have proposed simultaneous calibration methods that obtain both odometric and head-eye parameters simultaneously to reduce the calibration time, they are only applicable to a mobile robot with a fixed camera mounted, not for mobile robots equipped with a pan-tilt motorized camera systems, which is a very common configuration and widely used for wide view. Previous approaches could not provide the z-axis translation parameter between head-eye coordinate systems on mobile robots equipped with a pan-tilt camera. In this paper, we present a full simultaneous mobile robot calibration of head–eye and odometric parameters, which is appropriate for a mobile robot equipped with a camera mounted on the pan-tilt motorized device. After a set of visual features obtained from a chessboard or natural scene and the odometry measurements are synchronized and received, both odometric and head-eye parameters are iteratively adjusted until convergence prior to using a nonlinear optimization method for more accuracy.
APA, Harvard, Vancouver, ISO, and other styles
8

Nikitenko, Agris, Aleksis Liekna, Martins Ekmanis, Guntis Kulikovskis, and Ilze Andersone. "Single Robot Localisation Approach for Indoor Robotic Systems through Integration of Odometry and Artificial Landmarks." Applied Computer Systems 14, no. 1 (June 1, 2013): 50–58. http://dx.doi.org/10.2478/acss-2013-0006.

Full text
Abstract:
Abstract we present an integrated approach for robot localization that allows to integrate for the artificial landmark localization data with odometric sensors and signal transfer function data to provide means for different practical application scenarios. The sensor data fusion deals with asynchronous sensor data using inverse Laplace transform. We demonstrate a simulation software system that ensures smooth integration of the odometry-based and signal transfer - based localization into one approach.
APA, Harvard, Vancouver, ISO, and other styles
9

Srinivasan, M., S. Zhang, and N. Bidwell. "Visually mediated odometry in honeybees." Journal of Experimental Biology 200, no. 19 (October 1, 1997): 2513–22. http://dx.doi.org/10.1242/jeb.200.19.2513.

Full text
Abstract:
The ability of honeybees to gauge the distances of short flights was investigated under controlled laboratory conditions where a variety of potential odometric cues such as flight duration, energy consumption, image motion, airspeed, inertial navigation and landmarks were manipulated. Our findings indicate that honeybees can indeed measure short distances travelled and that they do so solely by analysis of image motion. Visual odometry seems to rely primarily on the motion that is sensed by the lateral regions of the visual field. Computation of distance flown is re-commenced whenever a prominent landmark is encountered en route. 'Re-setting' the odometer (or starting a new one) at each landmark facilitates accurate long-range navigation by preventing excessive accumulation of odometric errors. Distance appears to be learnt on the way to the food source and not on the way back.
APA, Harvard, Vancouver, ISO, and other styles
10

Bonnifait, Ph, P. Bouron, D. Meizel, and P. Crubillé. "Dynamic Localization of Car-like Vehicles using Data Fusion of Redundant ABS Sensors." Journal of Navigation 56, no. 3 (August 26, 2003): 429–41. http://dx.doi.org/10.1017/s037346330300242x.

Full text
Abstract:
A localization system using GPS, ABS sensors and a driving wheel encoder is described and tested through real experiments. A new odometric technique using the four ABS sensors is presented. Due to the redundancy of measurements, the precision is better than the method using differential odometry on the rear wheels only. The sampling is performed when necessary and when a GPS measurement is performed. This implies a noticeable reduction of the GPS latency, simplifying the data-fusion process and improving the quality of its results.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Odometria"

1

Pärkkä, J. (Jarmo). "Reaaliaikainen visuaalinen odometria." Master's thesis, University of Oulu, 2013. http://urn.fi/URN:NBN:fi:oulu-201312021943.

Full text
Abstract:
Visuaalisella odometrialla estimoidaan ajoneuvon, ihmisen tai robotin liikettä käyttäen syötteenä kuvaa yhdestä tai useammasta kamerasta. Sovelluskohteita on robotiikassa, autoteollisuudessa, asustemikroissa ja lisätyssä todellisuudessa. Se on hyvä lisä navigointijärjestelmiin, koska se toimii ympäristöissä missä GPS ei toimi. Visuaalinen odometria kehitettiin pyöräodometrian korvaajaksi, koska sen käyttö ei ole riippuvainen maastosta ja liikkumismuodosta. Tässä työssä tutkitaan ja kehitetään visuaalisen odometrian menetelmää reaaliaikaiseen sulautettuun järjestelmään. Työssä esitellään visuaalisen odometrian perusteet ja sen sisältämät osamenetelmät. Lisäksi esitellään yhtäaikainen paikallistaminen ja kartoitus (SLAM), jonka osana visuaalinen odometria voi esiintyä. Kehitettyä visuaalisen odometrian menetelmää on tarkoituksena käyttää Parrotin robottihelikopterille AR.Drone 2.0:lle tunnistamaan sen liikkeet. Tällöin robottihelikopteri saa tarpeeksi tietoa ympäristöstään lentääkseen itsenäisesti. Työssä toteutetaan algoritmi robotin tallentaman videomateriaalin tulkitsemiseen. Työssä toteutettu menetelmä on monokulaarinen SLAM, jossa käytetään yhden pisteen RANSAC-menetelmää yhdistettynä käänteisen syvyyden EKF:ään. Menetelmän piirteenirroitus ja vastinpisteiden etsintä korvataan reaaliaikaisella sulautetulle järjestelmälle sopivalla menetelmällä. Algoritmin toiminta testataan mittaamalla sen suoritusaika useilla kuvasekvensseillä ja analysoimalla sen piirtämää karttaa kameran liikkeestä. Lisäksi tarkastellaan sen antamien navigointitietojen todenmukaisuutta. Toteutetun järjestelmän toimintaa analysoidaan visuaalisesti ja sen toimintaa tarkastellaan suhteessa vertailumenetelmään. Työssä toteutettu visuaalisen odometrian menetelmä todetaan toimivaksi ratkaisuksi reaaliaikaiselle sulautetulle järjestelmälle tietyt rajoitukset huomioiden
Visual odometry is the process of estimating the motion of a vehicle, human or robot using the input of a single or multiple cameras. Application domains include robotics, wearable computing, augmented reality and automotive. It is a good supplement to the navigation systems because it operates in the environments where GPS does not. Visual odometry was developed as a substitute for wheel odometry, because its use is not dependent of the terrain. Visual odometry can be applied without restrictions to the way of movement (wheels, flying, walking). In this work visual odometry is examined and developed to be used in real-time embedded system. The basics of visual odometry are discussed. Furthermore, simultaneous localization and mapping (SLAM) is introduced. Visual odometry can appear as a part of SLAM. The purpose of this work is to develop visual odometry algorithm for Parrot’s robot helicopter AR.Drone 2.0, so it could fly independently in the future. The algorithm is based on Civera’s EKF-SLAM method, where feature extraction is replaced with an approach used earlier in global motion estimation. The operation of the algorithm is tested by measuring its performance time with different image sequences and by analyzing the movement of the camera from the map drawn by it. Furthermore, the reality of the navigation information is examined. The operation of the executed system is visually analyzed on the basis of the video and its operation is examined in relation to the comparison method. Developed visual odometry method is found to be a functional solution to the real-time embedded system under certain constraints
APA, Harvard, Vancouver, ISO, and other styles
2

Nishitani, André Toshio Nogueira. "Localização baseada em odometria visual." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-17082016-095838/.

Full text
Abstract:
O problema da localização consiste em estimar a posição de um robô com relação a algum referencial externo e é parte essencial de sistemas de navegação de robôs e veículos autônomos. A localização baseada em odometria visual destaca-se em relação a odometria de encoders na obtenção da rotação e direção do movimento do robô. Esse tipo de abordagem é também uma escolha atrativa para sistemas de controle de veículos autônomos em ambientes urbanos, onde a informação visual é necessária para a extração de informações semânticas de placas, semáforos e outras sinalizações. Neste contexto este trabalho propõe o desenvolvimento de um sistema de odometria visual utilizando informação visual de uma câmera monocular baseado em reconstrução 3D para estimar o posicionamento do veículo. O problema da escala absoluta, inerente ao uso de câmeras monoculares, é resolvido utilizando um conhecimento prévio da relação métrica entre os pontos da imagem e pontos do mundo em um mesmo plano.
The localization problem consists of estimating the position of the robot with regards to some external reference and it is an essential part of robots and autonomous vehicles navigation systems. Localization based on visual odometry, compared to encoder based odometry, stands out at the estimation of rotation and direction of the movement. This kind of approach is an interesting choice for vehicle control systems in urban environment, where the visual information is mandatory for the extraction of semantic information contained in the street signs and marks. In this context this project propose the development of a visual odometry system based on structure from motion using visual information acquired from a monocular camera to estimate the vehicle pose. The absolute scale problem, inherent with the use of monocular cameras, is achieved using som previous known information regarding the metric relation between image points and points lying on a same world plane.
APA, Harvard, Vancouver, ISO, and other styles
3

Tomasi, Junior Darci Luiz. "Modelo de calibração para sistemas de odometria robótica." reponame:Repositório Institucional da UFPR, 2016. http://hdl.handle.net/1884/45704.

Full text
Abstract:
Orientador : Prof. Dr. Eduardo Todt
Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 30/11/2016
Inclui referências : f. 39
Resumo: Para realizar a navegação de uma base robótica em um ambiente desconhecido, alguns mecanismos para detectar o posicionamento e a localização devem ser fornecidos a base. Quando a base está em processo de navegação e faz uso desses mecanismos, erros provenientes do ambiente e da base robótica são inseridos no sistema, resultando em um posicionamento errôneo. Uma forma de reduzir a amplitude dos erros é através de um modelo de calibração eficiente, capaz de identificar e estimar valores aceitáveis para as principais fontes de incerteza nos cálculos de odometria. Este trabalho de pesquisa apresenta um novo modelo de calibração comparável aos métodos clássicos conhecidos, mas que diferencia-se pela forma com que a calibração é realizada, sendo essa a principal limitação para conseguir incrementar os resultados com o método proposto. Ao fim do procedimento padrão proposto ser realizado, os resultados são equivalentes aos dos métodos clássicos conhecidos. Palavras-chave: UMBmark, Odometria, Calibração.
Abstract: In order to navigate a robotic base in an unfamiliar environment, some mechanism to detect positioning and location must be provided. When the robot is in the process of navigation and makes use of this mechanism, errors from the environment and the robotic base are inserted into the system, resulting in an erroneous positioning. One way to reduce the error amplitude is through an efficient calibration model, capable of identifying and estimating acceptable values for the main sources of uncertainty in odometry calculations. This work presents a new calibration model comparable to the classical methods known, but it is distinguished by the way in which the calibration is performed, being this the main limitation to be able to increase the results with the proposed method. At the end of the proposed standard procedure, the results are equivalent to those of the known classical methods. Keywords: UMBmark, Odometry, Calibration.
APA, Harvard, Vancouver, ISO, and other styles
4

Silva, Bruno Marques Ferreira da. "Odometria visual baseada em t?cnicas de structure from motion." Universidade Federal do Rio Grande do Norte, 2011. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15364.

Full text
Abstract:
Made available in DSpace on 2014-12-17T14:55:51Z (GMT). No. of bitstreams: 1 BrunoMFS_DISSERT.pdf: 2462891 bytes, checksum: b8ea846d0fcc23b0777a6002e9ba92ac (MD5) Previous issue date: 2011-02-15
Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior
Visual Odometry is the process that estimates camera position and orientation based solely on images and in features (projections of visual landmarks present in the scene) extraced from them. With the increasing advance of Computer Vision algorithms and computer processing power, the subarea known as Structure from Motion (SFM) started to supply mathematical tools composing localization systems for robotics and Augmented Reality applications, in contrast with its initial purpose of being used in inherently offline solutions aiming 3D reconstruction and image based modelling. In that way, this work proposes a pipeline to obtain relative position featuring a previously calibrated camera as positional sensor and based entirely on models and algorithms from SFM. Techniques usually applied in camera localization systems such as Kalman filters and particle filters are not used, making unnecessary additional information like probabilistic models for camera state transition. Experiments assessing both 3D reconstruction quality and camera position estimated by the system were performed, in which image sequences captured in reallistic scenarios were processed and compared to localization data gathered from a mobile robotic platform
Odometria Visual ? o processo pelo qual consegue-se obter a posi??o e orienta??o de uma c?mera, baseado somente em imagens e consequentemente, em caracter?sticas (proje??es de marcos visuais da cena) nelas contidas. Com o avan?o nos algoritmos e no poder de processamento dos computadores, a sub?rea de Vis?o Computacional denominada de Structure from Motion (SFM) passou a fornecer ferramentas que comp?em sistemas de localiza??o visando aplica??es como rob?tica e Realidade Aumentada, em contraste com o seu prop?sito inicial de ser usada em aplica??es predominantemente offline como reconstru??o 3D e modelagem baseada em imagens. Sendo assim, este trabalho prop?e um pipeline de obten??o de posi??o relativa que tem como caracter?sticas fazer uso de uma ?nica c?mera calibrada como sensor posicional e ser baseado interamente nos modelos e algoritmos de SFM. T?cnicas usualmente presentes em sistemas de localiza??o de c?mera como filtros de Kalman e filtros de part?culas n?o s?o empregadas, dispensando que informa??es adicionais como um modelo probabil?stico de transi??o de estados para a c?mera sejam necess?rias. Experimentos foram realizados com o prop?sito de avaliar tanto a reconstru??o 3D quanto a posi??o de c?mera retornada pelo sistema, atrav?s de sequ?ncias de imagens capturadas em ambientes reais de opera??o e compara??es com um ground truth fornecido pelos dados do od?metro de uma plataforma rob?tica
APA, Harvard, Vancouver, ISO, and other styles
5

Araújo, Darla Caroline da Silva 1989. "Uso de fluxo óptico na odometria visual aplicada a robótica." [s.n.], 2015. http://repositorio.unicamp.br/jspui/handle/REPOSIP/265835.

Full text
Abstract:
Orientador: Paulo Roberto Gardel Kurka
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica
Made available in DSpace on 2018-08-26T21:38:28Z (GMT). No. of bitstreams: 1 Araujo_DarlaCarolinedaSilva_M.pdf: 5678583 bytes, checksum: a6ed9886369705a8853f15d431565a3d (MD5) Previous issue date: 2015
Resumo: O presente trabalho descreve um método de odometria visual empregando a técnica de fluxo óptico, para estimar o movimento de um robô móvel, através de imagens digitais capturadas de duas câmeras estereoscópicas nele fixadas. Busca-se assim a construção de um mapa para a localização do Robô. Esta proposta, além de alternativa ao cálculo autônomo de movimento realizado por outros tipos de sensores como GPS, laser, sonares, utiliza uma técnica de processamento óptico de grande eficiência computacional. Foi construído um ambiente 3D para simulação do movimento do robô e captura das imagens necessárias para estimar sua trajetória e verificar a acurácia da técnica proposta. Utiliza-se a técnica de fluxo óptico de Lucas Kanade na identificação de características em imagens. Os resultados obtidos neste trabalho são de grande importância para os estudos de navegação robótica
Abstract: This work describes a method of visual odometry using the optical flow technique to estimate the motion of a mobile robot, through digital images captured from two stereoscopic cameras fixed on it, in order to obtain a map of location of the robot. This proposal is an alternative to the autonomous motion calculation performed by other types of sensors such as GPS, laser, sonar, and uses an optical processing technique of high computational efficiency. To check the accuracy of the technique it was necessary to build a 3D environment to simulate the robot performing a trajectory and capture the necessary images to estimate the trajectory. The optical flow technique of Lucas Kanade was used for identifying features in the images. The results of this work are of great importance for future robotic navigation studies
Mestrado
Mecanica dos Sólidos e Projeto Mecanico
Mestra em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
6

Santos, Vinícius Araújo. "SiameseVO-Depth: odometria visual através de redes neurais convolucionais siamesas." Universidade Federal de Goiás, 2018. http://repositorio.bc.ufg.br/tede/handle/tede/9083.

Full text
Abstract:
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-11-21T11:05:44Z No. of bitstreams: 2 Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-11-21T11:06:26Z (GMT) No. of bitstreams: 2 Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2018-11-21T11:06:26Z (GMT). No. of bitstreams: 2 Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-10-11
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Visual Odometry is an important process in image based navigation of robots. The standard methods of this field rely on the good feature matching between frames where feature detection on images stands as a well adressed problem within Computer Vision. Such techniques are subject to illumination problems, noise and poor feature localization accuracy. Thus, 3D information on a scene may mitigate the uncertainty of the features on images. Deep Learning techniques show great results when dealing with common difficulties of VO such as low illumination conditions and bad feature selection. While Visual Odometry and Deep Learning have been connected previously, no techniques applying Siamese Convolutional Networks on depth infomation given by disparity maps have been acknowledged as far as this work’s researches went. This work aims to fill this gap by applying Deep Learning to estimate egomotion through disparity maps on an Siamese architeture. The SiameseVO-Depth architeture is compared to state of the art techniques on OV by using the KITTI Vision Benchmark Suite. The results reveal that the chosen methodology succeeded on the estimation of Visual Odometry although it doesn’t outperform the state-of-the-art techniques. This work presents fewer steps in relation to standard VO techniques for it consists of an end-to-end solution and demonstrates a new approach of Deep Learning applied to Visual Odometry.
Odometria Visual é um importante processo na navegação de robôs baseada em imagens. Os métodos clássicos deste tema dependem de boas correspondências de características feitas entre imagens sendo que a detecção de características em imagens é um tema amplamente discutido no campo de Visão Computacional. Estas técnicas estão sujeitas a problemas de iluminação, presença de ruído e baixa de acurácia de localização. Nesse contexto, a informação tridimensional de uma cena pode ser uma forma de mitigar as incertezas sobre as características em imagens. Técnicas de Deep Learning têm demonstrado bons resultados lidando com problemas comuns em técnicas de OV como insuficiente iluminação e erros na seleção de características. Ainda que já existam trabalhos que relacionam Odometria Visual e Deep Learning, não foram encontradas técnicas que utilizem Redes Convolucionais Siamesas com sucesso utilizando informações de profundidade de mapas de disparidade durante esta pesquisa. Este trabalho visa preencher esta lacuna aplicando Deep Learning na estimativa do movimento por de mapas de disparidade em uma arquitetura Siamesa. A arquitetura SiameseVO-Depth proposta neste trabalho é comparada à técnicas do estado da arte em OV utilizando a base de dados KITTI Vision Benchmark Suite. Os resultados demonstram que através da metodologia proposta é possível a estimativa dos valores de uma Odometria Visual ainda que o desempenho não supere técnicas consideradas estado da arte. O trabalho proposto possui menos etapas em comparação com técnicas clássicas de OV por apresentar-se como uma solução fim-a-fim e apresenta nova abordagem no campo de Deep Learning aplicado à Odometria Visual.
APA, Harvard, Vancouver, ISO, and other styles
7

Pereira, Fabio Irigon. "High precision monocular visual odometry." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2018. http://hdl.handle.net/10183/183233.

Full text
Abstract:
Extrair informação de profundidade a partir de imagens bidimensionais é um importante problema na área de visão computacional. Diversas aplicações se beneficiam desta classe de algoritmos tais como: robótica, a indústria de entretenimento, aplicações médicas para diagnóstico e confecção de próteses e até mesmo exploração interplanetária. Esta aplicação pode ser dividida em duas etapas interdependentes: a estimação da posição e orientação da câmera no momento em que a imagem foi gerada, e a estimativa da estrutura tridimensional da cena. Este trabalho foca em técnicas de visão computacional usadas para estimar a trajetória de um veículo equipado com uma câmera, problema conhecido como odometria visual. Para obter medidas objetivas de eficiência e precisão, e poder comparar os resultados obtidos com o estado da arte, uma base de dados de alta precisão, bastante utilizada pela comunidade científica foi utilizada. No curso deste trabalho novas técnicas para rastreamento de detalhes, estimativa de posição de câmera, cálculo de posição 3D de pontos e recuperação de escala são propostos. Os resultados alcançados superam os mais bem ranqueados trabalhos na base de dados escolhida até o momento da publicação desta tese.
Recovering three-dimensional information from bi-dimensional images is an important problem in computer vision that finds several applications in our society. Robotics, entertainment industry, medical diagnose and prosthesis, and even interplanetary exploration benefit from vision based 3D estimation. The problem can be divided in two interdependent operations: estimating the camera position and orientation when each image was produced, and estimating the 3D scene structure. This work focuses on computer vision techniques, used to estimate the trajectory of a vehicle equipped camera, a problem known as visual odometry. In order to provide an objective measure of estimation efficiency and to compare the achieved results to the state-of-the-art works in visual odometry a high precision popular dataset was selected and used. In the course of this work new techniques for image feature tracking, camera pose estimation, point 3D position calculation and scale recovery are proposed. The achieved results outperform the best ranked results in the popular chosen dataset.
APA, Harvard, Vancouver, ISO, and other styles
8

Bezerra, Clauber Gomes. "Localiza??o de um rob? m?vel usando odometria e marcos naturais." Universidade Federal do Rio Grande do Norte, 2004. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15411.

Full text
Abstract:
Made available in DSpace on 2014-12-17T14:56:01Z (GMT). No. of bitstreams: 1 ClauberGB.pdf: 726956 bytes, checksum: d3fb1b2d7c6ad784a1b7d40c1a54f8f8 (MD5) Previous issue date: 2004-03-08
Several methods of mobile robot navigation request the mensuration of robot position and orientation in its workspace. In the wheeled mobile robot case, techniques based on odometry allow to determine the robot localization by the integration of incremental displacements of its wheels. However, this technique is subject to errors that accumulate with the distance traveled by the robot, making unfeasible its exclusive use. Other methods are based on the detection of natural or artificial landmarks present in the environment and whose location is known. This technique doesnt generate cumulative errors, but it can request a larger processing time than the methods based on odometry. Thus, many methods make use of both techniques, in such a way that the odometry errors are periodically corrected through mensurations obtained from landmarks. Accordding to this approach, this work proposes a hybrid localization system for wheeled mobile robots in indoor environments based on odometry and natural landmarks. The landmarks are straight lines de.ned by the junctions in environments floor, forming a bi-dimensional grid. The landmark detection from digital images is perfomed through the Hough transform. Heuristics are associated with that transform to allow its application in real time. To reduce the search time of landmarks, we propose to map odometry errors in an area of the captured image that possesses high probability of containing the sought mark
Diversos m?todos de navega??o de rob?s m?veis requerem a medi??o da posi??o e orienta??o do rob? no seu espa?o de trabalho. No caso de rob?s m?veis com rodas, t?cnicas baseadas em odometria permitem determinar a localiza??o do rob? atrav?s da integra??o de medi??es dos deslocamentos incrementais de suas rodas. No entanto, essa t?cnica est? sujeita a erros que se acumulam com a dist?ncia percorrida pelo rob?, o que inviabiliza o seu uso exclusivo. Outros m?todos se baseiam na detec??o de marcos naturais ou artificiais, cuja localiza??o ? conhecida, presentes no ambiente. Apesar desta t?cnica n?o gerar erros cumulativos, ela pode requisitar um tempo de processamento bem maior do que o uso de odometria. Assim, muitos m?todos fazem uso de ambas as t?cnicas, de modo a corrigir periodicamente os erros de odometria, atrav?s de medi??es obtidas a partir dos marcos. De acordo com esta abordagem, propomos neste trabalho um sistema h?brido de localiza??o para rob?s m?veis com rodas em ambientes internos, baseado em odometria e marcos naturais, onde os marcos adotados s?o linhas retas definidas pelas jun??es existentes no piso do ambiente, formando uma grade bi-dimensional no ch?o. Para a detec??o deste tipo de marco, a partir de imagens digitais, ? utilizada a transformada de Hough, associada a heur?sticas que permitem a sua aplica??o em tempo real. Em particular, para reduzir o tempo de busca dos marcos, propomos mapear erros de odometria em uma regi?o da imagem capturada que possua grande probabilidade de conter o marco procurado
APA, Harvard, Vancouver, ISO, and other styles
9

Delgado, Vargas Jaime Armando 1986. "Localização e navegação de robô autônomo através de odometria e visão estereoscópica." [s.n.], 2012. http://repositorio.unicamp.br/jspui/handle/REPOSIP/264542.

Full text
Abstract:
Orientador: Paulo Roberto Gardel Kurka
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica
Made available in DSpace on 2018-08-20T13:27:04Z (GMT). No. of bitstreams: 1 DelgadoVargas_JaimeArmando_M.pdf: 4350704 bytes, checksum: 8e7dab5b1630b88bde95e287a62b2f7e (MD5) Previous issue date: 2012
Resumo: Este trabalho apresenta a implementação de um sistema de navegação com visão estereoscópica em um robô móvel, que permite a construção de mapa de ambiente e localização. Para isto é necessário conhecer o modelo cinemático do robô, técnicas de controle, algoritmos de identificação de características em imagens (features), reconstrução 3D com visão estereoscópica e algoritmos de navegação. Utilizam-se métodos para a calibração de câmera desenvolvida no âmbito do grupo de pesquisa da FEM/UNICAMP e da literatura. Resultados de análises experimentais e teóricas são comparados. Resultados adicionais mostram a validação do algoritmo de calibração de câmera, acurácia dos sensores, resposta do sistema de controle, e reconstrução 3D. Os resultados deste trabalho são de importância para futuros estudos de navegação robótica e calibração de câmeras
Abstract: This paper presents a navigation system with stereoscopic vision on a mobile robot, which allows the construction of environment map and location. In that way must know the kinematic model of the robot, algorithms for identifying features in images (features) as a Sift, 3D reconstruction with stereoscopic vision and navigation algorithms. Methods are used to calibrate the camera developed within the research group of the FEM / UNICAMP and literature. Results of experimental and theoretical analyzes are compared. Additional results show the validation of the algorithm for camera calibration, accuracy of sensors, control system response, and 3D reconstruction. These results are important for future studies of robotic navigation and calibration of cameras
Mestrado
Mecanica dos Sólidos e Projeto Mecanico
Mestre em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
10

Santos, Cristiano Flores dos. "Um framework para avaliação de mapeamento tridimensional Utilizando técnicas de estereoscopia e odometria visual." Universidade Federal de Santa Maria, 2016. http://repositorio.ufsm.br/handle/1/12038.

Full text
Abstract:
The three-dimensional mapping environments has been intensively studied in the last decade. Among the benefits of this research topic is possible to highlight the addition of autonomy for car or even drones. The three-dimensional representation also allows viewing of a given scenario iteratively and with greater detail. However, until the time of this work was not found one framework to present in detail the implementation of algorithms to perform 3D mapping outdoor approaching a real-time processing. In view of this, in this work we developed a framework with the main stages of three-dimensional reconstruction. Therefore, stereoscopy was chosen as a technique for acquiring the depth information of the scene. In addition, this study evaluated four algorithms depth map generation, where it was possible to achieve the rate of 9 frames per second.
O mapeamento tridimensional de ambientes tem sido intensivamente estudado na última década. Entre os benefícios deste tema de pesquisa é possível destacar adição de autonomia á automóveis ou mesmo drones. A representação tridimensional também permite a visualização de um dado cenário de modo iterativo e com maior riqueza de detalhes. No entanto, até o momento da elaboração deste trabalho não foi encontrado um framework que apresente em detalhes a implementação de algoritmos para realização do mapeamento 3D de ambientes externos que se aproximasse de um processamento em tempo real. Diante disto, neste trabalho foi desenvolvido um framework com as principais etapas de reconstrução tridimensional. Para tanto, a estereoscopia foi escolhida como técnica para a aquisição da informação de profundidade do cenário. Além disto, neste trabalho foram avaliados 4 algoritmos de geração do mapa de profundidade, onde foi possível atingir a taxa de 9 quadros por segundo.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Odometria"

1

Erdem, Uğur Murat, Nicholas Roy, John J. Leonard, and Michael E. Hasselmo. Spatial and episodic memory. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780199674923.003.0029.

Full text
Abstract:
The neuroscience of spatial memory is one of the most promising areas for developing biomimetic solutions to complex engineering challenges. Grid cells are neurons recorded in the medial entorhinal cortex that fire when rats are in an array of locations in the environment falling on the vertices of tightly packed equilateral triangles. Grid cells suggest an exciting new approach for enhancing robot simultaneous localization and mapping (SLAM) in changing environments and could provide a common map for situational awareness between human and robotic teammates. Current models of grid cells are well suited to robotics, as they utilize input from self-motion and sensory flow similar to inertial sensors and visual odometry in robots. Computational models, supported by in vivo neural activity data, demonstrate how grid cell representations could provide a substrate for goal-directed behavior using hierarchical forward planning that finds novel shortcut trajectories in changing environments.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Odometria"

1

Harrison, Steven J., and M. T. Turvey. "Odometry." In Encyclopedia of Animal Cognition and Behavior, 1–5. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-47829-6_1474-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Röfer, Thomas. "Routenbeschreibung durch Odometrie-Scans." In Informatik aktuell, 122–29. Berlin, Heidelberg: Springer Berlin Heidelberg, 1999. http://dx.doi.org/10.1007/978-3-642-60043-2_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Lamon, Pierre. "3D-Odometry." In Springer Tracts in Advanced Robotics, 21–32. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-78287-2_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ben-Ari, Mordechai, and Francesco Mondada. "Robotic Motion and Odometry." In Elements of Robotics, 63–93. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-62533-1_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lianos, Konstantinos-Nektarios, Johannes L. Schönberger, Marc Pollefeys, and Torsten Sattler. "VSO: Visual Semantic Odometry." In Computer Vision – ECCV 2018, 246–63. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-01225-0_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Chien, Hsiang-Jen, Jr-Jiun Lin, Tang-Kai Yin, and Reinhard Klette. "Multi-objective Visual Odometry." In Image and Video Technology, 62–74. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-75786-5_6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Santamaria-Navarro, A., J. Solà, and J. Andrade-Cetto. "Odometry Estimation for Aerial Manipulators." In Springer Tracts in Advanced Robotics, 219–28. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-12945-3_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Dudek, Gregory, and Michael Jenkin. "Inertial Sensing, GPS and Odometry." In Springer Handbook of Robotics, 737–52. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-32552-1_29.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Murphy, Liz, Timothy Morris, Ugo Fabrizi, Michael Warren, Michael Milford, Ben Upcroft, Michael Bosse, and Peter Corke. "Experimental Comparison of Odometry Approaches." In Experimental Robotics, 877–90. Heidelberg: Springer International Publishing, 2013. http://dx.doi.org/10.1007/978-3-319-00065-7_58.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Dudek, Gregory, and Michael Jenkin. "Inertial Sensors, GPS, and Odometry." In Springer Handbook of Robotics, 477–90. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-30301-5_21.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Odometria"

1

Eduardo Cota, Filipe Augusto Santos Rocha, Héctor Azpúrua, and Gustavo Medeiros Freitas. "AVALIAÇÃO DE TÉCNICAS DE ODOMETRIA APLICADAS A UM DISPOSITIVO ROBÓTICO MÓVEL." In XXII Congresso Brasileiro de Automática. Joao Pessoa, Paraíba, Brasil: SBA Sociedade Brasileira de Automática, 2018. http://dx.doi.org/10.20906/cps/cba2018-1216.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Do Carmo, Alexandre Pereira, Felippe Mendonça De Queiroz, Clebeson Canuto Dos Santos, Leonardo De Assis Silva, and Raquel Frizera Vassallo. "Uso de um Espaço Inteligente Baseado em Visão Computacional para o Controle de Formação de Robôs Móveis." In Simpósio Brasileiro de Computação Ubíqua e Pervasiva. Sociedade Brasileira de Computação - SBC, 2020. http://dx.doi.org/10.5753/sbcup.2020.11223.

Full text
Abstract:
É sabido que usar apenas odometria na localização de robôs móveis leva a um crescente acúmulo de erro. Esse problema torna-se maior quando se busca coordenar os movimentos de mais de um robô para atuarem em formação. Sendo assim, este trabalho propõe o uso de um espaço inteligente baseado em visão computacional como uma infraestrutura de serviços para aplicações de robótica móvel, como exemplo, o controle de formação de robôs. A arquitetura baseada em microserviços e computação em nuvem oferece à aplicação flexibilidade, baixa latência e escalabilidade. Os resultados obtidos demonstram a viabilidade de se utilizar espaços inteligentes como provedor e gerenciador desse tipo de aplicação.
APA, Harvard, Vancouver, ISO, and other styles
3

Pereira da Cruz Júnior, Gilmar, Lucas Vinicius Do Carmo Matos, Héctor Azpúrua, Gustavo Pessin, and Gustavo Medeiros Freitas. "Investigação de Técnicas LiDAR SLAM para um Dispositivo Robótico de Inspeção de Ambientes Confinados." In Congresso Brasileiro de Automática - 2020. sbabra, 2020. http://dx.doi.org/10.48011/asba.v2i1.1041.

Full text
Abstract:
A exploração e monitoramento de ambientes confinados, presentes em áreas de produção industrial e mineração, representam riscos aos operadores envolvidos. Buscando maior segurança operacional, o Instituto Tecnológico Vale, em parceria com a Universidade Federal de Minas Gerais, vem desenvolvendo o EspeleoRobô, uma plataforma robótica utilizada na inspeção de cavidades naturais e galerias de barragens e dreno. Estes ambientes apresentam grandes desafios à robótica, principalmente em relação a estimação da pose do robô e geração de mapas do ambiente, essenciais para a navegação autônoma. Uma estratégia adequada consiste na aplicação de técnicas de Localização e Mapeamento Simultâneos (SLAM) baseadas em sensores LiDAR, que fornecem medidas de distâncias precisas, independente das condições de iluminação. Este artigo investiga três técnicas de LiDAR SLAM – LOAM-Velodyne, LeGOLOAM e HDL-Graph-SLAM, buscando determinar a implementação mais adequada para o EspeleoRobô. Experimentos em laboratório e campo são utilizados para comparar o desempenho das técnicas, analisando precisão, nível de ruído e tempo de processamento para o cálculo da odometria e registro do mapa.
APA, Harvard, Vancouver, ISO, and other styles
4

Alana de Santana Correia, Lucas Molina, Elyson Ádan Nunes Carvalho, and Eduardo Oliveira Freire. "APLICAÇÃO DE MAPAS DE SALIÊNCIA COMO LIMITADORES DE REGIÃO PARA DETECTORES CLÁSSICOS NA TAREFA DE ODOMETRIA VISUAL." In XXII Congresso Brasileiro de Automática. Joao Pessoa, Paraíba, Brasil: SBA Sociedade Brasileira de Automática, 2018. http://dx.doi.org/10.20906/cps/cba2018-0612.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Rios, Marcel, and José Francisco Netto. "Análise da Trajetória de Robô Móvel Utilizando Odometria como Técnica para Navegação em Ambientes de Robótica Educacional." In XXVII Simpósio Brasileiro de Informática na Educação. Sociedade Brasileira de Computação - SBC, 2016. http://dx.doi.org/10.5753/cbie.sbie.2016.667.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Veloso Ribeiro, Daniel, Cairo Lúcio Nascimento Júnior, and Wagner Chiepa Cunha. "Navegação Visual Autônoma de um Veículo Terrestre em Escala Reduzida." In Congresso Brasileiro de Automática - 2020. sbabra, 2020. http://dx.doi.org/10.48011/asba.v2i1.1190.

Full text
Abstract:
Este artigo propõe e apresenta simulações de um sistema de navegação visual autônoma para um veículo diferencial com quatro rodas em escala reduzida. O sistema de navegação é composto por: 1) um controlador de seguimento de faixa que processa a imagem de uma câmera embarcada no veículo para corrigir sua orientação e velocidade, 2) um algoritmo de localização do veículo que usa filtro de Kalman para estimar a pose do veículo (posição e orientação) usando dados de um receptor GNSS RTK, uma bússola digital e sensores de odometria. Foram investigadas e comparadas três possíveis soluções para o controlador de manutenção de faixa. A primeira solução usa uma abordagem com algoritmo de janelas deslizantes para processar a imagem da câmera embarcada, extrair a distância do veículo para o centro da faixa e o seu raio de curvatura. Um controlador proporcional _e utilizado, então, para calcular a velocidade desejada para as rodas do veículo. A segunda solução usa uma rede neural convolucional profunda para imitar a primeira solução, isso é, a rede neural recebe a imagem da câmera como entrada e é treinada para gerar a mesma saída que o controlador proporcional usado na primeira solução. A terceira solução também aplica uma rede neural convolucional profunda, mas a rede é treinada usando dados gravados quando um motorista humano dirigiu o veículo no mesmo ambiente simulado. Todas as três soluções foram capazes de manter o veículo em uma margem de erro aceitável da trajetória desejada.
APA, Harvard, Vancouver, ISO, and other styles
7

Zhu, Jianke. "Image Gradient-based Joint Direct Visual Odometry for Stereo Camera." In Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/636.

Full text
Abstract:
Visual odometry is an important research problem for computer vision and robotics. In general, the feature-based visual odometry methods heavily rely on the accurate correspondences between local salient points, while the direct approaches could make full use of whole image and perform dense 3D reconstruction simultaneously. However, the direct visual odometry usually suffers from the drawback of getting stuck at local optimum especially with large displacement, which may lead to the inferior results. To tackle this critical problem, we propose a novel scheme for stereo odometry in this paper, which is able to improve the convergence with more accurate pose. The key of our approach is a dual Jacobian optimization that is fused into a multi-scale pyramid scheme. Moreover, we introduce a gradient-based feature representation, which enjoys the merit of being robust to illumination changes. Furthermore, a joint direct odometry approach is proposed to incorporate the information from the last frame and previous keyframes. We have conducted the experimental evaluation on the challenging KITTI odometry benchmark, whose promising results show that the proposed algorithm is very effective for stereo visual odometry.
APA, Harvard, Vancouver, ISO, and other styles
8

Anderson, J. Wesley, Joshua R. Fabian, and Garrett M. Clayton. "Adaptive RGB-D Visual Odometry for Mobile Robots: An Experimental Study." In ASME 2015 Dynamic Systems and Control Conference. American Society of Mechanical Engineers, 2015. http://dx.doi.org/10.1115/dscc2015-9829.

Full text
Abstract:
In this paper, experiments are presented in support of an adaptive color-depth (RGB-D) camera-based visual odometry algorithm. The goal of visual odometry is to estimate the egomotion of a robot using images from a camera attached to the robot. This type of measurement can be extremely useful when position sensor information, such as GPS, in unavailable and when error from other motion sensors (e.g., wheel encoders) is inaccurate (e.g., due to wheel slip). In the presented method, visual odometry algorithm parameters are adapted to ensure that odometry measurements are accurate while also considering computational cost. In this paper, live experiments are performed that show the feasibility of implementing the proposed algorithm on small wheeled mobile robots.
APA, Harvard, Vancouver, ISO, and other styles
9

Clayton, Garrett M., and Joshua R. Fabian. "Spatial Feature Matching for Visual Odometry: A Parametric Study." In ASME 2013 Dynamic Systems and Control Conference. American Society of Mechanical Engineers, 2013. http://dx.doi.org/10.1115/dscc2013-3913.

Full text
Abstract:
The goal of this paper is to perform a parametric study on a newly developed visual odometry algorithm for use with color-depth (RGB-D) camera pairs, such as the Microsoft Kinect. In this algorithm, features are detected in the color image and converted to 3D points using the depth image. These features are then described by their 3D location and matched across subsequent frames based on spatial proximity. The visual odometry is then calculated using a one-point inverse kinematic solution. The primary contribution of this work is the identification of critical operating parameters associated with the algorithm, the analysis of their effects on the visual odometry performance, and the verification of the analysis using experimentation.
APA, Harvard, Vancouver, ISO, and other styles
10

Wei, Peng, Guoliang Hua, Weibo Huang, Fanyang Meng, and Hong Liu. "Unsupervised Monocular Visual-inertial Odometry Network." In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/325.

Full text
Abstract:
Recently, unsupervised methods for monocular visual odometry (VO), with no need for quantities of expensive labeled ground truth, have attracted much attention. However, these methods are inadequate for long-term odometry task, due to the inherent limitation of only using monocular visual data and the inability to handle the error accumulation problem. By utilizing supplemental low-cost inertial measurements, and exploiting the multi-view geometric constraint and sequential constraint, an unsupervised visual-inertial odometry framework (UnVIO) is proposed in this paper. Our method is able to predict the per-frame depth map, as well as extracting and self-adaptively fusing visual-inertial motion features from image-IMU stream to achieve long-term odometry task. A novel sliding window optimization strategy, which consists of an intra-window and an inter-window optimization, is introduced for overcoming the error accumulation and scale ambiguity problem. The intra-window optimization restrains the geometric inferences within the window through checking the photometric consistency. And the inter-window optimization checks the 3D geometric consistency and trajectory consistency among predictions of separate windows. Extensive experiments have been conducted on KITTI and Malaga datasets to demonstrate the superiority of UnVIO over other state-of-the-art VO / VIO methods. The codes are open-source.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography