Academic literature on the topic 'Odometria'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Odometria.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Journal articles on the topic "Odometria"
Renato Garcia Braga, José, Elcio Hideiti Shiguemori, and Haroldo Fraga de Campos Velho. "Odometria Visual para a Navegação Autônoma de VANT." Revista Cereus 11, no. 1 (March 31, 2019): 184–94. http://dx.doi.org/10.18605/2175-7275/cereus.v11n1p184-194.
Full textBonin-Font, Francisco, Carles Coll Gomila, and Gabriel Oliver Codina. "Hacia la Navegación Visual de un Vehículo Autónomo Submarino en Áreas con Posidonia Oceanica." Revista Iberoamericana de Automática e Informática industrial 15, no. 1 (December 5, 2017): 24. http://dx.doi.org/10.4995/riai.2017.8828.
Full textYang, Jingdong, Jinghui Yang, and Zesu Cai. "An efficient approach to pose tracking based on odometric error modelling for mobile robots." Robotica 33, no. 6 (April 1, 2014): 1231–49. http://dx.doi.org/10.1017/s0263574714000654.
Full textNevalainen, Paavo, Qingqing Li, Timo Melkas, Kirsi Riekki, Tomi Westerlund, and Jukka Heikkonen. "Navigation and Mapping in Forest Environment Using Sparse Point Clouds." Remote Sensing 12, no. 24 (December 14, 2020): 4088. http://dx.doi.org/10.3390/rs12244088.
Full textMiranda, Fábio L. N. de, and Carlos H. C. Ribeiro. "Extração automática de mapas de atributos baseada em técnica bayesiana para localização de robôs móveis." Sba: Controle & Automação Sociedade Brasileira de Automatica 17, no. 4 (December 2006): 391–408. http://dx.doi.org/10.1590/s0103-17592006000400002.
Full textTang, Hengbo, and Yunhui Liu. "Automatic Simultaneous Extrinsic-Odometric Calibration for Camera-Odometry System." IEEE Sensors Journal 18, no. 1 (January 1, 2018): 348–55. http://dx.doi.org/10.1109/jsen.2017.2764125.
Full textChindakham, Nachaya, Young-Yong Kim, Alongkorn Pirayawaraporn, and Mun-Ho Jeong. "Simultaneous Calibration of Odometry and Head-Eye Parameters for Mobile Robots with a Pan-Tilt Camera." Sensors 19, no. 16 (August 20, 2019): 3623. http://dx.doi.org/10.3390/s19163623.
Full textNikitenko, Agris, Aleksis Liekna, Martins Ekmanis, Guntis Kulikovskis, and Ilze Andersone. "Single Robot Localisation Approach for Indoor Robotic Systems through Integration of Odometry and Artificial Landmarks." Applied Computer Systems 14, no. 1 (June 1, 2013): 50–58. http://dx.doi.org/10.2478/acss-2013-0006.
Full textSrinivasan, M., S. Zhang, and N. Bidwell. "Visually mediated odometry in honeybees." Journal of Experimental Biology 200, no. 19 (October 1, 1997): 2513–22. http://dx.doi.org/10.1242/jeb.200.19.2513.
Full textBonnifait, Ph, P. Bouron, D. Meizel, and P. Crubillé. "Dynamic Localization of Car-like Vehicles using Data Fusion of Redundant ABS Sensors." Journal of Navigation 56, no. 3 (August 26, 2003): 429–41. http://dx.doi.org/10.1017/s037346330300242x.
Full textDissertations / Theses on the topic "Odometria"
Pärkkä, J. (Jarmo). "Reaaliaikainen visuaalinen odometria." Master's thesis, University of Oulu, 2013. http://urn.fi/URN:NBN:fi:oulu-201312021943.
Full textVisual odometry is the process of estimating the motion of a vehicle, human or robot using the input of a single or multiple cameras. Application domains include robotics, wearable computing, augmented reality and automotive. It is a good supplement to the navigation systems because it operates in the environments where GPS does not. Visual odometry was developed as a substitute for wheel odometry, because its use is not dependent of the terrain. Visual odometry can be applied without restrictions to the way of movement (wheels, flying, walking). In this work visual odometry is examined and developed to be used in real-time embedded system. The basics of visual odometry are discussed. Furthermore, simultaneous localization and mapping (SLAM) is introduced. Visual odometry can appear as a part of SLAM. The purpose of this work is to develop visual odometry algorithm for Parrot’s robot helicopter AR.Drone 2.0, so it could fly independently in the future. The algorithm is based on Civera’s EKF-SLAM method, where feature extraction is replaced with an approach used earlier in global motion estimation. The operation of the algorithm is tested by measuring its performance time with different image sequences and by analyzing the movement of the camera from the map drawn by it. Furthermore, the reality of the navigation information is examined. The operation of the executed system is visually analyzed on the basis of the video and its operation is examined in relation to the comparison method. Developed visual odometry method is found to be a functional solution to the real-time embedded system under certain constraints
Nishitani, André Toshio Nogueira. "Localização baseada em odometria visual." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-17082016-095838/.
Full textThe localization problem consists of estimating the position of the robot with regards to some external reference and it is an essential part of robots and autonomous vehicles navigation systems. Localization based on visual odometry, compared to encoder based odometry, stands out at the estimation of rotation and direction of the movement. This kind of approach is an interesting choice for vehicle control systems in urban environment, where the visual information is mandatory for the extraction of semantic information contained in the street signs and marks. In this context this project propose the development of a visual odometry system based on structure from motion using visual information acquired from a monocular camera to estimate the vehicle pose. The absolute scale problem, inherent with the use of monocular cameras, is achieved using som previous known information regarding the metric relation between image points and points lying on a same world plane.
Tomasi, Junior Darci Luiz. "Modelo de calibração para sistemas de odometria robótica." reponame:Repositório Institucional da UFPR, 2016. http://hdl.handle.net/1884/45704.
Full textDissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 30/11/2016
Inclui referências : f. 39
Resumo: Para realizar a navegação de uma base robótica em um ambiente desconhecido, alguns mecanismos para detectar o posicionamento e a localização devem ser fornecidos a base. Quando a base está em processo de navegação e faz uso desses mecanismos, erros provenientes do ambiente e da base robótica são inseridos no sistema, resultando em um posicionamento errôneo. Uma forma de reduzir a amplitude dos erros é através de um modelo de calibração eficiente, capaz de identificar e estimar valores aceitáveis para as principais fontes de incerteza nos cálculos de odometria. Este trabalho de pesquisa apresenta um novo modelo de calibração comparável aos métodos clássicos conhecidos, mas que diferencia-se pela forma com que a calibração é realizada, sendo essa a principal limitação para conseguir incrementar os resultados com o método proposto. Ao fim do procedimento padrão proposto ser realizado, os resultados são equivalentes aos dos métodos clássicos conhecidos. Palavras-chave: UMBmark, Odometria, Calibração.
Abstract: In order to navigate a robotic base in an unfamiliar environment, some mechanism to detect positioning and location must be provided. When the robot is in the process of navigation and makes use of this mechanism, errors from the environment and the robotic base are inserted into the system, resulting in an erroneous positioning. One way to reduce the error amplitude is through an efficient calibration model, capable of identifying and estimating acceptable values for the main sources of uncertainty in odometry calculations. This work presents a new calibration model comparable to the classical methods known, but it is distinguished by the way in which the calibration is performed, being this the main limitation to be able to increase the results with the proposed method. At the end of the proposed standard procedure, the results are equivalent to those of the known classical methods. Keywords: UMBmark, Odometry, Calibration.
Silva, Bruno Marques Ferreira da. "Odometria visual baseada em t?cnicas de structure from motion." Universidade Federal do Rio Grande do Norte, 2011. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15364.
Full textCoordena??o de Aperfei?oamento de Pessoal de N?vel Superior
Visual Odometry is the process that estimates camera position and orientation based solely on images and in features (projections of visual landmarks present in the scene) extraced from them. With the increasing advance of Computer Vision algorithms and computer processing power, the subarea known as Structure from Motion (SFM) started to supply mathematical tools composing localization systems for robotics and Augmented Reality applications, in contrast with its initial purpose of being used in inherently offline solutions aiming 3D reconstruction and image based modelling. In that way, this work proposes a pipeline to obtain relative position featuring a previously calibrated camera as positional sensor and based entirely on models and algorithms from SFM. Techniques usually applied in camera localization systems such as Kalman filters and particle filters are not used, making unnecessary additional information like probabilistic models for camera state transition. Experiments assessing both 3D reconstruction quality and camera position estimated by the system were performed, in which image sequences captured in reallistic scenarios were processed and compared to localization data gathered from a mobile robotic platform
Odometria Visual ? o processo pelo qual consegue-se obter a posi??o e orienta??o de uma c?mera, baseado somente em imagens e consequentemente, em caracter?sticas (proje??es de marcos visuais da cena) nelas contidas. Com o avan?o nos algoritmos e no poder de processamento dos computadores, a sub?rea de Vis?o Computacional denominada de Structure from Motion (SFM) passou a fornecer ferramentas que comp?em sistemas de localiza??o visando aplica??es como rob?tica e Realidade Aumentada, em contraste com o seu prop?sito inicial de ser usada em aplica??es predominantemente offline como reconstru??o 3D e modelagem baseada em imagens. Sendo assim, este trabalho prop?e um pipeline de obten??o de posi??o relativa que tem como caracter?sticas fazer uso de uma ?nica c?mera calibrada como sensor posicional e ser baseado interamente nos modelos e algoritmos de SFM. T?cnicas usualmente presentes em sistemas de localiza??o de c?mera como filtros de Kalman e filtros de part?culas n?o s?o empregadas, dispensando que informa??es adicionais como um modelo probabil?stico de transi??o de estados para a c?mera sejam necess?rias. Experimentos foram realizados com o prop?sito de avaliar tanto a reconstru??o 3D quanto a posi??o de c?mera retornada pelo sistema, atrav?s de sequ?ncias de imagens capturadas em ambientes reais de opera??o e compara??es com um ground truth fornecido pelos dados do od?metro de uma plataforma rob?tica
Araújo, Darla Caroline da Silva 1989. "Uso de fluxo óptico na odometria visual aplicada a robótica." [s.n.], 2015. http://repositorio.unicamp.br/jspui/handle/REPOSIP/265835.
Full textDissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica
Made available in DSpace on 2018-08-26T21:38:28Z (GMT). No. of bitstreams: 1 Araujo_DarlaCarolinedaSilva_M.pdf: 5678583 bytes, checksum: a6ed9886369705a8853f15d431565a3d (MD5) Previous issue date: 2015
Resumo: O presente trabalho descreve um método de odometria visual empregando a técnica de fluxo óptico, para estimar o movimento de um robô móvel, através de imagens digitais capturadas de duas câmeras estereoscópicas nele fixadas. Busca-se assim a construção de um mapa para a localização do Robô. Esta proposta, além de alternativa ao cálculo autônomo de movimento realizado por outros tipos de sensores como GPS, laser, sonares, utiliza uma técnica de processamento óptico de grande eficiência computacional. Foi construído um ambiente 3D para simulação do movimento do robô e captura das imagens necessárias para estimar sua trajetória e verificar a acurácia da técnica proposta. Utiliza-se a técnica de fluxo óptico de Lucas Kanade na identificação de características em imagens. Os resultados obtidos neste trabalho são de grande importância para os estudos de navegação robótica
Abstract: This work describes a method of visual odometry using the optical flow technique to estimate the motion of a mobile robot, through digital images captured from two stereoscopic cameras fixed on it, in order to obtain a map of location of the robot. This proposal is an alternative to the autonomous motion calculation performed by other types of sensors such as GPS, laser, sonar, and uses an optical processing technique of high computational efficiency. To check the accuracy of the technique it was necessary to build a 3D environment to simulate the robot performing a trajectory and capture the necessary images to estimate the trajectory. The optical flow technique of Lucas Kanade was used for identifying features in the images. The results of this work are of great importance for future robotic navigation studies
Mestrado
Mecanica dos Sólidos e Projeto Mecanico
Mestra em Engenharia Mecânica
Santos, Vinícius Araújo. "SiameseVO-Depth: odometria visual através de redes neurais convolucionais siamesas." Universidade Federal de Goiás, 2018. http://repositorio.bc.ufg.br/tede/handle/tede/9083.
Full textApproved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-11-21T11:06:26Z (GMT) No. of bitstreams: 2 Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2018-11-21T11:06:26Z (GMT). No. of bitstreams: 2 Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-10-11
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Visual Odometry is an important process in image based navigation of robots. The standard methods of this field rely on the good feature matching between frames where feature detection on images stands as a well adressed problem within Computer Vision. Such techniques are subject to illumination problems, noise and poor feature localization accuracy. Thus, 3D information on a scene may mitigate the uncertainty of the features on images. Deep Learning techniques show great results when dealing with common difficulties of VO such as low illumination conditions and bad feature selection. While Visual Odometry and Deep Learning have been connected previously, no techniques applying Siamese Convolutional Networks on depth infomation given by disparity maps have been acknowledged as far as this work’s researches went. This work aims to fill this gap by applying Deep Learning to estimate egomotion through disparity maps on an Siamese architeture. The SiameseVO-Depth architeture is compared to state of the art techniques on OV by using the KITTI Vision Benchmark Suite. The results reveal that the chosen methodology succeeded on the estimation of Visual Odometry although it doesn’t outperform the state-of-the-art techniques. This work presents fewer steps in relation to standard VO techniques for it consists of an end-to-end solution and demonstrates a new approach of Deep Learning applied to Visual Odometry.
Odometria Visual é um importante processo na navegação de robôs baseada em imagens. Os métodos clássicos deste tema dependem de boas correspondências de características feitas entre imagens sendo que a detecção de características em imagens é um tema amplamente discutido no campo de Visão Computacional. Estas técnicas estão sujeitas a problemas de iluminação, presença de ruído e baixa de acurácia de localização. Nesse contexto, a informação tridimensional de uma cena pode ser uma forma de mitigar as incertezas sobre as características em imagens. Técnicas de Deep Learning têm demonstrado bons resultados lidando com problemas comuns em técnicas de OV como insuficiente iluminação e erros na seleção de características. Ainda que já existam trabalhos que relacionam Odometria Visual e Deep Learning, não foram encontradas técnicas que utilizem Redes Convolucionais Siamesas com sucesso utilizando informações de profundidade de mapas de disparidade durante esta pesquisa. Este trabalho visa preencher esta lacuna aplicando Deep Learning na estimativa do movimento por de mapas de disparidade em uma arquitetura Siamesa. A arquitetura SiameseVO-Depth proposta neste trabalho é comparada à técnicas do estado da arte em OV utilizando a base de dados KITTI Vision Benchmark Suite. Os resultados demonstram que através da metodologia proposta é possível a estimativa dos valores de uma Odometria Visual ainda que o desempenho não supere técnicas consideradas estado da arte. O trabalho proposto possui menos etapas em comparação com técnicas clássicas de OV por apresentar-se como uma solução fim-a-fim e apresenta nova abordagem no campo de Deep Learning aplicado à Odometria Visual.
Pereira, Fabio Irigon. "High precision monocular visual odometry." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2018. http://hdl.handle.net/10183/183233.
Full textRecovering three-dimensional information from bi-dimensional images is an important problem in computer vision that finds several applications in our society. Robotics, entertainment industry, medical diagnose and prosthesis, and even interplanetary exploration benefit from vision based 3D estimation. The problem can be divided in two interdependent operations: estimating the camera position and orientation when each image was produced, and estimating the 3D scene structure. This work focuses on computer vision techniques, used to estimate the trajectory of a vehicle equipped camera, a problem known as visual odometry. In order to provide an objective measure of estimation efficiency and to compare the achieved results to the state-of-the-art works in visual odometry a high precision popular dataset was selected and used. In the course of this work new techniques for image feature tracking, camera pose estimation, point 3D position calculation and scale recovery are proposed. The achieved results outperform the best ranked results in the popular chosen dataset.
Bezerra, Clauber Gomes. "Localiza??o de um rob? m?vel usando odometria e marcos naturais." Universidade Federal do Rio Grande do Norte, 2004. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15411.
Full textSeveral methods of mobile robot navigation request the mensuration of robot position and orientation in its workspace. In the wheeled mobile robot case, techniques based on odometry allow to determine the robot localization by the integration of incremental displacements of its wheels. However, this technique is subject to errors that accumulate with the distance traveled by the robot, making unfeasible its exclusive use. Other methods are based on the detection of natural or artificial landmarks present in the environment and whose location is known. This technique doesnt generate cumulative errors, but it can request a larger processing time than the methods based on odometry. Thus, many methods make use of both techniques, in such a way that the odometry errors are periodically corrected through mensurations obtained from landmarks. Accordding to this approach, this work proposes a hybrid localization system for wheeled mobile robots in indoor environments based on odometry and natural landmarks. The landmarks are straight lines de.ned by the junctions in environments floor, forming a bi-dimensional grid. The landmark detection from digital images is perfomed through the Hough transform. Heuristics are associated with that transform to allow its application in real time. To reduce the search time of landmarks, we propose to map odometry errors in an area of the captured image that possesses high probability of containing the sought mark
Diversos m?todos de navega??o de rob?s m?veis requerem a medi??o da posi??o e orienta??o do rob? no seu espa?o de trabalho. No caso de rob?s m?veis com rodas, t?cnicas baseadas em odometria permitem determinar a localiza??o do rob? atrav?s da integra??o de medi??es dos deslocamentos incrementais de suas rodas. No entanto, essa t?cnica est? sujeita a erros que se acumulam com a dist?ncia percorrida pelo rob?, o que inviabiliza o seu uso exclusivo. Outros m?todos se baseiam na detec??o de marcos naturais ou artificiais, cuja localiza??o ? conhecida, presentes no ambiente. Apesar desta t?cnica n?o gerar erros cumulativos, ela pode requisitar um tempo de processamento bem maior do que o uso de odometria. Assim, muitos m?todos fazem uso de ambas as t?cnicas, de modo a corrigir periodicamente os erros de odometria, atrav?s de medi??es obtidas a partir dos marcos. De acordo com esta abordagem, propomos neste trabalho um sistema h?brido de localiza??o para rob?s m?veis com rodas em ambientes internos, baseado em odometria e marcos naturais, onde os marcos adotados s?o linhas retas definidas pelas jun??es existentes no piso do ambiente, formando uma grade bi-dimensional no ch?o. Para a detec??o deste tipo de marco, a partir de imagens digitais, ? utilizada a transformada de Hough, associada a heur?sticas que permitem a sua aplica??o em tempo real. Em particular, para reduzir o tempo de busca dos marcos, propomos mapear erros de odometria em uma regi?o da imagem capturada que possua grande probabilidade de conter o marco procurado
Delgado, Vargas Jaime Armando 1986. "Localização e navegação de robô autônomo através de odometria e visão estereoscópica." [s.n.], 2012. http://repositorio.unicamp.br/jspui/handle/REPOSIP/264542.
Full textDissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica
Made available in DSpace on 2018-08-20T13:27:04Z (GMT). No. of bitstreams: 1 DelgadoVargas_JaimeArmando_M.pdf: 4350704 bytes, checksum: 8e7dab5b1630b88bde95e287a62b2f7e (MD5) Previous issue date: 2012
Resumo: Este trabalho apresenta a implementação de um sistema de navegação com visão estereoscópica em um robô móvel, que permite a construção de mapa de ambiente e localização. Para isto é necessário conhecer o modelo cinemático do robô, técnicas de controle, algoritmos de identificação de características em imagens (features), reconstrução 3D com visão estereoscópica e algoritmos de navegação. Utilizam-se métodos para a calibração de câmera desenvolvida no âmbito do grupo de pesquisa da FEM/UNICAMP e da literatura. Resultados de análises experimentais e teóricas são comparados. Resultados adicionais mostram a validação do algoritmo de calibração de câmera, acurácia dos sensores, resposta do sistema de controle, e reconstrução 3D. Os resultados deste trabalho são de importância para futuros estudos de navegação robótica e calibração de câmeras
Abstract: This paper presents a navigation system with stereoscopic vision on a mobile robot, which allows the construction of environment map and location. In that way must know the kinematic model of the robot, algorithms for identifying features in images (features) as a Sift, 3D reconstruction with stereoscopic vision and navigation algorithms. Methods are used to calibrate the camera developed within the research group of the FEM / UNICAMP and literature. Results of experimental and theoretical analyzes are compared. Additional results show the validation of the algorithm for camera calibration, accuracy of sensors, control system response, and 3D reconstruction. These results are important for future studies of robotic navigation and calibration of cameras
Mestrado
Mecanica dos Sólidos e Projeto Mecanico
Mestre em Engenharia Mecânica
Santos, Cristiano Flores dos. "Um framework para avaliação de mapeamento tridimensional Utilizando técnicas de estereoscopia e odometria visual." Universidade Federal de Santa Maria, 2016. http://repositorio.ufsm.br/handle/1/12038.
Full textO mapeamento tridimensional de ambientes tem sido intensivamente estudado na última década. Entre os benefícios deste tema de pesquisa é possível destacar adição de autonomia á automóveis ou mesmo drones. A representação tridimensional também permite a visualização de um dado cenário de modo iterativo e com maior riqueza de detalhes. No entanto, até o momento da elaboração deste trabalho não foi encontrado um framework que apresente em detalhes a implementação de algoritmos para realização do mapeamento 3D de ambientes externos que se aproximasse de um processamento em tempo real. Diante disto, neste trabalho foi desenvolvido um framework com as principais etapas de reconstrução tridimensional. Para tanto, a estereoscopia foi escolhida como técnica para a aquisição da informação de profundidade do cenário. Além disto, neste trabalho foram avaliados 4 algoritmos de geração do mapa de profundidade, onde foi possível atingir a taxa de 9 quadros por segundo.
Books on the topic "Odometria"
Erdem, Uğur Murat, Nicholas Roy, John J. Leonard, and Michael E. Hasselmo. Spatial and episodic memory. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780199674923.003.0029.
Full textBook chapters on the topic "Odometria"
Harrison, Steven J., and M. T. Turvey. "Odometry." In Encyclopedia of Animal Cognition and Behavior, 1–5. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-47829-6_1474-1.
Full textRöfer, Thomas. "Routenbeschreibung durch Odometrie-Scans." In Informatik aktuell, 122–29. Berlin, Heidelberg: Springer Berlin Heidelberg, 1999. http://dx.doi.org/10.1007/978-3-642-60043-2_15.
Full textLamon, Pierre. "3D-Odometry." In Springer Tracts in Advanced Robotics, 21–32. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-78287-2_3.
Full textBen-Ari, Mordechai, and Francesco Mondada. "Robotic Motion and Odometry." In Elements of Robotics, 63–93. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-62533-1_5.
Full textLianos, Konstantinos-Nektarios, Johannes L. Schönberger, Marc Pollefeys, and Torsten Sattler. "VSO: Visual Semantic Odometry." In Computer Vision – ECCV 2018, 246–63. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-01225-0_15.
Full textChien, Hsiang-Jen, Jr-Jiun Lin, Tang-Kai Yin, and Reinhard Klette. "Multi-objective Visual Odometry." In Image and Video Technology, 62–74. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-75786-5_6.
Full textSantamaria-Navarro, A., J. Solà, and J. Andrade-Cetto. "Odometry Estimation for Aerial Manipulators." In Springer Tracts in Advanced Robotics, 219–28. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-12945-3_15.
Full textDudek, Gregory, and Michael Jenkin. "Inertial Sensing, GPS and Odometry." In Springer Handbook of Robotics, 737–52. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-32552-1_29.
Full textMurphy, Liz, Timothy Morris, Ugo Fabrizi, Michael Warren, Michael Milford, Ben Upcroft, Michael Bosse, and Peter Corke. "Experimental Comparison of Odometry Approaches." In Experimental Robotics, 877–90. Heidelberg: Springer International Publishing, 2013. http://dx.doi.org/10.1007/978-3-319-00065-7_58.
Full textDudek, Gregory, and Michael Jenkin. "Inertial Sensors, GPS, and Odometry." In Springer Handbook of Robotics, 477–90. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-30301-5_21.
Full textConference papers on the topic "Odometria"
Eduardo Cota, Filipe Augusto Santos Rocha, Héctor Azpúrua, and Gustavo Medeiros Freitas. "AVALIAÇÃO DE TÉCNICAS DE ODOMETRIA APLICADAS A UM DISPOSITIVO ROBÓTICO MÓVEL." In XXII Congresso Brasileiro de Automática. Joao Pessoa, Paraíba, Brasil: SBA Sociedade Brasileira de Automática, 2018. http://dx.doi.org/10.20906/cps/cba2018-1216.
Full textDo Carmo, Alexandre Pereira, Felippe Mendonça De Queiroz, Clebeson Canuto Dos Santos, Leonardo De Assis Silva, and Raquel Frizera Vassallo. "Uso de um Espaço Inteligente Baseado em Visão Computacional para o Controle de Formação de Robôs Móveis." In Simpósio Brasileiro de Computação Ubíqua e Pervasiva. Sociedade Brasileira de Computação - SBC, 2020. http://dx.doi.org/10.5753/sbcup.2020.11223.
Full textPereira da Cruz Júnior, Gilmar, Lucas Vinicius Do Carmo Matos, Héctor Azpúrua, Gustavo Pessin, and Gustavo Medeiros Freitas. "Investigação de Técnicas LiDAR SLAM para um Dispositivo Robótico de Inspeção de Ambientes Confinados." In Congresso Brasileiro de Automática - 2020. sbabra, 2020. http://dx.doi.org/10.48011/asba.v2i1.1041.
Full textAlana de Santana Correia, Lucas Molina, Elyson Ádan Nunes Carvalho, and Eduardo Oliveira Freire. "APLICAÇÃO DE MAPAS DE SALIÊNCIA COMO LIMITADORES DE REGIÃO PARA DETECTORES CLÁSSICOS NA TAREFA DE ODOMETRIA VISUAL." In XXII Congresso Brasileiro de Automática. Joao Pessoa, Paraíba, Brasil: SBA Sociedade Brasileira de Automática, 2018. http://dx.doi.org/10.20906/cps/cba2018-0612.
Full textRios, Marcel, and José Francisco Netto. "Análise da Trajetória de Robô Móvel Utilizando Odometria como Técnica para Navegação em Ambientes de Robótica Educacional." In XXVII Simpósio Brasileiro de Informática na Educação. Sociedade Brasileira de Computação - SBC, 2016. http://dx.doi.org/10.5753/cbie.sbie.2016.667.
Full textVeloso Ribeiro, Daniel, Cairo Lúcio Nascimento Júnior, and Wagner Chiepa Cunha. "Navegação Visual Autônoma de um Veículo Terrestre em Escala Reduzida." In Congresso Brasileiro de Automática - 2020. sbabra, 2020. http://dx.doi.org/10.48011/asba.v2i1.1190.
Full textZhu, Jianke. "Image Gradient-based Joint Direct Visual Odometry for Stereo Camera." In Twenty-Sixth International Joint Conference on Artificial Intelligence. California: International Joint Conferences on Artificial Intelligence Organization, 2017. http://dx.doi.org/10.24963/ijcai.2017/636.
Full textAnderson, J. Wesley, Joshua R. Fabian, and Garrett M. Clayton. "Adaptive RGB-D Visual Odometry for Mobile Robots: An Experimental Study." In ASME 2015 Dynamic Systems and Control Conference. American Society of Mechanical Engineers, 2015. http://dx.doi.org/10.1115/dscc2015-9829.
Full textClayton, Garrett M., and Joshua R. Fabian. "Spatial Feature Matching for Visual Odometry: A Parametric Study." In ASME 2013 Dynamic Systems and Control Conference. American Society of Mechanical Engineers, 2013. http://dx.doi.org/10.1115/dscc2013-3913.
Full textWei, Peng, Guoliang Hua, Weibo Huang, Fanyang Meng, and Hong Liu. "Unsupervised Monocular Visual-inertial Odometry Network." In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/325.
Full text