Littérature scientifique sur le sujet « Robots Vision artificielle (robotique) »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Robots Vision artificielle (robotique) ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Thèses sur le sujet "Robots Vision artificielle (robotique)"
Meyer, Cédric. « Théorie de vision dynamique et applications à la robotique mobile ». Paris 6, 2013. http://www.theses.fr/2013PA066137.
Texte intégralThe recognition of objects is a key challenge in increasing the autonomy of robots and their performances. Although many techniques of object recognition have been developed in the field of frame-based vision, none of them hold the comparison against human perception in terms of performance, weight and power consumption. Neuromorphic engineering models biological components into artificial chips. It recently provides an event-based camera inspired from a biological retina. The sparse, asynchronous, scene-driven visual data generated by these sensors allow the development of computationally efficient bio-inspired artificial vision. I focus in this thesis on studying how event-based acquisition and its accurate temporal precision can change object recognition by adding precise timing in the process. This thesis first introduces a frame-based object detection and recognition algorithm used for semantic mapping. It then studies quantitatively what are the advantages of using event-based acquisition using mutual information. It then inquires into low level event-based spatiotemporal features in the context of dynamic scene to introduce an implementation of a real-time multi-kernel feature tracking using Gabor filters or any kernel. Finally, a fully asynchronous time-oriented architecture of object recognition mimicking V1 visual cortex is presented. It extends the state of the art HMAX model in a pure temporal implementation of object recognition
Marin, Hernandez Antonio Devy Michel. « Vision dynamique pour la navigation d'un robot mobile ». Toulouse : INP Toulouse, 2004. http://ethesis.inp-toulouse.fr/archive/00000009.
Texte intégralMansard, Nicolas Chaumette François. « Enchaînement de tâches robotiques ». [S.l.] : [s.n.], 2006. ftp://ftp.irisa.fr/techreports/theses/2006/mansard.pdf.
Texte intégralLoménie, Nicolas. « Interprétation de nuages de points : application à la modélisation d'environnements 3D en robotique mobile ». Paris 5, 2001. http://www.theses.fr/2001PA05S027.
Texte intégralThis thesis work deals with unorganised 3D point sets analysis based on two tools : on the one hand a clustering algorithm inspired by K-means and on the other hand morphological filtering techniques specifically designed for Delaunay triangulation representations of unstructured point sets. Applications to autonomous mobile robotic navigation are performed in the field of computer vision in unknown environments. But the designed methodology has been generically applied to others types of more structured environments
Clérentin, Arnaud. « Localisation d'un robot mobile par coopération multi-capteurs et suivi multi-cibles ». Amiens, 2001. http://www.theses.fr/2001AMIE0023.
Texte intégralMerveilleux-Orzekowska, Pauline. « Exploration et navigation de robots basées vision omnidirectionnelle ». Amiens, 2012. http://www.theses.fr/2012AMIE0112.
Texte intégralFree space perception, without any prior knowledge, is still a challenging issue in mobile robotics. In this thesis, we propose to use active contour models and monocular omnidirectional vision as a framework within which to realize real-time unknown free space detections. Several approaches have been developed in the literature and can be classified in two main categories : Parametric and Geometric active contours. The parametric active contours are explicit models whose deformation is constrained by minimization of a functional energy. These latters provide fast segmentations but can not ensure the convergence of the contour to boundary concavities. In contrast, the geometric methods consider an implicit representation of the contour as the level sets of two dimensional distance functions which evolve according to an Eulerian formulation. They overcome contour convergence in boundary concavities and allow to automatically handle topology changes of the contour. However, their use is limited because of their prohibitive computational cost. In this work, various improvements to existing geometric and parametric models have been proposed to overcome these constraints of prohibitive computational cost and poorly convergence to boundary concavities. A new method based on an Bezier curves interpolation with a geometric construction is proposed. Experiments led in real environments have validated the interest and efficiency of these approaches
Cabrol, Aymeric de. « Système de vision robuste temps- réel dynamiquement reconfigurable pour la robotique mobile ». Paris 13, 2005. http://www.theses.fr/2005PA132038.
Texte intégralMansard, Nicolas. « Enchaînement de tâches robotiques ». Rennes 1, 2006. http://www.theses.fr/2006REN1S097.
Texte intégralLasserre, Patricia. « Vision pour la robotique en environnement naturel ». Phd thesis, Université Paul Sabatier - Toulouse III, 1996. http://tel.archives-ouvertes.fr/tel-00139846.
Texte intégralBreton, Stéphane. « Une approche neuronale du contrôle robotique utilisant la vision binoculaire par reconstruction tridimensionnelle ». Mulhouse, 1999. http://www.theses.fr/1999MULH0532.
Texte intégralLivres sur le sujet "Robots Vision artificielle (robotique)"
Ayache, Nicholas. Artificial vision for mobile robots : Stereo vision and multisensory perception. Cambridge, Mass : MIT Press, 1991.
Trouver le texte intégralAllen, Peter K. Robotic object recognition using vision and touch. Boston : Kluwer Academic Publishers, 1987.
Trouver le texte intégralHorridge, G. Adrian. What does the honeybee see ? and how do we know ? : A critique of scientific reason. Canberra : ANU Press, 2009.
Trouver le texte intégralRobotics and AI : An introduction to applied machine intelligence. Englewood Cliffs, N.J : Prentice-Hall, 1987.
Trouver le texte intégralStaugaard, Andrew C. Robotics and AI : An introduction to applied machine intelligence. London : Prentice-Hall International, 1987.
Trouver le texte intégralMoravec, Hans P. Mind children : The future of robot and human intelligence. Cambridge, Mass : Harvard University Press, 1988.
Trouver le texte intégralIndustrial robots : Computer interfacing and control. Englewood Cliffs, N.J : Prentice-Hall, 1985.
Trouver le texte intégralIlg, Uwe J. Dynamics of Visual Motion Processing : Neuronal, Behavioral, and Computational Approaches. Boston, MA : Springer Science+Business Media, LLC, 2010.
Trouver le texte intégralW, Mayhew John E., et Frisby John P, dir. 3D model recognition from stereoscopic cues. Cambridge, Mass : MIT Press, 1991.
Trouver le texte intégralChapitres de livres sur le sujet "Robots Vision artificielle (robotique)"
Henry, Hervé. « Siléane, l’innovation permanente en robotique, vision et intelligence artificielle : de l’indiscipline créatrice à la discipline symphonique ». Dans Tétranormalisation : profusion des normes et développement des entreprises, 206–9. EMS Editions, 2020. http://dx.doi.org/10.3917/ems.saval.2020.02.0206.
Texte intégralActes de conférences sur le sujet "Robots Vision artificielle (robotique)"
Bénichou, L. « Retour d’expérience sur la chirurgie robotique en chirurgie orale ». Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601001.
Texte intégral