To see the other types of publications on this topic, follow the link: Robots Vision artificielle (robotique).

Dissertations / Theses on the topic 'Robots Vision artificielle (robotique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Robots Vision artificielle (robotique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Meyer, Cédric. "Théorie de vision dynamique et applications à la robotique mobile." Paris 6, 2013. http://www.theses.fr/2013PA066137.

Full text
Abstract:
La reconnaissance d'objet est un grand défi à résoudre pour améliorer l'autonomie des robots. Bien que de nombreuses techniques aient été développées dans le domaine de la vision basée image, aucune d'entre elle ne tient la comparaison face à la perception humaine en termes de performance, de poids et de consommation. Le domaine de l'ingénierie neuromorphique où l'on cherche à reproduire sur puce le comportement d'organes humains, a récemment permis l'émergence de caméras asynchrones bio-inspirées. Les données générées par ces capteurs sont éparses, et asynchrones, ce qui permet le développement d'une vision artificielle adaptée à la scène visuelle en terme de coûts de calculs. Dans cette thèse est étudié l'impact de la prise en compte de temps relatifs précis, rendue possible par l'acquisition évènementielle sur la reconnaissance d'objet. Dans ce travail est d'abord introduit un système de reconnaissance d'objet basé sur des images implémenté sur un robot mobile visant à réaliser une cartographie sémantique. Ensuite sont quantitativement décrits les avantages d'une acquisition évènementielle gr\^ace à l'utilisation de l'information mutuelle. Des primitives visuelles de bas niveau correspondant à la description spatio-temporelle d'une scène dynamique sont ensuite décrites puis une implémentation en temps réel d'un algorithme de suivi de primitive est proposée pour des noyaux de Gabor orientés et de manière générale pour n'importe quel noyau. Finalement, une architecture complètement asynchrone de reconnaissance qui tire pleinement partie de l'information temporelle est présentée, cette méthode étant une extension du modèle HMAX qui s'inspire du cortex visuel des primates
The recognition of objects is a key challenge in increasing the autonomy of robots and their performances. Although many techniques of object recognition have been developed in the field of frame-based vision, none of them hold the comparison against human perception in terms of performance, weight and power consumption. Neuromorphic engineering models biological components into artificial chips. It recently provides an event-based camera inspired from a biological retina. The sparse, asynchronous, scene-driven visual data generated by these sensors allow the development of computationally efficient bio-inspired artificial vision. I focus in this thesis on studying how event-based acquisition and its accurate temporal precision can change object recognition by adding precise timing in the process. This thesis first introduces a frame-based object detection and recognition algorithm used for semantic mapping. It then studies quantitatively what are the advantages of using event-based acquisition using mutual information. It then inquires into low level event-based spatiotemporal features in the context of dynamic scene to introduce an implementation of a real-time multi-kernel feature tracking using Gabor filters or any kernel. Finally, a fully asynchronous time-oriented architecture of object recognition mimicking V1 visual cortex is presented. It extends the state of the art HMAX model in a pure temporal implementation of object recognition
APA, Harvard, Vancouver, ISO, and other styles
2

Marin, Hernandez Antonio Devy Michel. "Vision dynamique pour la navigation d'un robot mobile." Toulouse : INP Toulouse, 2004. http://ethesis.inp-toulouse.fr/archive/00000009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Mansard, Nicolas Chaumette François. "Enchaînement de tâches robotiques." [S.l.] : [s.n.], 2006. ftp://ftp.irisa.fr/techreports/theses/2006/mansard.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Loménie, Nicolas. "Interprétation de nuages de points : application à la modélisation d'environnements 3D en robotique mobile." Paris 5, 2001. http://www.theses.fr/2001PA05S027.

Full text
Abstract:
Cette thèse traite de l'analyse de nuages de points 3D désorganisés et s'appuie sur deux outils : un algorithme de partitionnement efficace inspiré des C-moyennes floues d'une part, et des outils de filtrage morphologique de représentation à base de triangulation de Delaunay d'autre part. Le cadre applicatif essentiel est la navigation autonome en robotique mobile en environnement inconnu, c'est à dire sans modèle. Mais la méthodologie générique développée a été appliquée à d'autres types d'environnements, notamment plus structurés. Dans ce cadre, nous nous intéressons à l'analyse des nuages de points généraux et décrivant tous types de scènes. L'accent n'est alors plus à mettre sur la technique de reconstruction mais plutôt sur la faculté d'analyse, de dénombrement et de représentation d'un nuage de points contenant plusieurs objets, utilisant à l'occasion des techniques déjà expérimentées de reconstruction. Par ailleurs, il est vrai qu'historiquement nos travaux se situent dans un cadre de robotique mobile, dans lequel on espère pouvoir doter un robot d'une certaine autonomie en navigation par l'octroi d'une capacité de construire peu à peu un modèle de l'environnement exploré, inconnu "a priori". Nous avons l'objectif de fournir une description relativement détaillée des obstacles qu'il a eu ou qu'il aura à éviter. Le problème de partitionnement d'une scène en objets ou éléments simples reste à ce jour un problème ouvert en environnement naturel, où l'absence de structure géométrique rend difficile à concevoir des algorithmes de modélisation. Dans cette perspective, l'originalité de notre travail réside entre autres dans la définition d'une méthodologie générique d'analyse de scène représentée par des nuages de points 3D, indépendamment de l'environnement. (. . . )
This thesis work deals with unorganised 3D point sets analysis based on two tools : on the one hand a clustering algorithm inspired by K-means and on the other hand morphological filtering techniques specifically designed for Delaunay triangulation representations of unstructured point sets. Applications to autonomous mobile robotic navigation are performed in the field of computer vision in unknown environments. But the designed methodology has been generically applied to others types of more structured environments
APA, Harvard, Vancouver, ISO, and other styles
5

Clérentin, Arnaud. "Localisation d'un robot mobile par coopération multi-capteurs et suivi multi-cibles." Amiens, 2001. http://www.theses.fr/2001AMIE0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Merveilleux-Orzekowska, Pauline. "Exploration et navigation de robots basées vision omnidirectionnelle." Amiens, 2012. http://www.theses.fr/2012AMIE0112.

Full text
Abstract:
La perception visuelle de l’espace libre (ou de façon duale des obstacles) est une problématique majeure dans de nombreuses applications en robotique mobile. Dans cette thèse, nous proposons d’utiliser les contours actifs comme support de perception pour la navigation autonome de robots mobiles dans des environnements inconnus et dynamiques, à l’aide d’un capteur de vision omnidirectionnelle. A ce jour, deux types de catégories de contours déformables existent dans la littérature : les contours actifs paramétriques et géométriques. Classiquement, les approches paramétriques fondées sur la minimisation d’une fonctionnelle énergie, apportent des solutions rapides mais présentent des problèmes de convergence dans les zones à fortes concavités ou à courbures extrémales. A l’inverse, les approches géométriques fondées sur la résolution d’une EDP non linéaire de propagation, gèrent les changements de topologie mais sont prohibitives en temps de calcul. Dans ce travail, les différentes améliorations apportées aux modèles paramétriques et géométriques existants ont permis de s’affranchir de ces contraintes de temps de calcul prohibitif et de convergence des modèles. Une nouvelle méthode basée sur une approximation par courbes de Bézier avec construction géométrique est également proposée. Des expérimentations menées en conditions réelles ont validé l’intérêt et l’efficacité de ces approches. Au terme de cette étude, la modélisation de l’espace libre par contour actif a été utilisée pour définir les possibilités d’exploration du robot dans son champ visuel, et une représentation métrique de l’espace dans une optique de partage des données. Une stratégie de navigation vers des points objectifs virtuels extraits du squelette de l’espace libre a été proposée. Cette technique permet le déplacement du robot au plus loin des frontières-obstacles (en suivant le diagramme de Voronoï par exemple) tout en évitant les éléments mobiles présents dans le champ perceptif du robot. Enfin, un module de cartographie incrémentale de l’espace exploré, reposant sur l’utilisation d’une grille d’occupation, a été proposé. Plusieurs expériences, menées dans divers environnements inconnus d’intérieur et d’extérieurs, nous ont permis d’évaluer les performances et le potentiel des méthodes développées
Free space perception, without any prior knowledge, is still a challenging issue in mobile robotics. In this thesis, we propose to use active contour models and monocular omnidirectional vision as a framework within which to realize real-time unknown free space detections. Several approaches have been developed in the literature and can be classified in two main categories : Parametric and Geometric active contours. The parametric active contours are explicit models whose deformation is constrained by minimization of a functional energy. These latters provide fast segmentations but can not ensure the convergence of the contour to boundary concavities. In contrast, the geometric methods consider an implicit representation of the contour as the level sets of two dimensional distance functions which evolve according to an Eulerian formulation. They overcome contour convergence in boundary concavities and allow to automatically handle topology changes of the contour. However, their use is limited because of their prohibitive computational cost. In this work, various improvements to existing geometric and parametric models have been proposed to overcome these constraints of prohibitive computational cost and poorly convergence to boundary concavities. A new method based on an Bezier curves interpolation with a geometric construction is proposed. Experiments led in real environments have validated the interest and efficiency of these approaches
APA, Harvard, Vancouver, ISO, and other styles
7

Cabrol, Aymeric de. "Système de vision robuste temps- réel dynamiquement reconfigurable pour la robotique mobile." Paris 13, 2005. http://www.theses.fr/2005PA132038.

Full text
Abstract:
Cette thèse a pour objectif la conception et la réalisation d'un système de vision relativement générique pour la robotique, répondant aux exigence actuelles des systèmes embarqués en terme de robustesse, de sûreté de fonctionnement et de coût. Un tel système doit exploiter au mieux les ressources disponiblesL'analyse des tâches et des contraintes robotiques montre que cette généricité nécessite une extraction d'information complémentaires : contours, régions, mouvements. De nouveaux opérateurs adaptés au temps-réel ont donc été développés. Ce socle de traitements bas-niveau réalisé, nous avons élaboré une architecture dynamiquement reconfigurable répondant au problème posé. Nous proposons une méthode d'utilisation de l'applicatif temps-réel Cléopatre, garantissant l'embarquabilité, le non-blocage pour une intégration pensée au plus juste. Nous tirons de l'implantation de cette architecture une méthode d'utilisation efficace des mécanismes de tolérance aux fautes en vision robotique.
APA, Harvard, Vancouver, ISO, and other styles
8

Mansard, Nicolas. "Enchaînement de tâches robotiques." Rennes 1, 2006. http://www.theses.fr/2006REN1S097.

Full text
Abstract:
Le point de départ de nos travaux est l'asservissement référencé capteur qui permet une très bonne convergence locale, mais converge difficilement lorsque la tâche est complexe par rapport aux degrés de liberté disponibles et aux contraintes à respecter. Notre objectif est de construire une méthode générale pour réaliser un enchaînement de tâches robotiques permettant d'élargir le domaine d'application de la commande référencée capteur. Ces travaux s'articulent autour de deux axes principaux. Dans la première partie, nous construisons une structure de contrôle nommée pile de tâches permettant un contrôle du robot à un plus haut niveau en modifiant pendant l'asservissement les tâches de la pile. Dans la seconde partie, nous utilisons ces fonctionnalités pour réaliser automatiquement l'enchaînement des tâches. Ceci permet d'accomplir la tâche globale et d'assurer en même temps le respect des contraintes. Cette méthode générique est enfin appliquée à différents types de robot.
APA, Harvard, Vancouver, ISO, and other styles
9

Lasserre, Patricia. "Vision pour la robotique en environnement naturel." Phd thesis, Université Paul Sabatier - Toulouse III, 1996. http://tel.archives-ouvertes.fr/tel-00139846.

Full text
Abstract:
Cette thèse se situe dans le cadre de l'augmentation des capacités de perception des robots mobiles destinés à évoluer en environnement naturel. Un robot mobile autonome doit être capable de percevoir et d'appréhender l' environnement dans lequel il évolue, à partir des données fournies par ses capteurs (télémètre laser, caméra...), pour effectuer des missions du type "aller à - (un amer)". L'utilisation d'un télémètre laser suffit pour faire effectuer au robot des missions de déplacement ; l'information tridimensionnelle apportée par ce capteur permet d'extraire des informations sur la géométrie du terrain, la forme et la surface des objets, mais ne permet pas toujours d'obtenir une description suffisante de l'environnement : plusieurs objets peuvent avoir la même forme, le terrain peut être impraticable même s'il est plat. Les travaux présentés dans ce mémoire portent donc sur le développement de l'utilisation du capteur caméra vidéo pour apporter des informations utiles à la localisation et à la navigation du robot dans son environnement. Les besoins actuels pour réaliser ces deux tâches ont permis de déterminer deux directions à développer. L'une concerne l'obtention de l'information tridimensionnelle à partir d'un systeème stéréoscopique ; l'autre consiste à enrichir la connaissance de l'environnement par identification des objets contenus dans la scène. La stéréovision est un moyen répandu pour obtenir l'information tridimensionnelle. Nous avons implémenté un algorithme de stéréocorrélation, technique qui est adaptée pour des scènes texturées. L'algorithme de base est amélioré pour prendre en compte à la fois les contraintes de rapidité d'exécution et de qualité de la corrélation. Lorsque le robot évolue dans un environnement extérieur, la connaissance du terrain ou des objets situés dans cet environnement peut être améliorée en ajoutant des informations telles que la co uleur ou la texture. Nous avons proposé comme représentation complémentaire, le modèle nominatif de régions qui indique la nature de chaque région d'une image. Tout d'abord, un algorithme de segmentation donne une description synthétique de la scène : la méthode combine à la fois les techniques de grossissement de régions et de classification (basée sur l'étude de l'allure générale des histogrammes sur chaque composante colorimétrique). Les régions issues de cette segmentation sont ensuite caractérisées puis identifiées afin d'obtenir leur nature (herbe, roche, terre...). Leur caractérisation est obtenue à partir des informations sur leur couleur et leur texture. Les opérateurs de texture développés sont basés sur l'étude des lignes de contraste dans la région considérée (densité, courbure,...). Une technique probabiliste est finalement utilisée pour déterminer la nature des éléments présents dans l'environnement.
APA, Harvard, Vancouver, ISO, and other styles
10

Breton, Stéphane. "Une approche neuronale du contrôle robotique utilisant la vision binoculaire par reconstruction tridimensionnelle." Mulhouse, 1999. http://www.theses.fr/1999MULH0532.

Full text
Abstract:
Nous formalisons et validons une approche novatrice du contrôle robotique utilisant la vision par apprentissage par l'exemple. Dédiée à la coordination sensori-motrice d'un système de vision binoculaire et d'un système robotique (bras manipulateur) indépendants, cette approche ne nécessite ni connaissance a priori de la géométrie du système robot-vision, ni recours à un quelconque dispositif d'étalonnage externe. L'apprentissage par l'exemple est l'apanage des techniques neuromimétiques, qui associent la statistique et l'optimisation contrainte et non contrainte. La structure neuromimétique adoptée pour le contrôle robotique visuel comporte deux modules séquentiels : ○ un module de reconstruction de l'espace 3D, dans lequel évolue le bras manipulateur, à partir des images binoculaires, ○ un module de commande robotique hybride en position/vitesse. La commande robotique est asservie dans l'espace reconstruit à partir du premier module. Le module de reconstruction 3D associe deux techniques statistiques du traitement du signal : l'analyse en composantes principales (ACP) et l'analyse en composantes indépendantes (ACI). Le contrôle robotique est réalisé alternativement à partir de l'apprentissage des modèles géométriques direct et inverse du manipulateur. Nous proposons HYPSOM («HYPerplan-based Self-Organizing Map»), un réseau novateur d'hyperplans auto-organisés, en vue de l'apprentissage indifférencié de ces modèles. Le réseau HYPSOM est plus généralement adapté à l'approximation linéaire locale de fonctions scalaires multivariables. Notre approche neuronale du contrôle robotique par la vision binoculaire est validée dans le contexte de la simulation logicielle 3D du système robot-vision.
APA, Harvard, Vancouver, ISO, and other styles
11

Motamed, Cina, and Alain Schmitt. "Application de la vision artificielle à la sécurité en robotique." Compiègne, 1992. http://www.theses.fr/1992COMP0511.

Full text
Abstract:
Les installations robotisées sont dotées de mécanismes effectuant des tâches programmées et généralement cycliques. Notre objectif est de montrer comment la vision artificielle peut compléter les dispositifs de sécurité existants chargés de surveiller les interactions entre l'homme et les mécanismes dangereux. Notre approche est basée sur l'utilisation d'informations caractérisant le comportement "normal" des mécanismes en mouvement. Ainsi nous avons introduit la notion de modèle de comportement de la scène observée par une caméra fixe. Nous avons développé deux types d'applications de surveillance automatique dont la faisabilité a été démontrée dans un environnement industriel: Le premier consiste à vérifier le bon fonctionnement des mécanismes. Le modèle correspondant est constitué d'une suite de positions de points dans l'image, précisant la trajectoire que doit poursuivre le mécanisme. Le deuxième dispositif est une protection "proximétrique" de l'homme autour des mécanismes effectuant des tâches cycliques. Il utilise la modélisation nommée "Scénario" qui fournit des indications sur la position des organes en mouvement à chaque instant et également sur les zones dangereuses où un accident entre l'homme et la machine peut se produire. Le système de surveillance se concentre directement sur les zones pertinentes de l'image et déclenche l'arrêt d'urgence des mécanismes lors d'une détection d'intrusion dans les zones de danger. Le test de détection est basé sur un algorithme spécifique de différence entre l'image courante et une référence réactualisée. La détection a été fiabilisée vis à vis des contraintes de sécurité et supporte dans une certaine mesure des variations d'éclairage dans un environnement industriel non contrôlé.
APA, Harvard, Vancouver, ISO, and other styles
12

Murrieta, Cid Rafael. "Contribution au développement d'un système de vision pour robot mobile d'extérieur." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT030H.

Full text
Abstract:
Le travail de thèse s'inscrit dans le cadre du développement d'un système de vision pour robot mobile d'extérieur. Ce système permet la construction d'une représentation de la scène courante, le suivi de cette représentation en cours du mouvement du robot et la construction incrémentale d'un modèle global de l'environnement. Notre contribution a porté principalement sur deux volets: - Enrichissement de la représentation de l'environnement en ajoutant aux modèles géométriques, des représentations fondées sur l'utilisation de la texture et la couleur. - Prise en compte des aspects dynamiques en vue de fournir les informations pour la construction incrémentale des modèles et assurer le suivi de cible. Nous avons proposé une approche pour l'interprétation de scènes naturelles d'extérieur. Celle-ci comporte plusieurs phases : l'extraction des régions par segmentation couleur, la caractérisation de ces régions par leur couleur et leur texture, leur identification et enfin la vérification de la cohérence du modèle. Deux méthodes d'estimation du mouvement entre images sont présentées. La première est une méthode qui utilise les propriétés de la transformation de Fourier pour calculer le déplacement dans les images (translation et rotation). La deuxième technique effectue le suivi visuel des objets, cette méthode est fondée sur la comparaison entre un modèle et une image. Notre contribution à cette dernière porte sur l'identification de la cible et sur la conception et mise en oeuvre de techniques ayant par but la réduction du temps de calcul. L'association entre l'estimation du déplacement entre images et l'interprétation de scènes a été proposée, celle-ci permet au robot d'effectuer le suivi d'un objet ayant une nature et une forme imposées. Enfin nous terminons en proposant une approche fondée sur la fusion multisensorielle (2D et 3D) afin de construire un modèle global de l'environnement.
APA, Harvard, Vancouver, ISO, and other styles
13

Marin, Hernandez Antonio. "Vision dynamique pour la navigation d'un robot mobile." Phd thesis, Toulouse, INPT, 2004. http://oatao.univ-toulouse.fr/7346/1/marin_hernandez.pdf.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent l’étude des fonctionnalités visuelles sur des scènes dynamiques et ses applications à la robotique mobile. Ces fonctionnalités visuelles traitent plus précisément du suivi visuel d’objets dans des séquences d’images. Quatre méthodes de suivi visuel ont été étudiées, dont trois ont été développées spécifiquement dans le cadre de cette thèse. Ces méthodes sont : (1) le suivi de contours par un snake, avec deux variantes permettant son application à des séquences d’images couleur ou la prise en compte de contraintes sur la forme de l’objet suivi, (2) le suivi de régions par différences de motifs, (3) le suivi de contours par corrélation 1D, et enfin (4) la méthode de suivi d’un ensemble de points, fondée sur la distance de Hausdorff, développée lors d’une thèse précédente. Ces méthodes ont été analysées pour différentes tâches relatives à la navigation d’un robot mobile; une comparaison dans différents contextes a été effectuée, donnant lieu à une caractérisation des cibles et des conditions pour lesquelles chaque méthode donne de bons résultats. Les résultats de cette analyse sont pris en compte dans un module de planification perceptuelle, qui détermine quels objets (amers plans) le robot doit suivre pour se guider le long d’une trajectoire. Afin de contrôler l’exécution d’un tel plan perceptuel, plusieurs protocoles de collaboration ou d’enchaînement entre méthodes de suivi visuel ont été proposés. Finalement, ces méthodes, ainsi qu’un module de contrôle d’une caméra active (site, azimut, zoom), ont été intégrées sur un robot. Trois expérimentations ont été effectuées: a) le suivi de route en milieu extérieur, b) le suivi de primitives pour la navigation visuelle en milieu intérieur, et c) le suivi d’amers plans pour la navigation fondée sur la localisation explicite du robot.
APA, Harvard, Vancouver, ISO, and other styles
14

Le, Bras-Mehlman Elizabeth. "Représentation de l'environnement d'un robot mobile." Paris 11, 1989. http://www.theses.fr/1989PA112195.

Full text
Abstract:
Le robot mobile de l'INRIA est doté d'un système de vision qui fournit des segments 3D, situés sur la surface des objets de la scène. On utilise la triangulation de Delaunay pour fournir une approximation polyhédrique des scènes.
APA, Harvard, Vancouver, ISO, and other styles
15

Marey, Mohammed Abdel-Rahman. "Contributions to control modeling in visual servoing, task redundancy and joint limits avoidance." Rennes 1, 2010. http://www.theses.fr/2010REN1S134.

Full text
Abstract:
Visual servoing has become a popular paradigm in robot control by exploiting the information provided by a vision sensor in a feedback control loop. The research described in this dissertation aims mainly to solve problems in visual servoing control and to improve the ability to consider more effectively additional tasks. This thesis presents the state of art in visual servoing, redundancy, and joint limits avoidance and the following contributions: A new first order control scheme obtained by introducing a behavior parameter in a hybrid control matrix is first proposed. It allows a better behavior of the system when suitable values for the behavior parameter are satisfied. An analytical analysis of the most common control scheme and the new one is performed when the camera displacement is a combination of a translation along and a rotation around the camera optical axis. New second order control schemes are also proposed to enhance the behavior of the system when the problem of reaching a desired singular configuration is considered. Theoretical contributions regarding redundancy-based task-priority are achieved by developing a new projection operator obtained by considering only the norm of the main task. This leads to a less constrained problem and enlarges the applicability domain of redundancybased task-priority. New strategies for redundancy-based robot joint limits avoidance are developed. The problem of adding additional secondary tasks to the main task while ensuring the joint limits avoidance is finally solved. All these works have been investigated experimentally using an eye-in-hand system and visual servoing applications
L’asservissement visuel est devenu une approche classique dans le cadre de la commande de robots exploitant les informations fournies par un capteur de vision dans une boucle de commande. La recherche décrite dans cette thèse vise à résoudre des problèmes d’asservissement et à améliorer la capacité de gérer plus efficacement les tâches supplémentaires. Cette thèse présente tout d’abord l’état de l’art en asservissement visuel, redondance et évitement des butées articulaires. Elle propose ensuite les contributions suivantes: Un schéma de commande est obtenu en introduisant un paramètre de comportement dans un contrôle hybride. Il permet un meilleur comportement du système lorsque des valeurs appropriées du paramètre sont sélectionnées. Une étude analytique des lois de commandes les plus courantes et de la nouvelle loi proposée est effectuée dans le cas de mouvements de translation et de rotation selon l’axe optique. De nouveaux schémas de commande sont également proposés pour améliorer le comportement du système lorsque la configuration désirée est singulière. Les contributions théoriques concernant le formalisme de la redondance reposent sur l’élaboration d’un opérateur de projection obtenu en ne considérant que la norme de la tâche principale. Cela conduit à un problème moins contraint et permet d’élargir le domaine d’application. De nouvelles stratégies d’évitement des butées articulaires du robot fondées sur la redondance sont développées. Le problème d’ajouter des tâches secondaires à la tâche principale, tout en assurant l’évitement des butées articulaires, est également résolu. Tous ces travaux ont été validés par des expérimentations dans le cadre d’applications d’asservissement visuel
APA, Harvard, Vancouver, ISO, and other styles
16

Bideaux, Eric. "Stan : systeme de transport a apprentissage neuronal. application de la vision omnidirectionnelle a la localisation d'un robot mobile autonome." Besançon, 1995. http://www.theses.fr/1995BESA2008.

Full text
Abstract:
Ce travail introduit une nouvelle methode d'interpretation de la vision du monde reel et applique cette technique a la navigation d'un robot mobile autonome dans un milieu industriel. Stan, systeme de transport a apprentissage neuronal, a pour objectif d'accroitre a moindre cout, la flexibilite et l'autonomie locale de robots mobiles. Cette proposition s'appuie essentiellement sur deux points. Premierement, le systeme de perception, base sur un systeme de vision omnidirectionnelle, permet de collecter des informations dans toutes les directions autour du robot en une seule prise d'image. Ce systeme consiste en la photographie du reflet de l'environnement sur un miroir conique. L'image obtenue fournit une signature caracteristique de la position dans l'environnement. Cette methode de perception est etudiee a travers deux prototypes: l'un permettant la prise d'une seule image, l'autre realisant la prise d'un couple d'images stereoscopiques. Deuxiemement, notre point de vue revise les developpements actuels des methodes de guidage et de navigation. Il s'appuie sur la reconnaissance des signatures caracteristiques de la position que fournit le systeme de perception afin de calculer la position du vehicule. La methode se decompose en deux etapes: un mode apprentissage ou un operateur enseigne la trajectoire de travail au robot, et, un mode operatoire ou le robot realise une reconnaissance des images recues. Ces deux phases constituent les etapes d'entrainement et d'utilisation de reseaux de neurones a retropropagation du gradient. Ce memoire souligne dans un premier temps la problematique liee a l'utilisation de vehicules autonomes dans un milieu industriel. Ces observations amenent alors la proposition d'une solution originale dont les differents points specifiques sont ensuite abordes a travers une presentation generale du projet stan. Un ensemble de resultats issus de simulations et experimentations permet ensuite la validation de l'idee generale a travers la comparaison de plusieurs architectures neuronales. Un bilan des contributions et des perspectives ouvertes par le projet stan conclut enfin sur l'avancement des travaux
APA, Harvard, Vancouver, ISO, and other styles
17

Léonard, François. "Contribution à la commande dynamique d'un robot industriel, en boucle fermée, par caméra embarquée." Université Louis Pasteur (Strasbourg) (1971-2008), 1990. http://www.theses.fr/1990STR13134.

Full text
Abstract:
Ce travail concerne la commande d'un robot manipulateur en boucle fermée par l’intermédiaire d'un capteur visuel en vue d'un assemblage dynamique de pièces en mouvement. Après avoir situé le capteur visuel dans un contexte robotique, un système de poursuite de temps réel de mire est présenté ainsi que des méthodes de réglage d'un tel système Dans une seconde étape, nous nous sommes intéressés au problème de communication entre le système de vision et le robot. Nous avons alors étudié l'influence de l'asynchronisme et du retard existant entre ces deux systèmes Dans ce cadre, nous avons modélisé et identifie le système robot-vision, puis proposé une correction numérique non linéaire garantissant au système boucle un bon compromis rapidité précision. Enfin, la mise en œuvre d'un assemblage dynamique de pièces par robot et capteur visuel embarqué est présentée et analysée.
APA, Harvard, Vancouver, ISO, and other styles
18

Lallement, Alex. "Localisation d'un robot mobile par coopération entre vision monoculaire et télémétrie laser." Vandoeuvre-les-Nancy, INPL, 1999. http://www.theses.fr/1999INPL064N.

Full text
Abstract:
Les travaux présentés dans ce mémoire portent sur l'étude et la mise au point d'une méthode de localisation absolue pour robot mobile autonome évoluant dans un environnement de type intérieur dynamique. Cette méthode est basée sur l'exploitation de la complémentarité des informations délivrées par un système de perception mixte formé d'un télémètre laser 2D et d'un capteur de vision monoculaire. Notre contribution se situe essentiellement sur le plan méthodologique avec notamment : la mise au point d'une stratégie de perception active, la préposition d'une technique robuste de segmentation, la recherche de techniques décisionnelles utilisant une approche de type fusion de primitives, l'étude d'une technique d'identification d'amers environnementaux (de type arête verticale) et enfin la mise au point d'une procédure de localisation. La phase d'identification des amers, nécessaire à la localisation du robot, nécessite le recours à une procédure d'appariements entre arêtes segmentées et amers de référence. Une transformation invariante en translation et en rotation, appliquée sur l'ensemble des primitives, conduit à une simplification notable de cette procédure. L'identification consiste alors à réaliser une mise en correspondance entre triplets d'amers et triplets d'arêtes sur la base de 12 descripteurs invariants, puis entre amers et arêtes observées à partir des hypothèses formées. La localisation absolue du mobile est obtenue en définissant l'ensemble des positions compatibles avec les amers observés et délimitée par un polygone d'incertitude.
APA, Harvard, Vancouver, ISO, and other styles
19

Khadraoui, Djamel. "La commande référencée vision pour le guidage automatique de véhicules." Clermont-Ferrand 2, 1996. http://www.theses.fr/1996CLF20860.

Full text
Abstract:
Le travail presente dans cette these entre dans le cadre de la commande referencee vision robuste, associant etudes theoriques et validations experimentales. Il aborde le probleme du controle lateral d'un vehicule autonome dans l'espace image. La demarche proposee est basee sur l'utilisation d'informations visuelles pour une commande en boucle fermee. Elle est consacree a une approche de l'asservissement visuel basee sur la robustesse des lois de commande en vue de la conduite automatique d'une voiture et d'un engin agricole. Nous pouvons traduire l'un des objectifs du controle lateral d'un vehicule comme etant une minimisation d'une erreur entre la distance separant la trajectoire actuelle du vehicule et la trajectoire desiree. Pour une telle tache, un modele bicyclette cinematique ou dynamique linearise a deux degres de liberte est suffisant. La scene visualisee est representee dans l'espace image par des primitives geometriques de type droite. Dans le contexte autoroutier, le modele de route retenue est assimile a un modele rigide a trois droites se coupant en un point de fuite. Ces differentes modelisations nous servent pour la synthese des lois de commande ainsi que pour la simulation du comportement cinematique ou dynamique du vehicule. La premiere solution retenue pour resoudre le probleme de commande consiste a construire un modele d'etat sous forme d'equations differentielles matricielles du premier ordre. Les variables d'etat constituent essentiellement les parametres relatifs aux informations visuelles de la scene. Grace a ce modele, construit dans le plan image de la camera, nous pouvons elaborer une loi de commande du type retour d'etat. Une technique basee sur le placement de poles, est utilisee dans notre cas. Neanmoins, cette premiere methode n'est pas robuste vis-a-vis des incertitudes liees aux parametres du modele d'etat. Ces incertitudes se traduisent par un mouvement de la camera (tangage par exemple). Par consequent, nous faisons intervenir un autre critere, faisant l'objet de la seconde solution, pour le controle lateral qui doit permettre un meilleur fonctionnement dans toute la plage de variation des parametres incertains. La seconde solution que nous avons adoptee est une approche plus generale, qui consiste a utiliser une technique robuste afin de tenir compte des eventuelles variations des parametres relatifs au modele de commande du vehicule. Une technique robuste est une technique attractive pour plusieurs raisons. Un controleur unique est utilise afin d'eliminer toute necessite d'utilisation d'algorithmes adaptatifs pour regler en permanence les gains. Il garantit aussi une stabilite dans la plage de variation des parametres. La technique retenue dans notre cas est basee sur l'optimisation d'une norme h du modele prealablement etabli dans le domaine frequentiel. Le modele d'incertitude choisi est de type non structure additif
APA, Harvard, Vancouver, ISO, and other styles
20

Ayala, Ramirez Victor. "Fonctionnalités visuelles sur des scènes dynamiques pour la robotique mobile." Toulouse 3, 2000. http://www.theses.fr/2000TOU30184.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Aviña, Cervantes Juan Gabriel Devy Michel. "Navigation visuelle d'un robot mobile dans un environnement d'extérieur semi-structuré." Toulouse : INP Toulouse, 2005. http://ethesis.inp-toulouse.fr/archive/00000163.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Solà, Ortega Joan Devy Michel Monin André. "Towards visual localization, mapping and moving objects tracking by a mobile robot a geometric and probabilistic approach /." Toulouse : INP Toulouse, 2007. http://ethesis.inp-toulouse.fr/archive/00000528.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Bienfait, Eric. "Pratic : Programmation de Robot Assistée par Traitement d'Image et Caméra." Lille 1, 1987. http://www.theses.fr/1987LIL10086.

Full text
Abstract:
Travail visant à la conception et à la réalisation d'un langage de programmation des robots industriels utilisant un système graphique et mettant en oeuvre la vision artificielle comme outil d'aide à la communication homme-machine
APA, Harvard, Vancouver, ISO, and other styles
24

Trabelsi, Mohamed El Hadi. "Combinaison d'informations visuelles et ultrasonores pour la localisation d'un robot mobile et la saisie d'objets." Evry-Val d'Essonne, 2006. http://www.biblio.univ-evry.fr/theses/2006/Interne/2006EVRY0036.pdf.

Full text
Abstract:
Mon travail de recherche entre dans le cadre du projet « Assistance Robotisée aux Personnes Handicapées (ARPH). L’objectif de ce projet est d’apporter une assistance aux personnes handicapées moteur dans les différentes tâches de la vie quotidienne, à l’aide d’un robot mobile et un bras manipulateur. La première partie de ma thèse est consacrée au développement d’un système de localisation d'intérieur pour le robot mobile. Nous utilisons un appariement 2D/3D entre le modèle filaire de l’environnement enrichi par l'information ultrasonore et les attributs de l’image. La transformation qui permet de passer des coordonnées des segments 3D du modèle aux coordonnées de la caméra se base sur le principe de Lowe linéaire. Le choix de la meilleure pose est obtenu par une fonction de coût basée sur les distances entre les groupes de segments dans l'espace. La deuxième partie de ma thèse a été consacrée au développement d'une stratégie de saisie pour des objets de forme simple (cylindre ou sphère). Une caméra et un capteur ultrasonore équipent la pince du bras manipulateur Manus. La combinaison des informations reçues de ces deux capteurs permet de reconnaître l’objet à saisir en utilisant un réseau neuronal. Cette objet est centré dans le champ visuel de la caméra par traitement d’images et à l’aide de toutes de ces informations, la pince approche l’objet jusqu’à la saisie. Globalement, cette méthode est basée sur plusieurs éléments qui participent à l’élaboration de cette stratégie de type asservissement visuel
My research bellows at the ARPH project. The aim of this project is to bring an assistance to disabled people in the various tasks of life, using a mobile robot and an arm manipulator. The first part of my thesis is devoted to the development of a localization system for the mobile robot. We use a 2D/3D matching between the 3D environment model enriched with ultrasonic information and 2D image segments. Function which transforms the 3D coordinates of the model segments to the camera coordinates is based on the Lowe linear principle. The choice of the best position is obtained by measuring distances between the two groups of segments in space. The second part of my thesis was devoted to the development of a seizure strategy for simple objects (cylinder or sphere). A camera and a sonar followed by a neural networks are installed at the robot gripper. The combination of information received from these two sensors allows the grabbing of the object. This object is centered in the visual field of the camera by image processing. The gripper approaches the object until the seizure. This method is based on several elements which take part in the development of a visual servoing strategy
APA, Harvard, Vancouver, ISO, and other styles
25

Netter, Thomas. "De la vision naturelle à la vision artificielle : application du contrôle visuo-moteur de la mouche au pilotage d'un robot réactif volant." Nice, 2000. http://www.theses.fr/2000NICE5484.

Full text
Abstract:
Les insectes volants dépendent de leur œil panoramique et du flux optique pour le guidage et l'évitement d'obstacles. La fusion des sens visuels, inertiels et aérodynamiques, est remarquable chez la mouche. L'étude comportementale et neurophysiologique de la mouche a inspiré la recherche en intelligence artificielle et la construction de robots autonomes. Les recherches sur le système visuo-moteur de la mouche de l'Équipe de neurocybernétique du Laboratoire de neurobiologie du CRNS à Marseille, ont mené au développement de deux robots mobiles possédant un système visuel en électronique analogique basé sur des Détecteurs Elementaires de Mouvement (DEM) s'inspirant de ceux de la mouche (. . . )
Previous research on the visuo-motor system of the fly within the Neurocybernetics Group of the Laboratory of Neurobiolgy, CNRS, Marseilles, France, has led to the development of two mobile robots which feature an analogue electronic vision system based on Elementary Motion Detectors (EMD) derived from thoseof the fly. A tethered Unmanned Air Vehicle (UAV), called Fania, was developed to study Nap-ofthe-Eart (NOE)flight (terrain following) and obstacle avoidance using a motion sensing visual system. After an aerodynamic study, Fania was custom-built as a miniature (35 cm, 0. 840kg), electrically-powered, thrust-vectoring rotorcraft. It is constrained by a whirling-arm to 3 degrees of freedom with pitch and thrust control. The robotic aircraft's 20-photoreceptor onboard eye senses moving contrasts with 19 ground-based neuromorphic EMDs
APA, Harvard, Vancouver, ISO, and other styles
26

Nottale, Matthieu. "Ancrage d'un lexique partagé entre robots autonomes dans un environnement non-contraint." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://pastel.archives-ouvertes.fr/pastel-00004260.

Full text
Abstract:
Les Talking Heads sont une expérience de robotique développementale menée par Luc Steels et Frédéric Kaplan en 1995. Dans cette expérience, des agents apprennent un lexique de mots associés à des propriétés visuelles d'objets extraits de leurs perceptions. Cet apprentissage est réalisé par le biais de jeux de langage dans lesquels les agents s'échangent des symboles. L'interaction entre les agents est conçue de manière à ancrer ces symboles dans leur perception. Cette expérience apporte un début de réponse au problème de la sémantique des systèmes symboliques illustré par l'expérience de pensée de la chambre chinoise. Les Talking Heads sont capables de faire converger un lexique de mots partagés au seins d'une population de plusieurs milliers d'agents de manière non supervisée, réalisant ainsi un début de solution au problème de l'émergence du langage. Cette expérience a déjà été étendue dans plusieurs directions, par exemple en rajoutant une grammaire au lexique des agents et en étendant les perceptions des agents à des scènes montrant des objets en mouvement. Mais les restrictions que les expériences actuelles dérivant des Talking Heads posent sur l'environnement limitent certaines pistes de développement intéressantes. Cette thèse a pour objectif de reproduire les Talking Heads en utilisant des robots autonomes et en se plaçant dans un environnement visuel non contraint: le laboratoire. L'intérêt de cette démarche est de confirmer dans un premier temps que le modèle des Talking Heads reste valide face à une perception plus complexe, pour pouvoir par la suite tester des modèles cognitifs plus complexes, donnant plus d'autonomie aux robots et qui n'auraient de sens que dans cet environnement suffisamment riche. Nous nous intéressons dans un premier temps aux nouveaux problèmes introduits par la mobilité des robots : détection d'un autre robot, positionnement à ses côtés et pointage d'un élément de l'environnement. Puis nous proposons un premier modèle de perception très proche des Talking Heads, utilisant des algorithmes de segmentation d'images. Ce modèle ne permet pas d'aboutir à la convergence des lexiques des agents dans ce cadre. Nous analysons les raisons de son échec, et proposons un second modèle basé sur les récentes avancées dans le domaine de la reconnaissance d'objets, utilisant des algorithmes de détection de points caractéristiques. Ce modèle est tout d'abord testé sur une base de donnée d'images, pour vérifier sa capacité à catégoriser de manière supervisée, puis appliqué aux jeux de langage des Talking Heads. Les résultats montrent que les agents sont capables d'échanger des symboles représentant des zones de leur environnement, même si le taux de succès des jeux de langage reste encore faible.
APA, Harvard, Vancouver, ISO, and other styles
27

Martinez, Margarit Aleix. "Apprentissage visuel dans un système de vision active : application dans un contexte de robotique et reconnaissance du visage." Paris 8, 1998. http://www.theses.fr/1998PA081521.

Full text
Abstract:
Dans cette these, nous presentons de nouvelles idees pour le developpement des plates-formes actives qui aident un agent autonome (artificiel) a reconnaitre des objets et a se reperer dans un environnement spatial. Pour resoudre ce probleme, nous avons etudie des representations distinctes basees sur l'aspect exterieur. Plus concretement, nous avons etudie l'utilisation de divers filtres gaussiens et particulierement les filtres orientables. Nous montrons comment ces filtres s'adaptent bien aux situations reelles et peuvent etre utilises de maniere efficace sur des plates-formes de vision active. Nous presentons des idees de base avec la description de sujets et l'etude de representation de donnees visuelles. Pour ceci, nous analyserons les differents filtres (gaussiens, premiere et deuxieme derivee de la gaussienne), ainsi qu'une nouvelle idee de representation iconique basee sur des filtres orientes. Posterieurement, nous decrivons une nouvelle idee pour l'utilisation de cette representation iconique dans des applications reelles, basee sur le balayage du systeme visuel humain. Des ordres assez simples, permettent d'obtenir de tres bons resultats en reconnaissance de visages et d'environnements spatiaux. Le systeme se divise en trois parties : 1) attention visuelle. 2) extraction de l'information et reduction de la dimensionnalite. 3) strategie de balayage visuel. L'objectif final est d'ameliorer quelques uns des problemes evoques dans les chapitres precedents. Pour obtenir de meilleurs resultats, nous avons formalise l'algorithme em (esperance - maximisation) avec des algorithmes genetiques. Nous avons implemente un nouvel algorithme de navigation active pour la navigation d'un robot dans un environnement inconnu. Ce systeme de navigation utilise des annotations de haut niveau pour la communication avec l'usager et les autres modules du systeme. Le dernier chapitre decrit les conclusions et les lignes de poursuite de la these.
APA, Harvard, Vancouver, ISO, and other styles
28

Zhang, Zhongkai. "Vision-based calibration, position control and force sensing for soft robots." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I001/document.

Full text
Abstract:
La modélisation de robots souples est extrêmement difficile, à cause notamment du nombre théoriquement infini des degrés de liberté. Cette difficulté est accentuée lorsque les robots ont des configurations complexes. Ce problème de modélisation entraîne de nouveaux défis pour la calibration et la conception des commandes des robots, mais également de nouvelles opportunités avec de nouvelles stratégies de détection de force possibles. Cette thèse a pour objectif de proposer des solutions nouvelles et générales utilisant la modélisation et la vision. La thèse présente dans un premier temps un modèle cinématique à temps discret pour les robots souples reposant sur la méthode des éléments finis (FEM) en temps réel. Ensuite, une méthode de calibration basée sur la vision du système de capteur-robot et des actionneurs est étudiée. Deux contrôleurs de position en boucle fermée sont conçus. En outre, pour traiter le problème de la perte d'image, une stratégie de commande commutable est proposée en combinant à la fois le contrôleur à boucle ouverte et le contrôleur à boucle fermée. Deux méthodes (avec et sans marqueur(s)) de détection de force externe pour les robots déformables sont proposées. L'approche est basée sur la fusion de mesures basées sur la vision et le modèle par FEM. En utilisant les deux méthodes, il est possible d'estimer non seulement les intensités, mais également l'emplacement des forces externes. Enfin, nous proposons une application concrète : un robot cathéter dont la flexion à l'extrémité est piloté par des câbles. Le robot est contrôlé par une stratégie de contrôle découplée qui permet de contrôler l’insertion et la flexion indépendamment, tout en se basant sur un modèle FEM
The modeling of soft robots which have, theoretically, infinite degrees of freedom, are extremely difficult especially when the robots have complex configurations. This difficulty of modeling leads to new challenges for the calibration and the control design of the robots, but also new opportunities with possible new force sensing strategies. This dissertation aims to provide new and general solutions using modeling and vision. The thesis at first presents a discrete-time kinematic model for soft robots based on the real-time Finite Element (FE) method. Then, a vision-based simultaneous calibration of sensor-robot system and actuators is investigated. Two closed-loop position controllers are designed. Besides, to deal with the problem of image feature loss, a switched control strategy is proposed by combining both the open-loop controller and the closed-loop controller. Using soft robot itself as a force sensor is available due to the deformable feature of soft structures. Two methods (marker-based and marker-free) of external force sensing for soft robots are proposed based on the fusion of vision-based measurements and FE model. Using both methods, not only the intensities but also the locations of the external forces can be estimated.As a specific application, a cable-driven continuum catheter robot through contacts is modeled based on FE method. Then, the robot is controlled by a decoupled control strategy which allows to control insertion and bending independently. Both the control inputs and the contact forces along the entire catheter can be computed by solving a quadratic programming (QP) problem with a linear complementarity constraint (QPCC)
APA, Harvard, Vancouver, ISO, and other styles
29

Tessier, Cédric. "Système de localisation basé sur une stratégie de perception cognitive appliqué à la navigation autonome d'un robot mobile." Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21784.

Full text
Abstract:
Cette thèse concerne le guidage automatique de véhicule agricole en milieu ouvert. Les systèmes de navigation autonome présentés dans la littérature sont issus de la mise en commun d'un algorithme et d'un algorithme de commande. Malheureusement, la juxtaposition de ces deux modules ne permet pas de garantir la stabilité ni la justesse du guidage. Aussi, ce mémoire présente la réalisation d'un système de localisation dédié à la navigation autonome de robots. Les algorithmes développés reposent sur une approche radicalement différente des méthodes de localisation classiques. Le système intègre une statégie de perception cognitive qui pilote et sollicite les capteurs pour rechercher les informations dont il a besoin, quand il en a besoin. Les résultats, issus d'expérimentations réelles de suivi automatique de trajectoires ont montré la pertinence de notre approche pour le guidage en temps réel d'un véhicule tout-terrain évoluant à environ 12km/h
APA, Harvard, Vancouver, ISO, and other styles
30

Ayache, Nicholas. "Construction et fusion de représentations visuelles (3D) : applications à la robotique mobile." Paris 11, 1988. http://www.theses.fr/1988PA112132.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la recherche en vision artificielle, destinée à doter les robots de troisième génération de véritables capacités de perception et de raisonnement sur leur environnenent. Le mémoire comporte deux parties qui s'enchaînent logiquement. Dans la première partie, nous étudions la stéréovision passive, dont le but est de produire une représentation tridimensionnelle de l'environnement à partir de son observation simultanée par plusieurs caméras. Nous proposons une méthodologie générique de mise en correspondance d'images stéréoscopiques applicable à des systèmes bi- ou trinoculaires pour des applications robotiques où rapidité et fiabilité sont des critères essentiels. Dans la seconde partie du mémoire, nous étudions la combinaison du mouvement du robot avec la perception visuelle stéréo précédemment étudiée. Nous proposons un formalisme général de fusion d'informations perceptuelles disparates obtenues à des instants et en des lieux différents avec des incertitudes variables. Ce formalisme est utile pour construire des représentations globales à partir de descriptions locales, pour reconnaître des objets et des lieux, pour calculer le mouvement du robot et des objets. Il permet de prendre en compte l'incertitude dans des stratégies de reconnaissance, de déplacement et d'utilisation des capteurs, et de tirer profit de toute information supplémentaire pour la réduire. Dans chaque partie nous présentons et analysons des résultats expérimentaux, et nous discutons les perspectives d'évolution de la recherche.
APA, Harvard, Vancouver, ISO, and other styles
31

Courbon, Jonathan. "Navigation de Robots Mobiles par Mémoire Sensorielle." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00664837.

Full text
Abstract:
Ce travail de thèse présente un système complet de navigation pour un robot mobile fondé sur une représentation de l'environnement par une mémoire sensorielle. L'objectif de ces travaux est de faire se déplacer un robot d'un lieu à un autre le long de chemins parcourus lors d'une phase d'apprentissage. La structuration de la mémoire sensorielle, constituée de données clés acquises lors de cette phase initiale, est tout d'abord décrite. Nous proposons ensuite des lois de commande permettant le suivi d'une route sensorielle, c'est-à-dire une séquence d'images clés à atteindre successivement et permettant d'aller de l'image correspondant à la localisation initiale du robot à une image cible. Ces lois de commande, basées sur le formalisme de la commande référencée capteurs, prennent en compte les contraintes de déplacement des véhicules considérés: robots à roues non-holonomes et robots aériens de type quadrirotor. Dans le cadre de capteurs visuels omnidirectionels ou grand-angle, nous présentons une approche efficace pour la localisation initiale du robot ainsi que les outils permettant l'estimation de l'état du véhicule nécessaire pour alimenter les lois de commande proposées. Le système complet de navigation a été mis en oeuvre avec une attention particulière portée sur la conception du système de gestion de la mémoire sensorielle. Des applications sur plusieurs types de véhicules et avec des caméras grand-angle ont permis de valider notre approche.
APA, Harvard, Vancouver, ISO, and other styles
32

Hamdi, Hocine. "Étude d'une station de synthèse de programmes robots prenant en compte un système de vision." Compiègne, 1986. http://www.theses.fr/1986COMPI248.

Full text
Abstract:
Il s'agit d'étudier les mécanismes nécessaires à l'implantation d'une station de programmation de robots hors-ligne et en ligne, permettant le couplage avec un système de vision. Six modules sont décrits pour la spécification d'une tâche en langage de niveau objet, la simulation du code engendré, son exécution effective sur le site. La modélisation d'un objet est basée sur la définition d'un ensemble de repères et de transformations (localisation, position de prise), et de ses relations avec d'autres objets. Les liens entre objets ne sont pas déclarés, mais créés et mis à jour par le système, de même que la modification automatique des emplacements. L'originalité principale réside dans la méthode de programmation choisie, qui permet d'effectuer les phases de création de programme de haut niveau, de génération de code bas niveau, et de simulation d'exécution au moment même de la saisie des lignes de programme. En plus de sa souplesse d'utilisation, sa modularité donne au système une extensibilité lui permettant de prendre en compte différents robots et leurs langages de commande, et d'utiliser le même langage de haut niveau pour commander ces robots. Dans l'état actuel de réalisation seul le modèle géométrique du Puma 560 et son langage (VAL) ont été intégrés
We study the mechanisms for implementing an on-line and off-line robot programming station, to be coupled with a vision system. We describe six modules for a task specification in an object level language, for simulating the execution of the resulting code, and its effective execution in the field. Object modelling is based on the definition of a set of frames (locating, grasping) and the relations with other objects. Binds between objects are not explicitly declared. They are created and updated by the system, like the locations automatic updating. The main originality stems from the programming methodology, which allows high level programming, low level code generation, and simulating the execution during the program edition, statement by statement. Adding to its easy use, the modularity of the system leads to a great extensibility. Its enables dealing with different robots having their own command languages, using always the same language (stations language). For the moment, only the Puma 560 geometric model and its language (VAL) have been integrated
APA, Harvard, Vancouver, ISO, and other styles
33

Remazeilles, Anthony. "Navigation à partir d'une mémoire d'images." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00524505.

Full text
Abstract:
Ce manuscrit traite de la navigation autonome de systèmes robotiques dotés d'une caméra embarquée. Pour qu'un robot mobile puisse se déplacer automatiquement, il doit être doté de fonctionnalités lui permettant de se localiser dans son environnement, de se définir un chemin à suivre, et de contrôler ses mouvements jusqu'à sa position désirée. Dans notre approche, l'environnement de navigation est décrit par une base d'images acquise lors d'une phase d'apprentissage. L'utilisation de techniques de recherche d'images permet d'effectuer une localisation qualitative du système robotique. La définition du chemin à suivre est réalisée sans imposer une reconstruction 3D complète de la scène. Pour ce faire, la base d'images est organisée sous la forme d'un graphe valué dans lequel est prise en compte la facilité de mouvement entre les différentes vues de la base. Une représentation hiérarchique de ce graphe permet de simplifier la recherche de chemin. Le chemin de plus faible coût obtenu correspond à un ensemble de prises de vue permettant de relier visuellement les images acquises depuis les positions initiale et désirée du robot. Les mouvements du robot sont calculés en ligne, pour chaque image acquise par la caméra. Le chemin d'images correspond à une délimitation de la zone de l'environnement que doit observer la caméra durant les mouvements du robot. Les différentes vues de ce chemin ne sont pas considérées comme des positions cibles intermédiaires à atteindre. Nous avons proposé une loi de commande basée sur les principes d'asservissement visuel et de fonction de potentiel, afin de contraindre le système robotique à se mouvoir dans une zone où la visibilité d'amers visuels est considérée comme satisfaisante. Les amers utilisés sont initialement détectés sur le chemin d'images, et dynamiquement mis à jour durant la navigation par une technique de transfert d'images. Les résultats expérimentaux réalisés d'une part avec un robot cartésien, et d'autre part en simulation montrent le bien-fondé de notre approche de navigation.
APA, Harvard, Vancouver, ISO, and other styles
34

Paccot, Flavien. "Contribution à la commande dynamique référencée capteurs de robots parallèles." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725568.

Full text
Abstract:
Ces travaux de recherche concernent la prédiction et l'amélioration de la précision des machines à structure parallèle. Ces travaux s'intéressent principalement aux machines utilisées pour des tâches complexes comme la manipulation rapide d'objets ou l'usinage à grande vitesse. Ces travaux s'intéressent à la cohérence du triptyque modélisation - identification - commande. L'originalité de ces travaux est la prise en compte au niveau de la commande, et au moyen d'une perception adaptée, des spécificités de la machine et de la dynamique de la tâche. L'apport principal de ces travaux de thèse est de proposer une commande dynamique dans l'espace Cartésien tout en utilisant une mesure extéroceptive de la pose de l'effecteur. Cette stratégie de commande permet notamment une précision plus importante que les stratégies classiques. En effet, le nombre d'estimations utilisées est plus faible, principalement au niveau de l'estimation du comportement dynamique. De plus, la régulation dans l'espace Cartésien permet la maîtrise complète du mouvement de l'effecteur, notamment au niveau des singularités de la machine. Ces améliorations sont validées en simulation. Le développement d'un capteur visuel rapide à 1 kHz a également permis une validation expérimentale de ces travaux.
APA, Harvard, Vancouver, ISO, and other styles
35

Aviña, Cervantes Juan Gabriel. "Navigation visuelle d'un robot mobile dans un environnement d'extérieur semi-structuré." Toulouse, INPT, 2005. http://ethesis.inp-toulouse.fr/archive/00000163/.

Full text
Abstract:
Cette thèse porte sur le traitement automatique d'images couleur, et son application à la robotique dans des environnements semi-structurés d'extérieur. Nous proposons une méthode de navigation visuelle pour des robots mobiles en utilisant une caméra couleur. Les domaines d'application de ce travail se situent dans l'automatisation de machines agricoles, en vue de la navigation automatique dans un réseau de chemins (pour aller d'une ferme à un champ par exemple ) [. . . ]
This thesis deals with the automatic processing of color images, and its application to robotics in outdoor semi-structured environments. We propose a visual-based navigation method for mobile robots by using an onboard color camera. The objective is the robotization of agricultural machines, in order to navigate automatically on a network of roads (to go from a farm to a given field) [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
36

Baron, Thierry. "De la perception à la modélisation par la vision achrome et trichrome en robotique." Toulouse 3, 1991. http://www.theses.fr/1991TOU30216.

Full text
Abstract:
Pour doter les robots d'une autonomie de decision et de mouvement a partir de la vision par ordinateur, il est necessaire de connaitre les phenomenes intervenant dans la formation de l'image numerique, et d'obtenir une information tridimensionnelle a partir de primitives qui sont extraites de l'image. Notre demarche a ete guidee par ces deux axes de recherche dans le contexte des scenes d'interieur. La premiere partie des travaux est relative au formalisme et aux modeles physiques et geometriques associes a la formation de l'image. Nous y presentons un attribut de region qui peut etre defini pour des surfaces speculaires planes, ainsi qu'une etude experimentale des capteurs. La seconde partie concerne l'extraction, la structuration et l'utilisation conjointe des primitives regions et segments obtenues a partir d'images numeriques en les regroupant semantiquement au sein de groupements perceptuels pertinents. Les avantages de cette structuration d'image sont illustres par deux applications concernant la modelisation tridimensionelle. Pour la stereovisio passive, nous avons utilise l'association regions-segments pour la mise en correspondance, et une connaissance a priori relative au contexte de scenes d'interieur (planeite des regions extraites) pour la reconstruction 3d. La cooperation telemetre laser-camera exploite egalement la potentialite de la structuration monoculaire pour ameliorer la reconstruction tridimensionnelle des donnees du telemetre et pour identifier la semantique des segments image
APA, Harvard, Vancouver, ISO, and other styles
37

Fernandez, labrador Clara. "Indoor Scene Understanding using Non-Conventional Cameras." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCK037.

Full text
Abstract:
Les humains sont en mesure d’interpréter l’environnement qui les entourent avec peu d’effort grâce à système visuel très performant. Par analogie, un système de vision capable de recueillir les mêmes informations sur l’environnement est hautement souhaitable en robotique autonome pour effectuer des tâches complexes et ainsi interagir avec les humains.À cet égard, nous nous sommes particulièrement intéressés aux environnements intérieurs, dans lesquels les humains passent presque toute leur vie. Dans ce travail, pour faire une analyse efficace et rapide des scènes, nous avons opté pour l’utilisation de caméras non conventionnelles : l’imagerie 360° et les capteurs 3D. Ces systèmes ont la particularité d’acquérir en une seule prise de vue soit la totalité de l’environnement qui entoure le robot (caméras 360°) soit l’information 3D.C’est ainsi que cette thèse aborde les problèmes de description hiérarchique d’une scène d’intérieur avec des capteurs non conventionnels allant de l’estimation de la disposition des pièces ; de la détection et la localisation des objets à la modélisation de la forme des objets 3D.Ces différents points font l’objet de contribution dans ce travail. Dans un premier temps, nous nous sommes intéressés à l'estimation de la disposition 3D de la pièce à partir d'une seule image à 360°. Pour ce faire, nous exploitons l'hypothèse de Manhattan World et les techniques d'apprentissage profond pour proposer des modèles qui gèrent les parties occultées de la pièce sur l'image. A vu de la particularité des images considérées, nous avons développé de nouveaux filtres de convolution d’image tenant compte des fortes distorsions des images équirectangulaires.Par la suite, et dans l’objectif de permettre au robot de faire une analyse contextuelle de hauts niveaux de la scène qui l’entoure, nous nous sommes intéressés au problème de la localisation et de la segmentation des objets. C’est ainsi que nous avons une nouvelle fois exploité les images 360° en tenant compte de la disposition des objets 2D dans l’image dans le but de les décrire par leur modèle 3D en adéquation avec la disposition de la pièce préalablement estimée.La dernière contribution de ce travail tire parti des capteurs 3D pour étudier la forme des objets. Dans ce cadre, nous utilisons une modélisation explicite de la non-rigidité de objets et caractérisons leurs symétries afin de détecter, par un apprentissage profond non supervisé, ces points d’intérêt 3D.Toutes ces contributions nous ont permis de faire progresser l’état de l’art sur les problèmes posés et ont toutes fait l’objet d’évaluation sur des bases de données de référence dans notre communauté
Humans understand environments effortlessly, under a wide variety of conditions, by the virtue of visual perception. Computer vision for similar visual understanding is highly desirable, so that machines can perform complex tasks by interacting with the real world, to assist or entertain humans. In this regard, we are particularly interested in indoor environments, where humans spend nearly all their lifetime.This thesis specifically addresses the problems that arise during the quest of the hierarchical visual understanding of indoor scenes.On the side of sensing the wide 3D world, we propose to use non-conventional cameras, namely 360º imaging and 3D sensors. On the side of understanding, we aim at three key aspects: room layout estimation; object detection, localization and segmentation; and object category shape modeling, for which novel and efficient solutions are provided.The focus of this thesis is on the following underlying challenges. First, the estimation of the 3D room layout from a single 360º image is investigated, which is used for the highest level of scene modelling and understanding. We exploit the assumption of Manhattan World and deep learning techniques to propose models that handle invisible parts of the room on the image, generalizing to more complex layouts. At the same time, new methods to work with 360º images are proposed, highlighting a special convolution that compensates the equirectangular image distortions.Second, considering the importance of context for scene understanding, we study the problem of object localization and segmentation, adapting the problem to leverage 360º images. We also exploit layout-objects interaction to lift detected 2D objects into the 3D room model.The final line of work of this thesis focuses on 3D object shape analysis. We use an explicit modelling of non-rigidity and a high-level notion of object symmetry to learn, in an unsupervised manner, 3D keypoints that are order-wise correspondent as well as geometrically and semantically consistent across objects in a category.Our models advance state-of-the-art on the aforementioned tasks, when each evaluated on respective reference benchmarks
APA, Harvard, Vancouver, ISO, and other styles
38

Corrieu, Jean-Michel. "Élaboration d'un outil industriel de vision par ordinateur : application à l'inspection et à la robotique dans l'industrie informatique." Montpellier 2, 1986. http://www.theses.fr/1986MON20219.

Full text
Abstract:
Application du domaine de la visionique au milieu industriel. La partie materielle de l'outil de vision permet soit un pretraitement par seuillage, soit par extraction de contours, et sa partie logicielle peut s'adapter a un probleme de vision donne, dans l'environnement langage c. Concretisation avec les domaines de l'inspection et de la robotique
APA, Harvard, Vancouver, ISO, and other styles
39

Almanza, Ojeda Dora Luz. "Détection et suivi d'objets mobiles perçus depuis un capteur visuel embarqué." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/2339/.

Full text
Abstract:
Cette thèse traite de la détection et du suivi d'objets mobiles dans un environnement dynamique, en utilisant une caméra embarquée sur un robot mobile. Ce sujet représente encore un défi important car on exploite uniquement la vision mono-caméra pour le résoudre. Nous devons détecter les objets mobiles dans la scène par une analyse de leurs déplacements apparents dans les images, en excluant le mouvement propre de la caméra. Dans une première étape, nous proposons une analyse spatio-temporelle de la séquence d'images, sur la base du flot optique épars. La méthode de clustering a contrario permet le groupement des points dynamiques, sans information a priori sur le nombre de groupes à former et sans réglage de paramètres. La réussite de cette méthode réside dans une accumulation suffisante des données pour bien caractériser la position et la vitesse des points. Nous appelons temps de pistage, le temps nécessaire pour acquérir les images analysées pour bien caractériser les points. Nous avons développé une carte probabiliste afin de trouver les zones dans l'image qui ont les probabilités la plus grandes de contenir un objet mobile. Cette carte permet la sélection active de nouveaux points près des régions détectées précédemment en permettant d'élargir la taille de ces régions. Dans la deuxième étape nous mettons en oeuvre une approche itérative pour exécuter détection, clustering et suivi sur des séquences d'images acquises depuis une caméra fixe en intérieur et en extérieur. Un objet est représenté par un contour actif qui est mis à jour de sorte que le modèle initial reste à l'intérieur du contour. Finalement nous présentons des résultats expérimentaux sur des images acquises depuis une caméra embarquée sur un robot mobile se déplaçant dans un environnement extérieur avec des objets mobiles rigides et non rigides. Nous montrons que la méthode est utilisable pour détecter des obstacles pendant la navigation dans un environnement inconnu a priori, d'abord pour des faibles vitesses, puis pour des vitesses plus réalistes après compensation du mouvement propre du robot dans les images
This dissertation concerns the detection and the tracking of mobile objets in a dynamic environment, using a camera embedded on a mobile robot. It is an important challenge because only a single camera is used to solve the problem. We must detect mobile objects in the scene, analyzing their apparent motions on images, excluding the motion caused by the ego-motion of the camera. First it is proposed a spatio-remporal analysis of the image sequence based on the sparse optical flow. The a contrario clustering method provides the grouping of dynamic points, without using a priori information and without parameter tuning. This method success is based on the accretion of sufficient information on positions and velocities of these points. We call tracking time, the time required in order to acquire images analyzed to provide the points characterization. A probabilistic map is built in order to find image areas with the higher probabilities to find a mobile objet; this map allows an active selection of new points close the previously detected mobile regions, making larger these regions. In a second step, it is proposed an iterative approach to perform the detection-clustering-tracking process on image sequences acquired from a fixed camera for indoor or outdoor applications. An object is described by an active contour, updated so that the initial object model remains inside the contour. Finally it is presented experimental results obtained on images acquired from a camera embedded on a mobile robot navigating in outdoor environments with rigid or non rigid mobile objects ; it is shown that the method works to detect obstacles during the navigation in a priori unknown environments, first with a weak speed, then with more a realistic speed, compensating the robot ego-motion in images
APA, Harvard, Vancouver, ISO, and other styles
40

Dallej, Tej. "Contributions à un modèle générique pour l'asservissement visuel des robots parallèles par l'observation des éléments cinématiques." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00925695.

Full text
Abstract:
La contrainte de fermeture des chaînes cinématiques des robots parallèles rend leur modélisation et leur commande complexes. Pourtant, cette architecture leur confère des performances remarquables en terme de charges supportées, de rigidité et de rapidité. Pour bénéficier de ces qualités et simplifier les modèles, nous avons proposé d'utiliser un capteur de vision pour remplacer les modèles géométriques dans la commande et offrir une mesure de l'état au lieu d'une estimation. En premier lieu, nous avons revisité l'asservissement visuel 3D par observation de l'organe terminal dans le cadre specifique des robots parallèles. Dans ce cas, nous avons choisi la pose comme signal µa réguler et montré que la commande ainsi obtenue est une régulation dans l'espace d'etat (qui est egalement l'espace de la tâche). En deuxième lieu, nous nous sommes penché sur le choix d'un signal capteur qui permet une bonne adéquation entre les informations visuelles et les modèles utilisés dans la commande. C'est ainsi que nous avons proposé une architecture dédiée à la commande, unissant plusieurs familles de robots parallèles, qui repose sur l'exhibition dans la chaîne cinématique. Par la suite, nous avons développé une approche innovante basée sur l'observation des éléments référents et les modèles de projection de droite. En utilisant une mesure de la position de ces éléments, cette dernière méthode permet de se passer d'une cible extérieure au robot et d'un calcul de pose additionnel tout en permettant une représentation optimale de la cinématique du robot et en offrant des méthodes d'étalonnage qui utilisent directement le signal capteur. Ces méthodes permettent aussi de se passer des variables articulaires, ce qui peut offrir aux robots parallèles une meilleure autonomie et simplifier leur conception.
APA, Harvard, Vancouver, ISO, and other styles
41

Mei, Christopher. "Couplage vision omnidirectionnelle et télémétrie laser pour la navigation en robotique." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00004652.

Full text
Abstract:
Estimer le mouvement d'un robot et construire en même temps une représentation de l'environnement (problème SLAM: Simultaneous Localisation And Mapping) est souvent considéré comme un problème essentiel pour développer des robots pleinement autonomes qui ne nécessitent pas de connaissances à priori de l'environnement pour réaliser leurs tâches. L'évolution du SLAM est très liée aux capteurs utilisés. Les sonars couplés avec l'odométrie sont souvent présentés comme les premiers capteurs ayant fourni des résultats convaincants. Depuis, les lasers 2D ont souvent remplacés ces capteurs pour des raisons de précision et de rapport signal/bruit. Néanmoins les lasers 2D permettent uniquement d'estimer des mouvements planaires et ne donnent pas des informations perceptuelles suffisantes pour identifier de manière fiable des régions précédemment explorées. Ces observations nous ont amenés à explorer à travers cette thèse comment combiner un capteur omnidirectionnel avec un télémètre laser pour effectuer la localisation et cartographie simultanée dans des environnements complexes et de grandes tailles. Les contributions de cette thèse concernent l'étalonnage des capteurs centraux catadioptriques (avec le développement d'un logiciel open source disponible sur le site internet de l'auteur) et la recherche de la position relative entre un capteur omnidirectionnel et un télémètre laser. Des approches efficaces pour estimer le mouvement 3D du capteur en utilisant des droites et des plans sont détaillées. Enfin deux méthodes sont proposées combinant laser et vision pour effectuer du SLAM planaire mais aussi pour estimer la position 3D du robot ainsi que la structure de l'environnement.
APA, Harvard, Vancouver, ISO, and other styles
42

Colonnier, Fabien. "Oeil composé artificiel doté d'hypercuité : applications robotiques à la stabilisation et à la poursuite." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0076/document.

Full text
Abstract:
Inspirés par les propriétés optiques des yeux composés de la mouche et par l’observation de micromouvements périodiques de sa rétine, différents capteurs visuels ont montré qu’il était possible de localiser un contraste très précisément. Ce fut les premières démonstrations d’hyperacuité visuelle de l’œil de la mouche.Dans cette thèse, un œil composé artificiel, doté d'un large champ de vision, est utilisé. Grâce à un nouvel algorithme de fusion des données visuelles, cet œil peut mesurer le déplacement d’un robot et lui permettre de se stabiliser au-dessus d’un environnement texturé. Localiser un contraste de manière linéaire sur l'ensemble du champ visuel demeure toutefois difficile. Un deuxième algorithme permet d’améliorer la localisation d’une barre grâce à un étalonnage, mais montre une certaine dépendance aux variations de contraste et de luminosité ambiante.Afin d'éviter ce processus d’étalonnage, un troisième algorithme qui s’appuie sur les travaux d'Heiligenberg et Baldi, a été proposé pour localiser deux contrastes. Ces auteurs ont montré que la somme pondérée de plusieurs capteurs ayant un champ récepteur gaussien pouvait fournir une estimation linéaire de la position d'un stimulus. Nous avons, pour la première fois, appliqué une variante de ce principe à un œil composé artificiel. Cet œil, une fois monté sur un robot permet de suivre une cible à une distance constante.Finalement, un œil composé artificiel dont la résolution intrinsèque est faible, peut être doté d’une hyperacuité visuelle et permettre de suivre une cible avec précision. Ces travaux ont ainsi conduit à proposer des stratégies bio-inspirées pour la localisation et la poursuite de cible
Inspired by the optical properties of the fly compound eyes and the observation of its retinal periodic micro-movements, several visual sensors established that the localization of a contrast can be made very precisely. It was the first demonstration of the visual hyperacuity of the fly compound eye.In this thesis, an artificial compound eye with a wide field of view was used. Thanks to a novel algorithm fusing the visual signals, the sensor embedded onboard an aerial robot measures its displacement and enables the robot to hover above a textured environment.The localization of a contrast precisely over the whole field of view is still difficult. A second algorithm improved the localization of a bar thanks to a calibration. But it has a dependency to the contrast and the illuminance variations.In order to avoid a calibration process, a third algorithm was proposed to localize two contrasts. It is based on the work of Heiligenberg and Baldi, which showed that an array of Gaussian receptive field can provide a linear estimation of a stimulus position. For the first time, we applied a modified version of their estimation to an artificial compound eye. This sensor mounted on a rover allows following a target precisely at a constant distance.Finally, an artificial compound eye with a coarse spatial resolution can be endowed with hyperacuity and enables a robot to follow a target with precision. A step forward has been made toward bio-inspired target localization and pursuit
APA, Harvard, Vancouver, ISO, and other styles
43

Costis, Thomas. "Couplage perception-locomotion pour robot quadrupède autonome." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0026.

Full text
Abstract:
Les travaux décrits dans ce mémoire présentent une étude du couplage perception-locomotion applicables à des robots quadrupèdes. L'objectif principal est l'augmentation de l'autonomie du robot pour aboutir à l'adaptation de la locomotion en fonction du terrain et de son environnement. Dans une première partie nous nous intéressons à la perception visuelle du robot et particulièrement à la détection d'objets colorés à partir d'une seule caméra. Nous présentons ensuite les développements effectués pour la détection embarquée de segments dans l'environnement avec, pour objectif de repérer les traces au sol des obstacles de manière autonome. Les primitives obtenues à partir du système de vision adapté à la robotique permettent la localisation du robot, dans un premier temps relative par rapport aux lignes détectées, puis absolue dans un environnement semi-connu. La partie expérimentale utilise des plateformes robotiques quadrupèdes Sony et se concentre sur la mise en oeuvre de comportements autonomes comme le suivi d'une ligne au sol ou le positionnement du robot par rapport à un obstacle polygonal à des fins de contournement ou de franchissement
This thesis presents a survey of perception-driven legged locomotion for robotics use. This research focuses on increasing the autonomy of the robot so it can adapt its gait according to the ground and the environment. In the first part, we present the visual perception system including colored object detection with a single video-camera. The perception system also incorporates different line detection algorithms, in order to get polygonal maps of the obstacles on the ground. Visual primitives are then used to localise the robot in a structured environment with respect to a segment and within an absolute reference frame. The experimental part is conducted on Sony quadruped robots and aims to implement autonomous behaviours such as line following or positionning relatively to polygonal shapes to cross or avoid obstacles
APA, Harvard, Vancouver, ISO, and other styles
44

Guermeur, Philippe. "Vision robotique monoculaire : reconstruction du temps-avant-collision et de l'orientation des surfaces à partir de l'analyse de la déformation." Rouen, 2002. http://www.theses.fr/2002ROUES053.

Full text
Abstract:
Cette thèse s'intéresse à l'analyse de la déformation dans des séquences d'images monoculaires pour la reconstruction du temps-avant-collision et de l'orientation des surfaces dans la scène. La modélisation de la scène par un ensemble de facettes planes nous permet de calculer formellement le champ de vecteurs engendré. La déformation est appréhendée de manière globale. Pour cela nous considérons l'intégration de la composante normale ou tangentielle du champ de vecteurs sur les contours dans l'image, et utilisons les théorèmes de Green et de Stokes pour établir un lien avec les paramètres recherchés. Afin d'obtenir un système d'équations bien conditionné, nous proposons de pondérer au préalable le champ de vecteurs par une fonction vectorielle adaptée. Pour effectuer le calibrage de la caméra, nous proposons un nouvel algorithme. Il s'agit d'un algorithme évolutionnaire, dont l'implémentation se révèle particulièrement simple, puisque celle-ci s'appuie sur EASEA, un langage de spécification de haut niveau adapté aux algorithmes évolutionnaires
This thesis presents a method to process axial monocular image sequences for evaluation of the time to collision and the surface orientation in a scene. Using a planar facet representation of the scene, we first calculate formally the apparent velocity field generated by the camera motion as a function of the 3-D facet model and the motion hypothesis. A global deformation model is calculated using the Green and Stokes theorems to integrate the normal and tangential components of the vector field and connect the results with the parameters to be identified In practice, the vector field is computed using the epipolar constraint, and the camera is fitted with a wide angle lens. Using the epipolar model needs accurate camera calibration in order to compensate for image distortion and fit the pinhole model. To this end, we introduce a new method based on evolutionary optimisation to determine the distortion coefficients, based on the EASEA evolutionary specification language
APA, Harvard, Vancouver, ISO, and other styles
45

Caron, Guillaume. "Estimation de pose et asservissement de robot par vision omnidirectionnelle." Phd thesis, Université de Picardie Jules Verne, 2010. http://tel.archives-ouvertes.fr/tel-00577133.

Full text
Abstract:
Ce travail s'inscrit dans le cadre d'un programme de recherche sur la vision omnidirectionnelle, monoculaire et stéréoscopique. L'estimation de position et d'orientation de robot par ce type de vision artificielle repose sur le même formalisme de base que l'asservissement visuel. Cette technique consiste à commander le mouvement d'un robot en utilisant l'information visuelle apportée par une ou plusieurs caméras. Ce mouvement est virtuel dans le cas d'une estimation de pose. Utiliser le large champ de vue apporté par la vision omnidirectionnelle a généralement une bonne influence sur le comportement du robot mais les informations visuelles, et en particulier leur représentation, ont un impact important sur ce comportement. Un choix inadéquat de représentation d'information peut engendrer l'échec de l'asservissement ou du calcul de pose. Cette thèse vise à étudier et comparer différentes primitives visuelles et leurs représentations en vision omnidirectionnelle. Même si un modèle de projection stéréographique impliquant une sphère a été défini pour les caméras omnidirectionnelles centrales, un point, une droite ou un plan est presque toujours représenté dans le plan image. Quelques travaux ont certes formulé l'estimation de pose ou l'asservissement visuel à partir de primitives définies sur la sphère mais sans montrer, en pratique, quel est le meilleur lieu de définition : le plan image ou la sphère. C'est une des motivations de cette étude. Ce travail propose aussi d'utiliser les intensités des pixels d'une image omnidirectionnelle comme primitive visuelle pour l'asservissement de robot, permettant ainsi de s'affranchir du traitement d'image nécessaire à la détection de points, de droites, etc. La validation expérimentale montre une très grande précision de positionnement. Cette constatation a servi de base à l'utilisation de voisinage photométrique inclus dans une région pour le suivi de plan ou avoisinant un segment pour le suivi de droites verticales. Ce dernier point est une des contributions les plus importantes de cette thèse car cela permet de reconstruire une droite verticale par ajustement photométrique des voisinages de ses projections dans les images de stéréovision omnidirectionnelle. Ceci peut, de plus, être étendu à l'estimation de mouvement et à toute primitive géométrique.
APA, Harvard, Vancouver, ISO, and other styles
46

Ben, Khelifa Mohamed Moncef. "Vision par Ordinateur et Robotique d'Assistance : application au projet M.A.R.H. , Mobile Autonome Robotisé pour Handicapés." Toulon, 2001. http://www.theses.fr/2001TOUL0012.

Full text
Abstract:
Les systèmes Robotiqucs d'assistance aux personnes handicapées, visent à apporter une aide, par exemple au pilotage des fauteuils roulants robotisés, tout en répondant aux besoins d'aide à la planification de trajectoire, et à la navigation en utilisant des techniques de vision dynamique issues de la robotique mobile. Dans cette thèse nous avons ctudié les analogies qui existent entre la neuro-vision humaine et la vision artificielle dans le but de palier aux problèmes des déficits visuo-spatiaux chez des IMC sur fauteuils roulants. Dans un premier temps nous avons traité le problème de la détection des points d'intérêt par une implantation stable des lissages du signal avec des filtres Gaussiens suivie d'une approximation du maximum local à des positions non entières. Le détecteur ainsi développé nous a donné une précision sous-pixellique des points d'intérêt. La répétabilité de ce détecteur, nous a permis de calculer la géométrie épipolaire, qui est caractérisée par une meilleure stabilité de la matrice fondamentale, celle-ci jouant un rôle très important dans la recherche des primitives à apparier dans une séquence d'images. Une approche stratifiée de calibration projective, affine et Euclidienne a été utilisée dans le but d'autocalibrer une caméra CCD embarquée. La calibration affine nous a permis d'estimer une matrice slable de l'homographie du plan à l'infini, suivie d'une estimation des paramètres intrinsèques et extrinsèques en utilisant une calibration euclidienne basée sur la méthode de la conique absolue (équations de Kruppa simplifiées). Enfin, nous validons ces algorithmes par deux expériences : l'une consiste en une planification de trajectoire suivie d'une navigation le long d'un couloir, l'autre en l'évitement d'obstacles dans un environnement interne
The assistance robotic systems aim at bringing a help to the handicapped people, for example, the piloting of the robotized travelling wheelchairs, while meeting the needs for planning aid of trajectory, and navigation by using techniques of dynamic vision. In this thesis we studied the analogies which exist between the human neuro-vision and the computer vision in order to overcome problems of the visuo-spacc deficits on travelling wheelchairs. Firstly, we treat the problem of the interest points detection by establishing a stable smoothing of the signal with Gaussien filters followed by an approximation of the local maximum with nonwhole positions. The developed detector leads to a subpixel precision of interest points. The repeatability of this detector, enabled us to calculate the epipolar geometry which is characterized by a stability of the undamental matrix, the last one plays a very significant role in the search of corresponding primitives in image sequences. A stratified calibration approach, has been used to the CCD camera self-calibration : The estimation of the infinite homographic matrix is based on affine calibration, and the estimation of the intrinsic and extrinsic parameters is performed by Euclidean calibration based on the absolute conic method (simplified Kruppa equations). Finally, we validate these algorithms by two experiments: one consists on planning trajectory followed by a navigation along a corridor, and the other one to avoid obstacles in indoor environment
APA, Harvard, Vancouver, ISO, and other styles
47

Abdallah, Ahmad. "Contribution à la surveillance d'un site robotisé par traitement d'images." Compiègne, 1997. http://www.theses.fr/1997COMP1005.

Full text
Abstract:
Le problème de diagnostic d'intrusion dans les zones dangereuses se heurte généralement aux inconvénients que représentent les variations d'éclairage ambiant. Bien que certaines applications aient pu trouver une solution par la vision artificielle, elles admettent généralement certaines restrictions quant aux changements globaux de luminosité. Aucune valeur de seuil, aussi judicieusement choisie, ne peut permettre une segmentation correcte si les conditions d'éclairage ne s'y prêtent pas. Notre approche est basée sur le gradient signe d'une image. Différentes améliorations ont été proposées. Cet algorithme nous a permis d'aboutir à un dispositif autorisant les variations d'éclairage, tout en garantissant une sureté dans la détection d'intrusion. La détection opère sur des zones dangereuses instantanément délivrées par le module de poursuite.
APA, Harvard, Vancouver, ISO, and other styles
48

Dugas, Olivier. "Localisation relative à six degrés de liberté basée sur les angles et sur le filtrage probabiliste." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25607.

Full text
Abstract:
Lorsque des robots travaillent en équipe, il est avantageux de permettre à ceux-ci de se localiser mutuellement pour faire, par exemple, de la navigation en formation. La résolution de la localisation relative est d'une importance particulière pour des équipes de robots aériens ou sous-marins lorsque ceux-ci opèrent dans des environnements dépourvus de points de repère. Ce problème se complexifie davantage lorsque le système de localisation permet seulement l'utilisation de caméras légères et bon marché. Cette étude présente une solution analytique au problème de localisation relative à six degrés de liberté basée sur des mesures d'angle. Cette solution est intégrée à des filtres probabilistes pour augmenter sa précision. En utilisant deux robots mutuellement observables possédant chacun deux marqueurs et une caméra colinéaires, nous pouvons retrouver les transformations qui expriment la pose du premier dans le référentiel du second. Notre technique se distingue du fait qu'elle nécessite uniquement la mesure de deux paires d'angles, au lieu d'un mélange de mesures d'angles et de distances. La précision des résultats est vérifiée par des simulations ainsi que par des expérimentations concrètes. Suite à des expérimentations à des distances variant entre 3:0 m et 15:0 m, nous montrons que la position relative est estimée avec moins de 0:5 % d'erreur et que l'erreur moyenne sur l'orientation relative est maintenue sous 2:2 deg. Une généralisation approximative est formulée et simulée pour le cas où la caméra de chaque robot n'est pas colinéaire avec les marqueurs de celui-ci. Au-delà de la précision des caméras, nous montrons qu'un filtre non parfumé de Kalman permet d'adoucir l'erreur sur les estimations de la position relative, et qu'un filtre étendu de Kalman basé sur les quaternions peut faire de même pour l'orientation relative. Cela rend notre solution particulièrement adaptée pour le déploiement de flottes de robots à six degrés de liberté comme des dirigeables.
When a team of robots have to collaborate, it is useful to allow them to localize each other in order to maintain flight formations, for example. The solution of cooperative localization is of particular importance to teams of aerial or underwater robots operating in areas devoid of landmarks. The problem becomes harder if the localization system must be low-cost and lightweight enough that only consumer-grade cameras can be used. This paper presents an analytical solution to the six degrees of freedom cooperative localization problem using bearing only measurements. Probabilistic filters are integrated to this solution to increase it's accuracy. Given two mutually observing robots, each one equipped with a camera and two markers, and given that they each take a picture at the same moment, we can recover the coordinate transformation that expresses the pose of one robot in the frame of reference of the other. The novelty of our approach is the use of two pairs of bearing measurements for the pose estimation instead of using both bearing and range measurements. The accuracy of the results is verified in extensive simulations and in experiments with real hardware. In experiments at distances between 3:0 m and 15:0 m, we show that the relative position is estimated with less than 0:5 % error and that the mean orientation error is kept below 2:2 deg. An approximate generalization is formulated and simulated for the case where each robot's camera is not colinear with the same robot's markers. Passed the precision limit of the cameras, we show that an unscented Kalman filter can soften the error on the relative position estimations, and that an quaternion-based extended Kalman filter can do the same to the error on the relative orientation estimations. This makes our solution particularly well suited for deployment on fleets of inexpensive robots moving in 6 DoF such as blimps.
APA, Harvard, Vancouver, ISO, and other styles
49

Clot, Robert. "Coopération robot - préhension - vision pour la manipulation des pièces souples : application à l'industrie du cuir." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0026.

Full text
Abstract:
La fabrication traditionnelle de chaussures ou de vêtements, encore très manuelle, cède de plus en plus de place à l'automatisation. La manipulation automatisée de pièces plates, souples, poreuses et de faibles épaisseurs est donc une réponse à un besoin industriel croissant. Actuellement, l'offre de produits permettant de manipuler efficacement les pièces découpées est encore insuffisante. Dans une première phase d'automatisation, où la découpe est manuelle, l'étude de la manipulation automatique des pièces est étroitement liée à l'étude d'un système de vision. En effet, les pièces doivent être localisées et identifiées pour permettre le positionnement et la configuration de la tête de préhension. C'est dans ce cadre que nous avons développé un système de vision et de reconnaissance des formes et un système de préhension et de tri. Les principales innovations concernent le tri, le préhenseur et la coopération vision-préhension. Le choix des paramètres d'identification est particulièrement étudié pour le cas de pièces de cuir composant des tiges de chaussures. Le préhenseur a fait l'objet d'un développement important: le concept de matrice a été mis en œuvre et vérifié pour trois applications. Une cellule expérimentale, où les pièces sont saisies au vol sur un convoyeur défilant, a permis de démontrer le bon fonctionnement du système de vision et de reconnaissance de formes
Automation gradually supersedes conventional manual Processing in footwear and apparel manufacture. Automated handing of pieces corresponds to an increasing need. These pieces are flat, supple, porous and thin. At the present time, the supply of systems able to fulfill efficiently these requirements remains too limited. When handling is to be coupled with press cutting, the manipulation is closely linked to the study of a vision system. The pieces should be localised and identified, in order to determine the positionning and configuration of the prehension head. The vision, recognition, prehension and sorting system developped corresponds to these requirements. The main innovation concerns sorting, prehension and the interaction vision/prehension. The choice of the identification parameters has been adapted to the leather pieces constituting shoe uppers. The prehension head required an important developpement work : the matrix concept has been devel opped and led to three applications. In an experimental configuration, the pieces are picked up from a conveyor belt ; this pilot has demonstrated that the vision and the recognition systems are both satisfactory
APA, Harvard, Vancouver, ISO, and other styles
50

Bosch, Sébastien. "Contribution à la modélisation d'environnements par vision monoculaire dans un contexte de robotique aéro-terrestre." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00181794.

Full text
Abstract:
Les travaux de cette thèse s'articulent principalement autour de la détection de surfaces planes à partir de séquences d'images faiblement calibrées. La détection de telles surfaces offre des possibilités pour l'atterrissage autonome de drones, la coopération air/sol par la fusion de modèles de traversabilité ou encore la cartographie aérienne. Considérant d'abord le contexte d'images aériennes faiblement localisées (GPS métrique, centrale inertielle bas coût...), nous exploitons les propriétés des homographies, qui définissent le déplacement entre deux images de points appartenant à un même plan du monde. Nous avons utilisé cette propriété pour segmenter les régions des images contenant la projection d'un plan. Un soin particulier à été donné à l'évaluation de différents algorithmes d'estimation linéaire robuste dans le cadre de l'estimation d'homographie à partir de points appariés. Des données de synthèse ont été utilisées afin de mettre en évidence l'influence des paramètres de l'environnement sur la qualité des estimées. Ces résultats ont été par la suite confrontés à des données réelles. Ces techniques permettent de segmenter les points appariés selon qu'ils appartiennent ou non à une zone plane. Afin de produire une description dense (continue) des zones détectées, nous avons proposé une amélioration du score de corrélation normalisée croisée. En considérant un modèle adaptatif de l'influence des variances des niveaux de gris sur les scores de corrélation, nous avons introduit une méthode de segmentation automatique de zones planes offrant de bons résultats. L'introduction de modèles probabilistes nous a permis de fusionner les observations au fur et à mesure du déplacement de la caméra, et de construire des grilles locales qui représentent la probabilité de planéité sur des zones. Enfin dans l'optique de la coopération entre robots aériens et terrestres, nous avons étendu ces travaux au contexte de la robotique terrestre et de la fusion de modèles aéro-terrestres.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography