To see the other types of publications on this topic, follow the link: Réalité virtuelle et augmentée.

Dissertations / Theses on the topic 'Réalité virtuelle et augmentée'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Réalité virtuelle et augmentée.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rahajaniaina, Andriamasinoro. "La réalité virtuelle et la réalité augmentée pour des systèmes d'informations ubiquitaires dans le travail collaboratif mobile." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/926/.

Full text
Abstract:
La Réalité Augmentée est l'une des techniques utilisées pour permettre aux utilisateurs mobiles qui se trouvent dans différent zone géographique de partager un modèle 2D/3D comme point d'entrée pour travailler ensemble et interagir sur le même prototype en utilisant des ordinateurs mobiles. Dans cette étude, nous avons proposé une architecture modulaire permettant la gestion d'une application RA collaborative mobile. Elle est conçue pour que l'identification et l'adaptation au système soient transparentes aux utilisateurs. Les techniques de localisation et de suivi hybride et par vision sont adoptées pour assurer la robustesse de notre système. La base de données est répliquée dans les serveurs et/ou dans les clients. L'équilibrage des charges est utilisé afin que la communication entre les applications clientes et serveurs soit tolérante aux pannes
Augmented Reality is among of the techniques used to allow mobile users who are in different geographical area to share a model 2D/3D as primary tools for collaboration, using the same software on lightweight hardware or mobile computers. In this study, we proposed a modular architecture allowing the management of mobile collaborative Augmented Reality application. This architecture is designed so that the identification and the adaptation to the system are transparent to users. Vision and hybrid based tracking techniques are used to ensure the robustness of our system. The database is replicated in the servers and/or the clients. The technique of load balancing is used so that the communication between the client applications and servers is fault-tolerant
APA, Harvard, Vancouver, ISO, and other styles
2

Cassier, Claude Yves. "Application de la réalité virtuelle et augmentée pour la conception et la maintenance de systèmes complexes." Orléans, 2002. http://www.theses.fr/2002ORLEA001.

Full text
Abstract:
Dans cette thèse, nous allons traiter le problème de la conception et de la simulation de systèmes complexes. Dans un premier temps nous allons présenter des notions indispensables lorsque l'on aborde le domaine de la conception en 3D, la synthèse d'images et la réalité virtuelle. Nous verrons ensuite, comment on peut utiliser ces techniques de simulations et d'animations virtuelles pour déboucher sur un programme expert de conception, de modélisation et de simulation de blocs opératoires en 3D. L'intégration dans cet outil des critères d'optimisation de l'espace de travail, de l'éclairage opératoire, de gestion des collisions des équipements, ainsi que la richesse de la base de données d'objets 3D permettra un prototypage efficace des salles d'opérations, de soins intensifs et des salles de réveil au stade de l'avant projet. Dans le chapitre 3, on tentera de démontrer et d'expérimenter l'usage de la réalité augmentée dans le domaine de la maintenance et de la formation, en faisant évoluer les systèmes de réalité virtuelle vers le support de réalité augmentée collaborative, et en expérimentant à une échelle significative (sur des réseaux hauts débits), les usages de cette technologie dans le secteur de la télémaintenance. Pour cela, nous étudierons deux types de recalage : un système optique basé sur des marqueurs et un système magnétique (Flock Of Birds). Finalement, nous présentons une application industrielle dans le cadre d'un projet de recherche : MARA (Maintenance Assistée par de la Réalité Augmentée). Ce projet qui regroupe plusieurs partenaires vise à réaliser un outil d'aide à la maintenance applicable pour tout type de produit. Nous tenterons également de dégager les impacts sociaux culturels, et les besoins en facteurs humains (ergonomie) d'un tel outil.
APA, Harvard, Vancouver, ISO, and other styles
3

Tison, Charles Henri Alexandre. "Mise en oeuvre et évaluation d'interactions multimodales orientées communication appliquées au déplacement d'objets graphiques 3D." Nancy 1, 2004. http://www.theses.fr/2004NAN10174.

Full text
Abstract:
L'expérience décrite dans cette thèse adresse l'applicabilité d'une combinaison de modalités pour l'interaction avec les objets 3D d'un environnement virtuel afin de leur appliquer des repositionnements géométriques. L'approche " top-down " adoptée s'inspire des modalités observables au sein des expressions de commande d'utilisateurs au cours d'activités " d'inspection de prototype " du domaine de la conception vestimentaire. A partir d'un ensemble sélectionné de tâches, l'examen de combinaisons tâches vs modalités d'entrée permet d'établir des scénarios d'expressions de commande homogènes. La définition de profils de dispositifs conduit ensuite à la construction d'un système interactif sur lequel tester ces affectations de modalités avec des utilisateurs lors d'une expérience de type " Magicien d'Oz ". L'étude de la variabilité d'expression permet alors de poser les bases d'une grammaire d'interaction. Les résultats obtenus semblent confirmer la pertinence de ce style d'interaction
The experiment described in this thesis concerns the applicability of a modalities combination in order to relocate 3D objects in a virtual reactive environment. The adopted "top-down" approach is initiated through the observation of command expressions modalities that take place during "prototype inspection" activities in the field of cloth design. A selection of a reduced set of user tasks, (3D objects relocation), helps investigate tasks vs input modalities combinations in order to determine an homogeneous set of low level interaction scenarios. The profile definition of relevant devices brings to build, afterwards, a minimal interactive system organised so as to test, with users, the relevancy of such a task modality allocation through an adapted version of an experiment known as "Wizard of Oz". An evaluation of speech variability helps simultaneously to precise the grammar to implement. The results seem to confirm the relevancy of such an interaction style
APA, Harvard, Vancouver, ISO, and other styles
4

Otmane, Samir. "Télétravail Robotisé et Réalité Augmentée : Application à la Téléopération via Internet." Phd thesis, Université d'Evry-Val d'Essonne, 2000. http://tel.archives-ouvertes.fr/tel-00682240.

Full text
Abstract:
La téléprésence, ou la présence virtuelle, devient de plus en plus courante grˆace à l'évolution technologique, impliquant une ouverture du potentiel du télétravail. Ce dernier est fortement lié à la virtualité et à la téléprésence, donc aussi à la robotique et à l'informatique, autant qu'aux communications. Cette thèse étudie les méthodes et les outils nécessaires à la réalisation d'un système de télétravail via Internet. Dans un premier temps, nous présentons les tendances technologiques qui ont contribué à l'évolution du télétravail. Ensuite, nous nous intéressons à la téléopération et la télérobotique, nous verrons comment les techniques de la réalité virtuelle et augmentée ont contribué à percer certains verrous, liés généralement à la distance qui sépare les deux sites maˆýtre et esclave. Dans un deuxième temps, nous nous intéressons à l'assistance au télétravail via Internet. Nous étudions les méthodes et les outils nécessaires à la réalisation des guides virtuels portables et paramétrables en proposant ainsi le formalisme implanté. Dans un troisième temps, nous étudions les méthodes utiles pour un contrôle en réalité augment ée (modélisation d'environnement et calibration de la caméra et du robot). Nous présentons la méthode retenue pour le télétravail via Internet. Ensuite, nous présentons notre système expérimental de télétravail baptisé ARITI (Augmented Reality Interface for Telerobotic applications via Internet). Dans un quatrième temps, nous présentons deux applications, une pour la télémanipulation et l'autre, pour la téléopération d'un robot mobile. Enfin, dans un cinquième temps, Nous évaluons quelques tâches de téléopération ainsi que les méthodes de compression d'image vidéo utilisées. Nous montrons d'une part, la stabilité du serveur du système ARITI vis à vis des différentes connexions, locale, moyenne et grande distance. D'autre part, comment le retour prédictif distribué facilite à plusieurs opérateurs de télétravailler en coopération.
APA, Harvard, Vancouver, ISO, and other styles
5

Ferretti, Gilbert. "Endoscopie virtuelle des bronches : études pré-cliniques et cliniques." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE19001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Poitevin, Dominique. "La conscience augmentée : perception et conscience numériques." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S074.

Full text
Abstract:
Protéiforme et dématérialisé, l’objet virtuel numérique ne cesse d'interagir avec nos sens et notre conscience dans une relation elle aussi plurielle. Qu'il soit objet de perception par les sens (dans la réalité virtuelle par exemple), ou social (dans les interactions intentionnelles qu'il renferme), la conscience entretient avec l'objet virtuel une relation qui oscille entre perception enrichie et illusion. L'objet virtuel sert en effet, à la fois, de lecture améliorée du monde tendant vers une meilleure compréhension de ce qui entoure la conscience percevante et de dénaturation du réel au profit de faux-semblants illusoires qui au contraire éloignent la conscience de la réalité. La conscience est ainsi tiraillée entre deux phénomènes opposés et doit, dans cette configuration, chercher un moyen d'identifier l'objet virtuel au-delà de l'illusion qu'il engendre ou des lectures intentionnelles qu'il propose. L’objet virtuel numérique engendre alors des rapports complexes de la conscience au réel, tant dans les aspects de la conscience individuelle et cognitive que dans la conscience immergée dans la société, au point de pouvoir provoquer un phénomène de servitude numérique
Proteiform and dematerialized, the digital virtual object never stops interacting with our senses and our consciousness in a relationship that is also plural. Whether it is an object of perception by the senses (in virtual reality, for example), or social (in the intentional interactions it contains), consciousness maintains a relationship with the virtual object that oscillates between enriched perception and illusion. The virtual object serves indeed, at the same time, of improved reading of the world tending towards a better comprehension of what surrounds the perceiving consciousness and of denaturation of the real in favor of illusory false pretenses which on the contrary move the consciousness away from the reality . Consciousness is thus torn between two opposing phenomena and must, in this configuration, seek a way to identify the virtual object beyond the illusion that it generates or intentional readings it proposes. The digital virtual object then generates complex relationships from consciousness to reality, both in the aspects of individual and cognitive consciousness and in consciousness immersed in society, to the point of being able to cause a phenomenon of digital servitude
APA, Harvard, Vancouver, ISO, and other styles
7

Combe, Emmanuelle. "Perception de la taille : application à un système de réalité virtuelle et augmentée utilisé dans l'ingénierie véhicule." Paris 6, 2009. http://www.theses.fr/2009PA066256.

Full text
Abstract:
La perception de la taille distale, i. E. La taille physique, d'un objet est a priori une question simple. En effet, à partir de l'information rétinienne de l'angle sous-tendu par l'objet au point œil et de l'information de distance absolue, il est possible mathématiquement de déterminer la taille distale de l'objet. Cette taille distale perçue pourra être évaluée précisément, si les informations de taille angulaire et de distances sont elles-mêmes correctement évaluées. Dans cette étude, nous avons cherché à comprendre quels indices de perception de distances permettent d'atteindre une taille distale perçue véridique Cette question est traitée au travers de deux expériences. L'une, menée dans un contexte industriel, dans lequel l'utilisation des technologies de réalité virtuelle et augmentée est requit pour l'évaluation de prototype virtuel. La perception correcte des tailles distales y est essentielle pour réaliser des évaluations pertinentes. La seconde expérience, est une expérience fondamentale, dont l'objectif est de déterminer la contribution des informations extra-rétiniennes issues du mouvement de l'observateur à la perception des tailles distales lors de variations de distances, i. E. Leur contribution au phénomène de constance de taille.
APA, Harvard, Vancouver, ISO, and other styles
8

Havard, Vincent. "Développement de méthodes et outils basés sur la réalité augmentée et virtuelle pour l'assistance ou l'apprentissage d'opérations dans un contexte industriel." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR001/document.

Full text
Abstract:
L’adoption du numérique au sein des industries et les évolutions des technologies ouvrent de nouvelles perspectives d’usages de la réalité augmentée (RA) et de la réalité virtuelle (RV). Ainsi, ces technologies peuvent faciliter l’assistance des opérateurs travaillant sur des systèmes industriels complexes en utilisant la RA et permettre la mise en œuvre de formations en RV, améliorant donc leur efficience. Cependant, intégrer ces nouveaux outils aux processus existants de l’entreprise reste complexe, de par les aspects technologiques et le continuum de données à mettre en œuvre, de par l’identification des cas d’usages et des gains associés et de par la diversité d’acteurs et d’experts métiers à impliquer dans ce processus : l’expert du système industriel, l’opérateur, le concepteur et le développeur informatique.Afin d’aborder ces différentes problématiques industrielles et en se basant sur un état de l’art scientifique et technologique, nos travaux de recherche ont porté sur la proposition d’un modèle de données permettant de faciliter la création de contenu en réalité augmentée pour les opérations sur des systèmes industriels. Ces travaux ont également permis de mettre en place un environnement expérimental basé sur une chaîne de production didactique et une application créée grâce à ce modèle.Dans une seconde partie de ce travail, afin d’évaluer l’efficacité de cette technologie, nous avons mis en place une méthode permettant d’évaluer l’usage de la réalité augmentée pour la maintenance de systèmes industriels complexes selon des critères de performances et de satisfactions. L’analyse de deux études de cas montre que la contextualisation de l’information en réalité augmentée permet à l’opérateur de comprendre plus rapidement l’opération à effectuer qu’avec guide papier tout en réduisant certains types d’erreur. De plus, nous proposons des recommandations pour améliorer la pertinence de l’information fournie en réalité augmentée et identifions le type d’opération permettant d’obtenir un gain significatif, grâce à la réalité augmentée. Ces travaux s’intéressent également à l’influence et à la sélection des dispositifs de rendus.Enfin, en nous basant sur le modèle de données de RA, nous proposons une ontologie permettant d’unifier la création de contenu en réalité augmentée et virtuelle afin de former et guider un opérateur dans ses tâches. Nous étudions l’usage de cette ontologie pour exploiter d’autres données et connaissances de l’entreprise telles que celles liées à la maintenance. Cette ontologie est utilisée pour des scénarios de formation dans des environnements industriels et pour l’assistance sur des opérations
The adoption of digital technologies within industries and the evolution of technologies are opening new perspectives for using augmented reality (AR) and virtual reality (VR). Therefore, those technologies can facilitate the operators’ tasks working on complex industrial systems, either by bringing them some contextualised information in AR or by helping them with VR trainings. Thus they would improve their efficiency. However, integrating these new tools into existing processes of the company remains complex, due to the technologies and the data continuum needed, through the identification of use cases and the associated gains and by the diversity of actors and business experts involved in this process: the expert of the industrial system, the operator, the designer and the computer scientist.In order to develop those different industrial problematics, we first study the state of the art of scientific publications and existing technologies. Then, our research work has proposed a data modelling facilitating content authoring of augmented reality operations on industrial system. This work has also allowed to set up an experimental environment based on an educational production line and an augmented reality application developed thanks to that model.In a second part of this work, and in order to evaluate the efficiency of this technology, we have proposed a methodology allowing to evaluate augmented reality usage for maintenance, repair and operations on industrial systems according to performance, satisfaction and behavioural criteria. We analyse two case studies. They shows that contextualisation of information with augmented reality allows the operator to faster understand the task he needs to carry out than with paper instructions while reducing some kind of errors. Moreover we are proposing some guidelines in order to improve the augmented reality information efficiency. Besides, we are identifying which types of operation are improved with augmented reality. The work is also describing the rendering device influence on the use of augmented reality.Finally, and based on the augmented reality modelling, we are proposing an ontology allowing to unify content authoring of augmented and virtual reality so as to train or guide operator in their tasks. We are studying the use of this ontology for exploiting others data and company knowledge, as maintenance. This ontology is used for training scenarios in industrial environment and for guiding operator during their work
APA, Harvard, Vancouver, ISO, and other styles
9

Chen, Jiazhou. "Structure d'une image : de la réalité augmentée à la stylisation d'images." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00977086.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux structures d'une image en général, et plus particulièrement aux gradients et aux contours. Ces dernières se sont révélées très importantes ces dernières années pour de nombreuses applications en infographie,telles que la réalité augmentée et la stylisation d'images et de vidéos. Le but de toute analyse des structures d'une image est de décrire à un haut-niveau la compréhension que l'on peut avoir de son contenu et de fournir les bases nécessaires à l'amélioration de la qualité des applications citées au-dessus, notamment la lisibilité, la précision, la cohérence spatiale et temporelle.Dans une premier temps, nous démontrons le rôle important que ces structures jouent pour des applications de type composition "Focus+Context". Une telle approche est utilisée en réalité augmentée pour permettre la visualisation de parties d'une scènes qui sont normalement derrières ce que l'on peut observer dans un flux vidéo. L'utilisation d'une segmentation et de lignes caractéristiques permettent de mettre en avant et/ou de révéler les relations d'ordre entre les différents objets de la scène. Pour la synthèse d'images guidée par une fonction d'importance, de multiples styles de rendu sont combinés de manière cohérente grâce à l'utilisation d'une carte de gradients et une de saillance.Dans un deuxième temps, nous introduisons une nouvelle techniques qui permet de reconstruire de manière continue un champ de gradient, et ceci sans trop lisser les détails originaux contenus dans l'image. Pour cela, nous développons une nouvelle méthode d'approximation locale et de plus haut-degré pour des champs de gradients discrets et non-orientés. Cette méthode est basée sur le formalisme"moving least square" (MLS). Nous démontrons que notre approximation isotrope et linéaire est de meilleure qualité que le classique tenseur de structure : les détails sont mieux préservés et les instabilités sont réduites de manière significative. Nous démontrons aussi que notre nouveau champ de gradients apporte des améliorations à de nombreuses techniques de stylisation.Finalement, nous démontrons que l'utilisation d'une technique d'analyse de profil caractéristique par approximation polynomiale permet de distinguer les variations douces des zones dures. Les paramètres du profil sont utilisés comme des paramètres de stylisation tels que l'orientation des coups de pinceau, leur taille et leur opacité. Cela permet la création d'une large variété de styles de ligne.
APA, Harvard, Vancouver, ISO, and other styles
10

Trakunsaranakom, Channarong. "Propositions pour une conception de produits manufacturiers collaborative, intuitive et tangible via des environnements de réalité virtuelle et augmentée." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAI022/document.

Full text
Abstract:
Ce travail de recherche présente des concepts généraux pour l'évaluation de la performance des environnements de réalité virtuelle qui sont pertinents pour l'activité de conception des produits manufacturés. De plus il, vise à présenter aussi le contexte de la recherche pour l'industrie automobile thaïlandaise, car cette thèse soulaite elevelopper de nouvelles connaissances au profit de l'économie thaïlandaise. Cette recherche couve plusieurs contextes concernant l'interaction homme machine mais aussi l'évaluation de la réalité virtuel pour dans les secteurs industriels et éducatifs. L'état de l'art pertinent pour cette recherche comprend les thématiques: interface utilisateur, les problèmes liés aux facteurs humains, mais aussi l'évaluation de l'utilisabilité, le souhait ici est d'aller plus loin vers l'évaluation de l'utilité des système realité virtuelle. Nous devons identifier des critères abstraits d'évaluation dont, l'affordance, l'ergonomie, l'intuitivité, la tangibilité et la fatigue qu'implique ces environnement. Cette évaluation de l'environnement de réalité virtuelle nécessite le développement el' une method adapté à ces critères. Nous sommes spécifiquement intéressé par les étapes de conception ou de préparation de la fabrication, et plus particulièrement dus les activités d'assemblage et de simulation de mouvements. La conception d'un environnement de réalité virtuelle et la mise en œuvre d'une application informatique qui soutient l'évaluation de ces activités sont présentées. L'objectif principal d'une telle application reste l'évaluation de la performance des environnements de réalité virtuelle pour soutenir les tâches des concepteurs et des ingénieurs.Cette recherche a conduit à deux expériences: la première pour valider l'évaluation et la comparaison de la performance d'un environnement de realité virtuel par l'utilisation de capteurs de base mesmont la complétude de la tâche, sa durée et l'instabilité des gestes de l'utilisateur. La tâche testée connect ne l'assemblage de vis permettant l'analyse des mouvements de base tels que la translation, la rotation, l'orientation et l'insertion dans les alésages. Nous avons mis en œuvre l'expérience sur quatre environnements et avons invité 40 participants à notre protocole expérimental. La deuxième expérience a été organisée autour d'une simulation de mécanisme de came à barillet qui fonctionne avec un seul mouvement de rotation mais qui fournit une trajectoire 3D de complexe. Les experts en conception peuvent avoir des difficultés à anticiper le comportement de ce système. Ils éprouvent généralement des difficultés lors du réglage des paramètres de conception pour s'assurer que le mécanisme fonctionne bien. On étudie donc la capacité de la réalité virtuelle à surpasser ces difficultés. Si cette capacité est démontrée, il est également prévu d'évaluer et de comparer les performances du système d'environnement de la réalité virtuelle par l'utilisation d'une technique d'évaluation abstraite de haut niveau associée aux capteurs de bas niveau. Trente participants ont été impliqués dans cette expérience où les deux capteurs de base ont été capturés et des critères de haut niveau ont été évalués via un questionnaire. Encore une fois, les quatre environnements, y compris la stéréoscopie ou le dispositif haptique, ont été utilisés pour établir des comparaisons à l'égard de cette nouvelle tâche
The aim of this research introduces general concepts for performance assessment of virtual reality environments which are relevant to the design activity of manufactured products. Moreover, it aims to present also the context of the research respect to the Thai automotive industry, because this thesis expect to build new knowledge for the benefit of Thailand economy. This research covers several contexts of Human-Computer Interaction research as well as evolution of the VR assessment in the industrial and educational sector. The state of the art with direct relevance for the current research includes: user interface, human factor issues but also usability assessment but the wish here is to go a step further towards utility assessment. This research focuses on abstract level assessment criteria including: affordance, ergonomics, intuitiveness, tangibility, and tiredness assessments. We propose and analyse an assessment method of virtual reality for given activities. We are specifically concerned by activities involved at design stage or at manufacturing preparation stage and we have a deep focus on assembly activity and motion simulation. The design of a virtual reality environment and the implementation of a computer application that supports the evaluation of these activities are presented. The main objective of such application remains the assessment of the performance of virtual reality environments to support the tasks of designers and engineers.This research consists of two main activities: The first experience to validate the evaluation and comparison of the performance of the VRES by the use of low basic sensors consisting of docking quality, task duration, and gesture instability sensor. The experimental task is a set of simple screw assemblies allowing the analysis of the basic movements such as translation, rotation, orientation, and insertion into the holes. We have implemented the experiment on four environments and invited 40 participants to our experiment protocol. The second experience was thus organized around a barrel cam mechanism simulation which is operated with a single rotation motion but which provides a complex cam 3D trajectory. Even design experts may have some difficulties to anticipate the behaviour of this system. They usually experience difficulties when tuning design parameters to ensure that the mechanism is working well. It is thus investigated virtual reality capacity to overpass these difficulties. If this capacity is demonstrated, it is also expected to evaluate and compare the performance of the virtual reality environment system by the use of high level abstract assessment technique combined with low level sensors. Thirty participants have been involved in an experience where both basic sensors and high level assessment criteria were captured. Four virtual reality environments including either stereoscopy or haptic force-feedback device were compared respect to a given task
APA, Harvard, Vancouver, ISO, and other styles
11

Hamon, Ludovic. "Modélisation et interaction temps réel avec des structures dynamiques de type L-système : application aux plantes virtuelles." Angers, 2011. http://www.theses.fr/2011ANGE0023.

Full text
Abstract:
De nos jours, la capacité de calcul des ordinateurs permet d'obtenir des rendus de paysages virtuels de plus en plus réalistes, en trois dimensions et en temps réel. Les L-systèmes, une grammaire formelle développée par Aristid Lindenmayer en 1968, font partie des modèles dits de "génération" utilisés pour produire des plantes virtuelles possédant des aspects morphologiques et physiologiques réalistes, et intégrant les résultats d'études scientifiques rigoureuses. L'interaction humaine, en temps réel, sur un objet virtuel, représente une caractéristique majeure de la réalité virtuelle. Cette interaction est de plus en plus requise pour l'étude scientifique des plantes, plaçant ainsi l'homme comme un élément important du modèle d'évolution. Ce manuscrit présente une étude aboutissant à la création d'un moteur nommé Real-Time Interactive L-système "RTIL", pour l'interaction avec des plantes virtuelles développées à partir du formalisme L-système. Ce formalisme est étendu pour proposer une nouvelle méthode d'interaction générique basée sur des règles dites "d'interaction" et respectant les normes actuelles de cette grammaire formelle. Trois expériences sont présentées afin d'illustrer les possibilités d'interaction. Les deux premières sont basées sur un modèle L-système de la plante "Lychnis Coronaria" avec laquelle, l'utilisateur sera amené à intervenir au cours de son processus d'évolution en fonction de différents retours visuels et haptiques. La troisième expérience montre un système de réalité augmentée, permettant de faire découvrir aux jeunes enfants, des notions élémentaires sur l'évolution d'une plante du stade de la floraison à la germination
Today, capacities and performance of computers allow rendering of realistic virtual landscapes in realtime and three dimensions. L-systems, a formal grammar developed by Aristide Lindenmayer in 1968, are a model called "generation model" used to produce virtual plants with realistic morphological and physiological aspects and integrate results of rigorous scientific studies. Human interactions in real time on a virtual object are an important feature of virtual reality. This kind of interaction is more and more required for the scientific study of plants, placing man as an important element of model evolution. This manuscript presents a study leading to the creation of an engine called real-time interactive L-system "RTIL" for interacting with virtual plants developed by the L-system formalism. This formalism is extended to propose a new generic method of interaction based on "interaction rules" and respecting this formal grammar. Three experiments are presented to illustrate interaction possibilities. The two first ones are based on an L-system model of the "Lychnis coronaria" plant, with which the user is required to intervene in the evolution process under different visual and haptic feedbacks. The third experiment shows an augmented reality system, introducing young children to basic notions about the evolution of a plant from the germination stage to the flowering stage
APA, Harvard, Vancouver, ISO, and other styles
12

Balter, Raphaèle. "Construction d'un maillage 3D évolutif et scalable pour le codage vidéo." Rennes 1, 2005. ftp://ftp.irisa.fr/techreports/theses/2005/balter.pdf.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du codage vidéo basé sur des modèles 3D. Notre étude se situe au croisement de deux axes de recherche particulièrement importants dans le domaine de la compression vidéo; le codage basé sur des modèles, permettant l'ajout de fonctionnalités à la vidéo, et la scalabilité, permettant d'adapter la représentation aux contraintes du réseau et des terminaux. Dans ce contexte nous avons proposé d'utiliser un modèle 3D, extrait automatiquement à partir d'images, à des fins de compression efficace pour des applications de réalité virtuelle à distance sur des terminaux hétérogènes. Pour cela nous avons mis au point un schéma original permettant d'encoder une vidéo par un modèle 3D évolutif hiérarchique, composé d'un flux de modèles 3D cohérents i. E. Basés sur la même connectivité couplée à une géométrie évoluant dans le temps, encodés par des ondelettes de seconde génération. The framework of this thesis is 3D model-based video coding. Our study is at the crossing of two particularly significant research axes in the field of video compression; model-based coding, adding functionalities to the video, and scalability, allowing to adapt the representation to various network and terminals constraints. In this context we proposed to use a 3D model automatically extracted from images for efficient compression for distant virtual reality applications on heterogeneous terminals. So an original scheme encoding a video with a hierarchical evolving 3D model, which is a consistent 3D model stream, i. E. Based on the same connectivity coupled to a geometry evolving in time encoded with second generation wavelets.
APA, Harvard, Vancouver, ISO, and other styles
13

Loscos, Céline. "Ré-éclairage et remodélisation interactifs des scènes réelles pour la réalité augmentée." Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004842.

Full text
Abstract:
La réalité augmentée assistée par ordinateur est un domaine émergeant qui progresse rapidement. Son principe est de mélanger le monde réel et le monde virtuel. Dans cette thèse, nous nous intéressons plus particulièrement au ré-éclairage, c'est-à-dire à la modification virtuelle des propriétés l'éclairage, et à la remodélisation des scènes réelles d'intérieur, de façon interactive et en conservant les effets réalistes de l'éclairage mixte (réel et virtuel). Nous avons développé deux méthodes qui réalisent ces objectifs. Les deux méthodes utilisent des données d'entrée non exhaustives pour retrouver les propriétés radiométriques des scènes réelles. Dans notre première approche, la scène réelle est représentée par un modèle géométrique simple et texturé. En nous basant sur les équations de la radiosité, nous modifions les textures afin d'enlever les effets de l'éclairage réel (ombres, etc.). Lors de manipulations interactives qui atteignent un taux de rafraîchissement de 3 images par secondes, les effets d'éclairage sont simulés par des algorithmes incrémentaux, et affichés en utilisant le matériel graphique. Nous avons ensuite développé une deuxième méthode de ré-éclairage pour laquelle la scène réelle est connue depuis plusieurs photographies prises sous des éclairages différents mais contrôlés. Une réflectance diffuse est estimée pour chaque pixel de l'image d'origine. L'éclairage est ensuite simulé en combinant une méthode de lancer de rayon pour l'éclairage direct, et une méthode de radiosité hiérarchique optimisée pour l'éclairage indirect. Cette méthode permet en plus du ré-éclairage, la remodélisation interactive. Enfin, nous proposons une méthode de calibration photométrique pour du matériel photographique non professionnel, et nous présentons des algorithmes permettant une amélioration de la qualité de l'estimation de la réflectance pour chacune des méthodes.
APA, Harvard, Vancouver, ISO, and other styles
14

Niquin, Cédric. "Reconstruction du relief et mixage réel/virtuel par caméras relief multi-points de vues." Thesis, Reims, 2011. http://www.theses.fr/2011REIMS006/document.

Full text
Abstract:
L'affichage en relief, avec ou sans lunettes, est de plus en plus populaire. Les écrans auto-stéréoscopiques comportent un nombre d'images compris, à ce jour, entre 2 et 9. La création, la transmission ou encore la diffusion d'un tel nombre d'images correspondent à autant de verrous scientifiques. En effet la transmission des images impose le développement de méthodes de compression qui exploitent la redondance d'information entre les vues. La diffusion nécessite qu'un même contenu puisse être visible sur un maximum d'écrans, ce qui n'est possible en pratique que grâce à des méthodes de synthèse de vues intermédiaires. Enfin le contexte multi-vues ouvre à de nouvelles perspectives en réalité augmentée, comme la projection d'ombres et l'occultation entre contenu réel et virtuel. Tous ces exemples ont pour point commun de pouvoir être obtenus par le calcul des profondeurs de la scène. Les méthodes de stéréovision sont donc incontournables, mais, génériques, elles ne sont adaptées ni au contexte multi-vues, ni aux besoins des applications citées précédemment. Nous proposons dans ce mémoire un pipeline de reconstruction des profondeurs dédié au contexte multi-vues. Au travers d'une nouvelle expression de la mise en correspondance multi-vues, qui consiste à regrouper les pixels représentant un même point de la scène en " match " et ainsi former un partitionnement de l'ensemble des pixels, notre pipeline tire profit de la redondance des informations afin d'obtenir une estimation robuste des profondeurs. Cette expression définit exactement les redondances et occlusions de la scène, ce qui lève une grande partie des ambiguïtés lors de la compression des images et de la synthèse de vues intermédiaires. Nous présentons également une nouvelle contrainte, intégrée à notre pipeline, qui assure la cohérence géométrique des profondeurs reconstruites. Cette contrainte, essentielle pour un mélange entre réel et virtuel cohérent, s'avère également très utile pour les méthodes de synthèse de vues intermédiaires. Notre pipeline est composé de quatre modules : " génération du nuage de points ", " reconstruction de la surface ", " affinement des profondeurs " et " suivi temporel ". Mis à part le premier module cité, les autres sont facultatifs, et leur utilisation dépend des besoins et des applications visées. Ainsi, les résultats de notre pipeline sont les cartes de profondeurs, un nuage de points, ou un maillage représentant la scène.Afin de prouver la faisabilité du pipeline, nous présentons deux implémentations de celui-ci.La première, dite locale, se base sur des méthodes rapides afin de reconstruire la scène en temps réel. La seconde implémentation vise une application en post-production et génère des profondeurs de meilleure qualité, au détriment de temps de calcul plus longs. Nous démontrons également la pertinence de notre pipeline en proposant de nouvelles méthodes de compression d'images multi-vues, de synthèse de vues intermédiaires et de réalité augmentée multi-vues
The display in 3D, with or without glasses, becomes more and more popular. The auto-stereoscopic displays contain between 2 and 9 images. The creation, transmission or display of such images correspond to scientific obstacles. Indeed the transmission of the images needs compression methods that exploit information redundancy between frames. The display requires that the same content can be viewed on all screens, which is possible only by using methods of intermediate views rendering. Finally the context of multi-view brings new perspectives in augmented reality, like the projection of shadows and occlusion between real and virtual content. All these applications can be obtained by computing the depths of the scene. Stereovision methods allow depth estimation, but are generic and not well suited to the context of multi-view images or the application mentioned above. We propose in this thesis a pipeline dedicated to the depth reconstruction of a scene in a multi-view context.Through a new expression of the multi-view matching, which involves grouping the pixels representing the same point of the scene in "match" and thus form a partitioning of all pixels, our pipeline finds information redundancies in order to obtain a robust estimation of depths. This expression defines exactly occlusions in the scene, which raises much of the ambiguity in image compression and intermediate views rendering. We also present a new constraint, integrated in our pipeline, which ensures the geometric consistency of the reconstructed depths. This constraint is essential for a consistent mix between virtual and real objects, and is also very useful for intermediate views rendering. Our pipeline consists of four modules : " point cloud generation ", "surface reconstruction ", depth refinement " and " time tracking ".Apart from the first module city, others are optional and their use depends on needs and target applications. Thus, the results of our pipeline are depth maps, a point cloud or a mesh representing the scene. As a proof of the pipeline, we present two implementations of it. The first, called local, is based on fast algorithms to reconstruct the scene in real time. The second implementation is dedicated to post-production applications and generates better quality depth at the expense of longer computation time. We also demonstrate the relevance of our pipeline by providing new methods of multi-view image compression, intermediate views rendering and augmented reality
APA, Harvard, Vancouver, ISO, and other styles
15

Naud, Mickaël. "Contribution au développement d'outils d'aide à la conception assistée par la réalité virtuelle et augmentée : Application au domaine du textile/habillement." Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00451947.

Full text
Abstract:
La génération de motifs esthétiques assistée par ordinateur est un domaine prometteur pour la conception de vêtements (personnalisation de masse, etc.). Dans ce contexte, les techniques de réalité virtuelle (RV) et de réalité mixte (RM) sont très pertinentes pour la visualisation de vêtements sur lesquels sont appliqués les motifs générés. Ces techniques offrent aussi de nouvelles opportunités pour l'interaction 3D avec les mannequins virtuels en situation statique ou dynamique (défilé virtuel). La contribution du travail présenté dans ce mémoire est multiple et implique trois étapes complémentaires : (1) l'identification et le développement de modèles mathématiques exhibant des potentialités pour la génération automatique de motifs complexes ayant des propriétés esthétiques; (2) l'implémentation de ces modèles mathématiques et l'exploration assistée par ordinateur de leur potentialités; (3) l'intégration de ces modèles dans une plate-forme logicielle offrant de multiples possibilités d'interaction avec les mannequins virtuels. En outre, nous proposons de nouvelles techniques d'interaction 3D pour la conception en RV et RM.
APA, Harvard, Vancouver, ISO, and other styles
16

Bué, Pascal. "Architecture et réalité augmentée. Une manière d’écrire l’espace : la pensée visuelle instrumentée." Thesis, Sorbonne université, 2021. http://www.theses.fr/2021SORUL001.

Full text
Abstract:
Cette thèse interroge et compare deux dispositifs de réalité augmentée, l’un, UrbaSee, destiné à la médiation de l’espace urbain au cours d’un projet de Zone d’Aménagement Concerté, l’autre, HistoPad, destiné à la médiation de la reconstitution d’un espace historique. Une recherche empirique mêle conjointement analyses de dispositifs et enquête ethnographique à travers quatre parties de trois chapitres chacune. La première partie, réservée à notre posture épistémologique, notre méthodologie d’enquête et à la définition des terrains et corpus, considère le rapprochement entre une sémiotique de l’écriture et anthropologie de la figuration. La seconde partie interroge les dispositifs comme technologie poïétique du voir. Une analyse technosémiotique et une approche phénoménotechnique situent l’image de réalité augmentée entre image d’art et image scientifique, dans laquelle on observe une énonciation éditoriale hypertrophiée. La troisième partie envisage les dispositifs comme des technologies performatives de l’imagination, oscillant entre un imaginaire stimulé et une technologie fantasmée que nous analysons au prisme de la variation médiatique. Notre quatrième partie montre que ces stratégies d’écriture masquent un processus de propriétarisation. L’analyse des régimes de croyance que ces dispositifs suscitent, des médiations créatives et des rapports de savoir-pouvoir entre commanditaires et créateurs des dispositifs de réalité augmentée, révèle la prise de pouvoir symbolique et économique de l’industrie logicielle sur les projets d’autrui. Ce dont rend compte notre thèse est peut-être l’amorce d’un changement dans l’environnement technique, économique et symbolique des pratiques des corps de métiers de l’espace urbain et muséal
This thesis questions and compares two augmented reality devices, one, UrbaSee, intended for the mediation of urban space during a Concerted Development Zone project, the other, HistoPad, intended for the mediation of urban space. the reconstruction of a historic space. An empirical research jointly combines devices analyzes and ethnographic inquiry through four parts comprised of three chapters each. The first part, establishing our epistemological posture, our methodology of investigation and the definition of fields and cases under study, considers the connection between a semiotics of writing and the anthropology of figuration. The second part questions devices as a poietic technology of seeing. A technosemiotic analysis and a phenomenotechnical approach situate the image of augmented reality between an art image and a scientific image, in which we observe a disproportionate editorial utterance. The third part considers the devices as performative technologies of the imagination, oscillating between a stimulated imagination and a fantasized technology that we analyze through the prism of media variation. Our fourth part shows that these writing strategies mask a process of ownership. The analysis of the belief regimes that these devices give rise to, the creative mediations and the knowledge-power relations between partners and creators of augmented reality devices, reveals the symbolic and economic takeover of the software industry over the projects of others. What our thesis reflects is perhaps the start of a change in the technical, economic and symbolic environment of the practices of the trades in urban and museum spaces
APA, Harvard, Vancouver, ISO, and other styles
17

Castro, Miguel. "Navigation endovasculaire augmentée : mise en correspondance d’images pré- et per-opératoires." Rennes 1, 2010. http://www.theses.fr/2010REN1S183.

Full text
Abstract:
Nos travaux s’inscrivent dans le cadre de la navigation endovasculaire (Cathéterisme, pose d’endoprothèse,. . . ), où se posent des problèmes complexes liés à la déformation des structures anatomiques lorsqu’elles sont soumises à l’introduction d’outils relativement rigides (guides rigide, endoprothèse). La contribution de cette thèse concerne l’exploitation optimisée des données per-opératoires et vue d’établir la correspondance préopératoire (3D TDM) et per-opératoire (angiographie 2D) au sein d’un système de réalité augmentée pour l’angionavigation. L’établissement de cette correspondance passe par une décomposition de la transformation 3D/2D (transformation projective plus transformation rigide 3D/3D) ainsi que par des algorithmes d’estimation des différents paramètres (intrinsèques, extrinsèques) sous des contraintes liées à l’environnement interventionnel. Cette approche fait intervenir un processus de calibrage pour les paramètres intrinsèques du C-arm, une décomposition de la transformation rigide 3D/3D en deux transformations dont les deux ensembles de paramètres extrinsèques sont, pour l’un, estimés par recalage dans le plan de la table d’opération, et peuvent être, pour l’autre, donnés par le dispositif d’imagerie ou bien obtenus au moyen d’un système de localisation 3D optique. Le réajustement du modèle 3D décrivant initialement les données patient préopératoires non déformées est envisagé au travers d’une méthode géométrique d’estimation des déformations résultant des interactions outils/tissus en fonction des observations per-opératoires. Des acquisitions sur fantômes dans des conditions cliniques et sur données réelles ont permis d’évaluer l’approche proposée
Our work lies within the scope of the endovascular navigation (catheterization, stenting,. . . ), where complex difficulties related to the anatomical structural deformation arise when they are subjected to the introduction of relatively rigid tools (rigid guides, stent). The contribution of this thesis deals with the optimal use of intraoperative data in order to establish correspondence of preoperative (3D CT) and intraoperative (2D angiography) data within an augmented reality system for angionavigation. The establishment of this correspondence is based on the decomposition of the 3D/2D transformation (projective transformation plus 3D/3D rigid transformation) and algorithms for estimating parameters (intrinsic, extrinsic) under the constraints of the interventional environment. This approach involves a process of calibration for the intrinsic parameters of the C-arm, a decomposition of the 3D/3D rigid transformation into two transformations whereof the two sets of extrinsic parameters are, for one, a registration method restricted to the plane of the operating table, and can be, for the other, given by the imaging device or obtained through a 3D optical tracking system. The readjustment of the 3D model describing the initial nondeformed preoperative patient data is considered through a geometric method estimating deformations due to tool / tissue interactions and based on intraoperative observations. Acquisitions on phantoms under clinical conditions and real data were used to evaluate the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
18

Ouramdane, Nassima. "Vers un système d'assistance à l'interaction 3D pour le travail et le télétravail collaboratif dans les environnements de Réalité Virtuelle et Augmentée." Phd thesis, Université d'Evry-Val d'Essonne, 2008. http://tel.archives-ouvertes.fr/tel-00374961.

Full text
Abstract:
La réalité virtuelle est une discipline qui se situe à la croisée de plusieurs domaines tels que l'infographie, la simulation, la téléopération, le travail collaboratif, etc. L'interaction 3D est la composante motrice de la réalité virtuelle. Elle permet à l'utilisateur d'interagir avec les entités de l'environnement virtuel. Il existe différentes techniques d'interaction 3D qui sont dédiées aux différentes tâches d'interaction 3D à savoir la navigation, la sélection, la manipulation et le contrôle d'application. En général, la technique utilisée cherche à accomplir une tâche d'interaction 3D sans prendre en considération les exigences des environnements dédies pour la téléopération et les environnements collaboratifs. Les tâches de téléopération doivent respecter un certain nombre de contraintes, qui sont : des sélections et des manipulations sécurisées et précises. Les environnements collaboratifs sont des mondes dans lesquels les utilisateurs interagissent ensemble pour réaliser des tâches communes. La complexité de ces environnements est liée à l'interaction d'un groupe d'utilisateurs avec des entités partagées.
L'objectif de ce travail est de modéliser, de concevoir, d'implémenter et d'évaluer un système d'assistance à l'interaction 3D mono-utilisateur et multi-utilisateurs. Notre concept est centré sur l'utilisateur et ses intérêts dans le monde virtuel, il est basé sur le principe d'anticipation du geste de l'utilisateur par l'assistance de ce dernier. Notre système d'assistance peut être considéré comme un moyen de contourner les limitations de certaines techniques d'interaction 3D classiques afin de les rendre utilisables dans des contextes différents.
APA, Harvard, Vancouver, ISO, and other styles
19

Landrieu, Jeremie. "Apport des réalités virtuelles et augmentées dans la planification et le suivi in situ de travaux de rénovation." Phd thesis, Paris, ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00936702.

Full text
Abstract:
Ce mémoire de thèse de doctorat présente l'évaluation d'un système de réalité mixte dans le cadre d'une utilisation sur le site d'opération de construction. Il s'agit notamment de déterminer la pertinence d'un tel outil mobile pour des opérateurs pour les assister dans leurs tâches quotidiennes, et notamment dans la préparation et le suivi des opérations de construction ou rénovation. Cet outil se voudrait être un outil d'aide à la décision pour les maîtres d'ouvrages et maîtres d'œuvre. Le cas d'étude porte sur la rénovation virtuelle des baies anciennes (datées du XVIIIème siècle) dans une cellule des bâtiments conventuels de Cluny (Saône et Loire, France). L'approche consiste à comparer l'efficacité, la précision et la rapidité d'opérateurs dans la réalisation de tâches identiques. Trois méthodes liées à l'utilisation des nouvelles technologies dans le domaine de l'AIC (Architecture Ingénierie et Construction) sont comparées, elles ont guidé la définition du protocole expérimental. La première méthode traditionnelle fournit à l'opérateur de la documentation papier. La seconde met en œuvre la dématérialisation des données constructives, accessibles depuis un ordinateur de bureau. La troisième méthode plus innovante ajoute à la précédente l'accès colocalisé à la base de données grâce à un terminal mobile. Une étude qui a suivi a porté sur la visualisation et l'interprétation de résultats de simulation thermique, en réalité virtuelle. La comparaison des trois premières méthodes a donné lieu à une première expérimentation dont les résultats ont montré la légère prédominance du second scénario (travail sur ordinateur de bureau). Cependant, au-delà des aspects d'ergonomie et d'interface utilisateur, des investigations complémentaires doivent être menées pour étudier l'opportunité du développement du BIM in situ, c'est-à-dire l'utilisation du modèle de données du bâtiment (BIM- Building Information Model) sur le chantier.
APA, Harvard, Vancouver, ISO, and other styles
20

Veyret, Morgan. "Un guide virtuel autonome pour la description d’un environnement réel dynamique : interaction entre la peerception et la prise de décision." Brest, 2009. http://www.theses.fr/2009BRES2004.

Full text
Abstract:
Classiquement la réalité augmentée consiste en l’annotation d’objets fixes pour un utilisateur en mouvement su sein d’un environnement réel. Le travail présenté dan cette thèse porte sur i’utilisation de la réalité augmentée dans le but de décrire des objets dynamiques dont le comportement n’est que peu prévisible. Nous nous intéressons tout particulièrement aux problèmes posés par la nature dynamique de l’environnement en ce qui concerne: 17 la description du réel (adapter les explications fournies par le guide virtuel à l’évolution de l’environnement); 2’! la perception du réel (percevoir l’environnement à expliquer en temps réel à l’aide de caméras). La description du réel consiste en la génération d’un exposé par le guide virtuel. Cette génération repose sur deux points : des connaissances n priori sous la forme d’explications et un comportement décrit par un automate hiérarchique. Nous considérons la visite guidée comme l’évolution conjointe du comportement du guide virtuel et des explications qu’il fournit aux visiteurs. Une explication permet de décrire l’enchaînement d’éléments de discours sur un sujet donné à l’aide d’un graphe. Chacun de ces éléments décrit une unité de discours indivisible décrivant l’utilisation des différentes modalités (parole, gestes, expression,. . . ) sous la forme d’un script. L’exécution d’un graphe d’explication est effectuée par le comportement qui intègre la notion d’interruption. Lorsqu’un processus d’explication est interrompu, il est suspendu et le sujet courant de la visite guidée est réévalué. Cette réévaluation repose sur l’utilisation d’un ensemble d’experts votant pour les différentes explications disponibles selon un point de vue particulier. Ce vote se base sur le contexte courant de la visite guidée (historique, temps écoulé-restant,. . . ) et l’état de l’environnement réel. La perception consiste en la construction et la mise à jour d’une représentation de l’environnement. Ceci est effectué en temps réel par la coopération de différentes routines de perception. La complexité de l’environnement observé (quantité d’informations et variations des conditions d’éclairage) empêchent une analyse complète du flux vidéo. Nous proposons de surmonter ce problème par l’utilisation de stratégies de prise d’information adaptées. Ces stratégies de perception sont mises en oeuvre par certaines routines au travers du choix et du paramétrage des traitements qu’elles effectuent. Nous présentons un ensemble minimal de routines nécessaires à la construction d’une représentation de l’environnement exploitable dans le cadre de la description de cet environnement. Ce système repose sur la mise en oeuvre de trois stratégies de perception : la vigilance qui coordonne des traitements de détection dans le temps et dans l’espace; le suivi qui se charge de mettre à jour les propriétés spatiales des entités existantes dans la représentation; la reconnaissance dont le rôle est d’identifier ces entités. L’efficacité des stratégies de perception suppose une interaction entre la - prise de décision (génération de l’exposé) et la perception (construction d’une représentation de l’environnement) de notre acteur virtuel autonome. Nous proposons de mettre en oeuvre cette interaction au travers de la représentation de l’environnement et des requêtes effectuées par le processus de prise de décision sur cette représentation. Nous avons mené des expérimentations afin mettre en évidence le fonctionnement des différents aspects de notre proposition et de la valider des conditions contrôlées. Ces travaux sont appliqués à un cas concret d’environnement réel dynamique complexe au sein du projet ANR SIRENE. Cette application met en évidence les questions liées à notre problématique et montre la pertinence de notre approche dans le cadre de la présentation d’un aquarium marin d’Océanopolis
Augmented reality usually consists in the addition of virtual information to real static objects. Our proposal is to use augmented reality in order to anotate dynamic objects with non-predictable behaviors. We focus on probtems related to the dynamic aspect of the environment : 1/ describing reality (adaptating the explanations provided by the virtual guide to the evolution of the environment) ; 2/ perceiving reality (the real world using video cameras). The description of the reality is achieved through the generation of the virtual guide’s discourse. This generation is based on two aspects : n priori knowledge represented as explanations and the guide’s behavior modeled with a hierarchical state machine. We consider the guided tour as the joint evolution of this behavior and the explanations provided to the visitors. An explanation is a graph describing the organisation of a set of discourse elements for a specific subject. Each discourse element represents an atomic unit describing the use of different modalities (e. G. Speech, gestures, facial expression) as a script. The execution of an explanation graph is done by the guides behavior which manages interruptions. When an explanation process is interrupted, the current subject of the guided tour is re-evaluated. This evaluation is based on a set of experts, each one being able to vote for available explanations according to their point of view. This vote takes into consideration the current contant of tise guided tour (e. G. Tour history, elapsed/remaining time) as well as the state of the real environment. The perception of the reality consists in the creation and update of an environment representation. This is achieved in real-time by multiple cooperating perception routines. The complexity of the observed environment (e. G. Amount of available information, lighting conditions) prevents us from analysing the entire video stream provided by the cameras. We propose to ovorcome this problem by the use of appropriate perception strategies. These strategies are implemented hy specific perception routines which are able to select and parameterize computer vision treatmonts. We present a minimal set of perception routines required to build an environment representation usable by the virtual guide vigilance schedules detection in space and time; tracking updates spatial attributes of existing entities in the representation; recognition identifies existing entitïes. The effectiveness of these perception strategies depends on the interaction between the decision process (discourse generation) and the perception (the building of an environment representation) of our autonomous virtual actor. We propose to implement this interaction using the environment representation and requests of the decision process on this representation. Experiments have been carried on in order to show the different aspects of our proposition and validate it in a controlled environment. This work has been applied to a real world dynamic environment in the ANR project SIRENE. This application exhibits problems related to our issue and demonstrates the relevance of our approach in the context of the guided tour for a marine aquarium in Océanopolis
APA, Harvard, Vancouver, ISO, and other styles
21

Ajaj, Rami. "TEAMViz : systèmes multi-dispositifs, multi-vues et multi-surfaces pour la visualisation interactive de scènes 3D." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00617855.

Full text
Abstract:
Les environnements virtuels sont des espaces immersifs et intuitifs mais la conception des interfaces d'édition et de navigation y est complexe en raison de la diversité des dispositifs d'interaction et des tâches à réaliser. Les tables tactiles offrent des interactions intuitives mais proposent seulement un nombre limité de degrés de liberté. Dans le but de mieux couvrir les besoins d'interaction dans les environnements 3D, nous proposons la conception des TEAMViz (Tabletop Environment Augmented with Mural Visualization soit en français environnement tabletop augmenté par une visualisation murale). Les TEAMViz combinent des interactions réalisées au moyen d'une vue 2D d'un environnement virtuel présentée sur une table tactile et des interactions au moyen d'une vue 3D en perspective de ce même environnement projetée sur un écran vertical. La contribution principale de notre recherche est la réalisation d'une méthode de conception pour la combinaison d'interactions effectuées avec plusieurs dispositifs d'entrée sur des vues multiples présentées sur des surfaces d'affichage distinctes pour des tâches d'édition et de navigation dans un environnement virtuel. Cette méthode de conception prend en compte les relations entre les degrés de liberté des dispositifs d'entrée dans le monde réel, les tâches à réaliser et les relations entre les vues. Elle permet de combiner des interactions réalisées avec des dispositifs dont le couplage fort entre l'entrée et la sortie est requis comme dans le cas des surfaces tactiles.
APA, Harvard, Vancouver, ISO, and other styles
22

Moreau, Guillaume. "Représentation et construction des systèmes d'information par l'image." Habilitation à diriger des recherches, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00488770.

Full text
Abstract:
Nous nous intéressons au lien entre l'image numérique et un système d'information dans un cadre de conception de produit centré sur l'usager. Dans une première partie, nous nous intéressons à la perception par l'usager des environnements virtuels représentant un système d'information. La fidélité perceptive de l'environnement virtuel est étudié à plusieurs niveaux : psychophysique, fonctionnel et enfin sensible. La seconde partie est consacrée à la construction d'environnements virtuels fidèles au monde réel : nous abordons d'abord leur fidélité géométrique via la vision par ordinateur, puis la fidélité comportementale en reproduisant le comportement humain dans les environnements virtuels. Enfin, dans la dernière partie, nous proposons de considérer l'interaction entre le monde réel et le système d'information comme un système fonctionnant en boucle fermée : le système peut être représenté par des images mais aussi construit et mis à jour directement avec des images. Le domaine d'application visé est le système d'information géographique.
APA, Harvard, Vancouver, ISO, and other styles
23

Eynard, Rémy. "Investigation de l’impact de l’interaction sociale vocale sur l’expérience utilisateur dans les environnements 3D temps-réel immersif." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0013/document.

Full text
Abstract:
L’expérience utilisateur est récemment devenue un sujet central dans la conception de produits ou services. Avec la démocratisation de la Réalité Virtuelle (RV), de plus en plus d’acteurs économiques prennent conscience du potentiel de la RV dans leurs secteurs respectifs.Dans ce contexte de plus en plus dynamique, l’expérience utilisateur (UX) permet d’anticiper les attentes des utilisateurs et des concepteurs afin de proposer l’expérience la plus satisfaisante possible. De plus, au travers de l’anticipation de l’expérience utilisateur, nous sommes en mesure de prédire de plus en plus précisément le degré d’adoption d’une solution technologique par les futurs utilisateurs. Nous avons aujourd’hui compris que la seule dimension technologique n’est plus suffisante pour assurer la réussite d’un produit matériel et/ou logiciel. En revanche, ce produit doit correspondre à l’usage que l’utilisateur compte en faire, et plus encore, il doit offrir une expérience unique, au travers de sensations, de perceptions, d’émotions et de réflexion, induisant un degré de satisfaction le plus élevé possible.Un consensus est depuis longtemps établi sur le fait que jouer, créer, apprendre ensemble est plus efficace et amusant qu’une activité solitaire. Partager et communiquer est primordial, c’est au travers des interactions sociales avec nos semblables que nous sommes capables de combler nombre de nos besoins, des plus pragmatiques aux plus éthérés. Nous avons, au travers de l’étude empirique conduite dans le cadre de cette thèse, apporté une meilleure compréhension de l’impact des interactions sociales (par la modalité vocale) dans le processus d’expérience utilisateur en 3D-IVE (3D Immersive Virtual Environment). À l’aide d’un état de l’art s’appuyant sur les études existantes de l’impact de l’interaction sociale sur la présence virtuelle (sentiment d’être là) ou l’engagement de l’utilisateur (flow). Nous proposons une vision plus holistique de cet impact par une étude centrée sur l’expérience utilisateur globale.Pour ce faire, nous avons conduit trois expérimentations immergeant des binômes d’utilisateurs dans un 3D-IVE. Par la répartition des participants en deux échantillons, l’un étant en mesure de communiquer vocalement, l’autre ne l’étant pas, nous avons pu comparer des données quantitatives et qualitatives afin de mettre en exergue l’impact des interactions sociales (vocales) sur l’expérience vécue. Les résultats quantitatifs obtenus ont confirmé nos postulats quant à l’impact bénéfique de l’interaction sociale (vocale) sur les performances des utilisateurs. Fait surprenant, nous avons aussi observé que la présence virtuelle ressentie tendait à être plus forte lorsque les participants, ne pouvant pas communiquer vocalement, se complétaient par le phénomène naturel de « translucence ». Toutefois, nous avons dû pondérer ces résultats, eu égard aux groupes de discussion qui ont fait émerger des différences d’appréhension de la performance, de la présence virtuelle et sociale. Cette triangulation entre quantitatif objectif, quantitatif subjectif et qualitatif a confirmé la nature variable de l’UX (en fonction de l’utilisateur et du temps) et l’influence forte de la nature de l'activité de l’expérimentation.Nos travaux ont permis de valider la capacité des environnements immersifs simples (logiciel de jeu Minecraft) à générer un bon niveau de présence virtuelle et d’engagement et, de manière générale, un haut niveau de satisfaction chez les utilisateurs. Nous apportons aussi un éclairage sur les méthodes à employer dans ce type de contexte vis-à-vis de la conception des tâches à accomplir; en effet, une même tâche présentée différemment peut induire une expérience assez dissemblable. Malgré la difficulté à généraliser un résultat dû à la nature très variable de l’expérience utilisateur, nous pensons que nos travaux contribueront à une plus grande compréhension de l’impact des interactions sociales vocales sur l’UX dans les 3D-IVEs
User experience has recently become a central issue regarding to the design of products or services. With the democratization of Virtual Reality (VR), more and more economic actors start to being aware of the potential of VR in their respective sectors.In this increasingly dynamic context, user experience (UX) allows the anticipation of users’ and designers’ expectations in order to offer the most satisfying experience as possible. In addition, through the anticipation of user experience, we are able to predict more precisely the adoption level of a technological solution by future users. We have understood today that the only technological dimension is no longer enough to ensure the success of a hardware and/or software product. However, this must fit to the use that user will have of it, and more, it must provide a unique experience, through sensations, perceptions, emotions and thinking, inducing the highest satisfaction possible.A consensus has been established since a long time about the fact that play, create, learn together are more effective and fun than a lonely activity. Share and communicate is a primary need, it is through social interactions with our peers that we are able to fulfill many of our needs, from the most pragmatic to the most ethereal. We have, through the empirical study conducted as part of this thesis, brought a better understanding of the impact of social interactions (vocal mode) on the user experience process in a 3D-IVE (3D Immersive Virtual Environment). Through a literature review based on existing studies of the impact of social interaction on virtual presence (feeling of being there) or on users’ engagement (flow), we propose a more holistic view of this impact by a study focused on the overall user experience.With this aim, we have conducted three experiments immersing pairs of users in a 3D-IVE. By the division of participants into two samples, one being able to vocally communicate, the other not being so, we were able to compare quantitative and qualitative data to highlight the impact of social interactions (voice) on the user experience. Obtained quantitative results have confirmed our assumptions regarding the beneficial impact of social interaction (voice) on user performance. Surprisingly, we also observed that the perceived virtual presence tended to be higher when participants that were not able to communicate vocally, relied on the natural phenomenon of “translucence”. However, we had to balance these results, given to focus groups that have arisen differences regarding to the apprehension of performances, virtual and social presence. This triangulation between objective quantitative, subjective quantitative and qualitative data has confirmed the variable nature of the UX (depending on the user and time) and the strong influence of the nature of the activity of the experimentation.Our studies have validated the ability of simple immersive environments (Minecraft game software) to generate a high level of virtual presence and engagement, and in general, a high level of satisfaction among users. We also provide an insight into methods to be used in this type of context regarding to the design of tasks. Indeed, the same task presented differently can induce a quite dissimilar experience. Despite the difficulty to generalize a result due to the highly variable nature of user experience, we believe that our work will contribute to a greater understanding of the impact of vocal social interactions on UX in 3D-IVEs
APA, Harvard, Vancouver, ISO, and other styles
24

Bouali, Anis. "Métatechnologies : interdépendance entre le niveau d'hypermédiatisation et la prise en compte (écosophique) du vivant." Paris 8, 2012. http://octaviana.fr/document/185435416#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
En cherchant quelques acceptions du néologisme « métatechnologie », nous avons été frappés de voir que sa réalisation pouvait être considérée, tel l’avènement du « tout-numérique » comme celui d’un processus totalitaire. Lewis Munford (Mumford, trad. 1973, p. 2) a-t-il délibérément pris cette position comme « contre-utopie » ou, à l’instar de 1984 d’Orwell, en réaction aux attentes utopistes déçues en 1948 ? L’année de référence constitue un indice conjoncturel : 1967, un an avant la mémorable année 1968. Par conséquent, dans une situation qui s'éloigne de plus en plus de la linéarité, il apparaît que les Sciences et Technologies de l'Information et de la Communication (S. T. I. C)1, peuvent être considérées en tant que perfectionnements instrumentaux dans la mesure où leur technicité s'appuie conjointement sur une connaissance ascendante des sciences humaines. Au seuil critique qu'elles ont atteint, elles restructurent non seulement le champ des technologies, mais l'ensemble des nos faits et gestes individuels et collectifs, à tous les niveaux et dans tous les domaines. Un des principaux objectifs de notre recherche est d’appréhender lucidement en quoi les technologies contribuent à libérer l’être humain mais, aussi, pour partir à le conditionner et à l’asservir. Aussi notre projet homme-métatechnologies-machine s’intitule significativement « HandiTech »
By seeking some meanings of the neologism “metatechnology”, we were struck to see that its realization could to be considered, the such advent of “all-digital” like that of a totalitarian process. Did Lewis Munford (Mumford, transl. 1973, p. 2) deliberately give this opinion like “against-Utopia” or, following the example of 1984 of Orwell, in reaction to waiting’s utopians disappointed in 1948? The year under review constitutes an index of the economic situation: 1967, one year before the memorable year 1968. Consequently, in a situation which moves away more and more from the linearity, it appears that Science Information and Communication Technologies (S. I. T. C), can be considered as instrumental improvements insofar as their technicality is based jointly on an ascending knowledge of the social sciences. With the threshold criticizes that they reached, they restructure not only the field of the technologies, but the whole of our individual and collective actions, on all the levels and in all fields. One of the principal objectives of our research is to lucidly apprehend in what technologies contribute to release the human being but, also, to leave to condition it and to control it. Also our man-metatechnology-machine project is entitled significantly “HandiTech”
APA, Harvard, Vancouver, ISO, and other styles
25

Abdel-Razek, Abdul-Rahman. "Impacts des technologies immersives sur Prototypage de services : Examiner les performances, l'expérience et l'acceptation des différentes formes de prototype de service." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE038.

Full text
Abstract:
De nos jours, le prototypage est largement utilisé dans l'industrie pour explorer des alternatives de conception en impliquant toutes les parties prenantes du projet. Cela est particulièrement vrai au stade antérieur du processus de conception lors des activités de Co-création et d'exploration. Cependant, les prototypes ont différentes formes, telles que : des formes physiques comme des maquettes, souvent basées sur l'impression 3D, ou des formes virtuelles basées sur des technologies immersives comme la réalité virtuelle (VR), la réalité augmentée (AR) ou même la réalité mixte (MR). Le principal avantage du prototypage a été synthétisé dans une phrase simple, exprimée par John Meada, un ancien professeur du MIT : « Si une image vaut mille mots, un prototype vaut mille réunions », cité par Banfield et al. (2017). Plus récemment, le secteur des services a également commencé à adopter le prototypage pour explorer des alternatives de conception de services (Blomkvist, 2014). Cela implique différents niveaux de complexité de service, tels que : conseil en ligne, configurateurs de machines et simulateurs pour la formation des opérateurs de machines ou plus simplement des conseils de montage et de démontage. Néanmoins, le corpus actuel de connaissances sur le prototypage de services manque de comparaison entre les formes de prototype de service (SP) - conventionnelles et immersives - qui aideraient les entreprises du secteur des services à sélectionner la forme de SP la plus appropriée. Dans ce contexte du secteur des services, notre enquête vise à apporter de nouvelles connaissances sur l'impact potentiel des technologies immersives sur la SP. Dans l'ensemble, cela aiderait les organisations de services à expérimenter une idée de service avant même que ce service existe réellement ou à prévoir la forme de SP la plus appropriée en fonction de leur contexte spécifique et du degré de complexité du service.Une revue de la littérature a été réalisée afin d'identifier les facteurs d'impact objectifs et subjectifs potentiels. Notre modèle théorique d'adoption de SP créé permet de comparer différentes formes de prototypes de services en fonction de leurs performances respectives en termes d'achèvement, d'erreurs et de perception de l'utilisation. Ce modèle a été utilisé pour concevoir une expérience, qui implique des méthodes mixtes, permettant de collecter une quantité suffisante de données quantitatives pour exécuter une approche formative d'analyse statistique pour valider notre modèle d'adoption de SP. Tout d'abord, notre étude empirique a permis de valider notre modèle d'adoption de SP. Deuxièmement, il a dévoilé l'impact positif des technologies immersives sur le prototypage de services pour obtenir une expérience anticipée avant la mise en œuvre d'un service. Troisièmement, il a révélé les performances supérieures des formes AR et MR-SP par rapport aux formes VR et SP conventionnelles. Enfin, outre le fait évident que seules les formes AR et MR-SP permettent d'apprendre simultanément une opération de service, la forme VR-SP est celle qui présente le score d'immersion et d'adoption le plus élevé, notamment parce qu'elle permet d'explorer un service avant qu'il n'existe réellement
Nowadays, prototyping is widely used in the industry for exploring design alternatives by engaging all project stakeholders. This is especially true at the earlier stage of the design process during both co-creation and exploration activities. However, prototypes have different forms, such as: physical forms like mock-ups, often based on 3D-printing, or virtual forms based on immersive technologies like Virtual Reality (VR), Augmented Reality (AR) or even Mixed Reality (MR). The main advantage of prototyping has been synthesized in a simple sentence, expressed by John Meada, a former MIT professor: “If a picture is worth a thousand words, a prototype is worth a thousand meetings”, cited by Banfield et al. (2017). More recently, the service sector has started to also adopt prototyping for exploring service design alternatives (Blomkvist, 2014). This involves different levels of service complexity, such as: online consultancy, machine configurators, and simulators for the training of machine operators or more simply assembly and disassembly guidance. Nevertheless, the current body of knowledge on Service Prototyping is lacking comparison among Service Prototype (SP) forms - conventional versus immersive - that would help businesses in the service sector to select the most appropriate SP form. In this context of the service sector, our investigation aims to bring new knowledge about the potential impact of immersive technologies on SP. Overall, it would help service organizations to experience a service idea even before this service really exists or to foresee which SP form is the most appropriate according to their specific context and degree of service complexity.A literature review was carried out in order to identify potential objective and subjective impact factors. Our created theoretical SP adoption model allows comparing different forms of Service Prototypes according to their respective performance in terms of completion, errors, and usage perception. This model was used to design an experiment, which involves mixed methods, allowing collecting a sufficient amount of quantitative data for running a statistical analysis formative approach for validating our SP adoption model. First of all, our empirical study has allowed validating our SP adoption model. Secondly, it has unveiled the positive impact of immersive technologies on service prototyping for getting an anticipated experience before a service is implemented. Thirdly, it has revealed the higher performance of AR- and MR-SP forms compared to VR and conventional SP forms. Finally, besides the obvious fact that only AR- and MR-SP forms allow to simultaneously learn a service operation, the VR-SP form is the one exhibiting the highest immersiveness and adoption score, especially because it allows exploring a service before it really exists
APA, Harvard, Vancouver, ISO, and other styles
26

Braux-Zin, Jim. "Contributions aux problèmes de l'étalonnage extrinsèque d'affichages semi-transparents pour la réalité augmentée et de la mise en correspondance dense d'images." Thesis, Clermont-Ferrand 1, 2014. http://www.theses.fr/2014CLF1MM13/document.

Full text
Abstract:
La réalité augmentée consiste en l'insertion d'éléments virtuels dans une scène réelle, observée à travers un écran. Les systèmes de réalité augmentée peuvent prendre des formes différentes pour obtenir l'équilibre désiré entre trois critères : précision, latence et robustesse. On identifie trois composants principaux : localisation, reconstruction et affichage. Nous nous concentrons sur l'affichage et la reconstruction. Pour certaines applications, l'utilisateur ne peut être isolé de la réalité. Nous proposons un système sous forme de "tablette augmentée" avec un écran semi transparent, au prix d'un étalonnage adapté. Pour assurer l'alignement entre augmentations et réalité, il faut connaître les poses relatives de l'utilisateur et de la scène observée par rapport à l'écran. Deux dispositifs de localisation sont nécessaires et l'étalonnage consiste à calculer la pose de ces dispositifs par rapport à l'écran. Le protocole d'étalonnage est le suivant : l'utilisateur renseigne les projections apparentes dans l'écran de points de référence d'un objet 3D connu ; les poses recherchées minimisent la distance 2D entre ces projections et celles calculées par le système. Ce problème est non convexe et difficile à optimiser. Pour obtenir une estimation initiale, nous développons une méthode directe par l'étalonnage intrinsèque et extrinsèque de caméras virtuelles. Ces dernières sont définies par leurs centres optiques, confondus avec les positions de l'utilisateur, ainsi que leur plan focal, constitué par l'écran. Les projections saisies par l'utilisateur constituent alors les observations 2D des points de référence dans ces caméras virtuelles. Un raisonnement symétrique permet de considérer des caméras virtuelles centrées sur les points de référence de l'objet, "observant" les positions de l'utilisateur. Ces estimations initiales sont ensuite raffinées par ajustement de faisceaux. La reconstruction 3D est basée sur la triangulation de correspondances entre images. Ces correspondances peuvent être éparses lorsqu'elles sont établies par détection, description et association de primitives géométriques ou denses lorsqu'elles sont établies par minimisation d'une fonction de coût sur toute l'image. Un champ dense de correspondance est préférable car il permet une reconstruction de surface, utile notamment pour une gestion réaliste des occultations en réalité augmentée. Les méthodes d'estimation d'un tel champ sont basées sur une optimisation variationnelle, précise mais sensible aux minimums locaux et limitée à des images peu différentes. A l'opposé, l'emploi de descripteurs discriminants peut rendre les correspondances éparses très robustes. Nous proposons de combiner les avantages des deux approches par l'intégration d'un coût basé sur des correspondances éparses de primitives à une méthode d'estimation variationnelle dense. Cela permet d'empêcher l'optimisation de tomber dans un minimum local sans dégrader la précision. Notre terme basé correspondances éparses est adapté aux primitives à coordonnées non entières, et peut exploiter des correspondances de points ou de segments tout en filtrant implicitement les correspondances erronées. Nous proposons aussi une détection et gestion complète des occultations pour pouvoir mettre en correspondance des images éloignées. Nous avons adapté et généralisé une méthode locale de détection des auto-occultations. Notre méthode produit des résultats compétitifs avec l'état de l'art, tout en étant plus simple et plus rapide, pour les applications de flot optique 2D et de stéréo à large parallaxe. Nos contributions permettent d'appliquer les méthodes variationnelles à de nouvelles applications sans dégrader leur performance. Le faible couplage des modules permet une grande flexibilité et généricité. Cela nous permet de transposer notre méthode pour le recalage de surfaces déformables avec des résultats surpassant l'état de l'art, ouvrant de nouvelles perspectives
Augmented reality is the process of inserting virtual elements into a real scene, observed through a screen. Augmented Reality systems can take different forms to get the desired balance between three criteria: accuracy, latency and robustness. Three main components can be identified: localization, reconstruction and display. The contributions of this thesis are focused on display and reconstruction. Most augmented reality systems use non-transparent screens as they are widely available. However, for critical applications such as surgery or driving assistance, the user cannot be ever isolated from reality. We answer this problem by proposing a new “augmented tablet” system with a semi-transparent screen. Such a system needs a suitable calibration scheme:to correctly align the displayed augmentations and reality, one need to know at every moment the poses of the user and the observed scene with regard to the screen. Two tracking devices (user and scene) are thus necessary, and the system calibration aims to compute the pose of those devices with regard to the screen. The calibration process set up in this thesis is as follows: the user indicates the apparent projections in the screen of reference points from a known 3D object ; then the poses to estimate should minimize the 2D on-screen distance between those projections and the ones computed by the system. This is a non-convex problem difficult to solve without a sane initialization. We develop a direct estimation method by computing the extrinsic parameters of virtual cameras. Those are defined by their optical centers which coincide with user positions, and their common focal plane consisting of the screen plane. The user-entered projections are then the 2D observations of the reference points in those virtual cameras. A symmetrical thinking allows one to define virtual cameras centered on the reference points, and “looking at” the user positions. Those initial estimations can then be refined with a bundle adjustment. Meanwhile, 3D reconstruction is based on the triangulation of matches between images. Those matches can be sparse when computed by detection and description of image features or dense when computed through the minimization of a cost function of the whole image. A dense correspondence field is better because it makes it possible to reconstruct a 3D surface, useful especially for realistic handling of occlusions for augmented reality. However, such a field is usually estimated thanks to variational methods, minimizing a convex cost function using local information. Those methods are accurate but subject to local minima, thus limited to small deformations. In contrast, sparse matches can be made very robust by using adequately discriminative descriptors. We propose to combine the advantages of those two approaches by adding a feature-based term into a dense variational method. It helps prevent the optimization from falling into local minima without degrading the end accuracy. Our feature-based term is suited to feature with non-integer coordinates and can handle point or line segment matches while implicitly filtering false matches. We also introduce comprehensive handling of occlusions so as to support large deformations. In particular, we have adapted and generalized a local method for detecting selfocclusions. Results on 2D optical flow and wide-baseline stereo disparity estimation are competitive with the state of the art, with a simpler and most of the time faster method. This proves that our contributions enables new applications of variational methods without degrading their accuracy. Moreover, the weak coupling between the components allows great flexibility and genericness. This is the reason we were able to also transpose the proposed method to the problem of non-rigid surface registration and outperforms the state of the art methods
APA, Harvard, Vancouver, ISO, and other styles
27

Veyret, Morgan. "Un guide virtuel autonome pour la description d'un environnement réel dynamique: interaction entre la perception et la prise de décision." Phd thesis, Université de Bretagne occidentale - Brest, 2009. http://tel.archives-ouvertes.fr/tel-00376176.

Full text
Abstract:
Classiquement la réalité augmentée consiste en l'annotation d'objets fixes pour un utilisateur en mouvement au sein d'un environnement réel. Le travail présenté dans cette thèse porte sur l'utilisation de la réalité augmentée dans le but de décrire des objets dynamiques dont le comportement n'est que peu prévisible. Nous nous intéressons tout particulièrement aux problèmes posés par la nature dynamique de l'environnement en ce qui concerne: 1°/ la description du réel (adapter les explications fournies par le guide virtuel à l'évolution de l'environnement) ; 2°/ la perception du réel (percevoir l'environnement à expliquer en temps réel à l'aide de caméras).
La description du réel consiste en la génération d'un exposé par le guide virtuel. Cette génération repose sur deux points: des connaissances a priori sous la forme d'explications et un comportement décrit par un automate hiérarchique. Nous considérons la visite guidée comme l'évolution conjointe du comportement du guide virtuel et des explications qu'il fournit aux visiteurs. Une explication permet de décrire l'enchaînement d'éléments de discours sur un sujet donné à l'aide d'un graphe. Chacun de ces éléments décrit une unité de discours indivisible décrivant l'utilisation des différentes modalités (parole, gestes, expression, ...) sous la forme d'un script. L'exécution d'un graphe d'explication est effectuée par le comportement qui intègre la notion d'interruption. Lorsqu'un processus d'explication est interrompu, il est suspendu et le sujet courant de la visite guidée est réévalué. Cette réévaluation repose sur l'utilisation d'un ensemble d'experts votant pour les différentes explications disponibles selon un point de vue particulier. Ce vote se base sur le contexte courant de la visite guidée (historique, temps écoulé/restant, ...) et l'état de l'environnement réel.
La perception consiste en la construction et la mise à jour d'une représentation de l'environnement. Ceci est effectué en temps réel par la coopération de différentes routines de perception. La complexité de l'environnement observé (quantité d'informations et variations des conditions d'éclairage) empêchent une analyse complète du flux vidéo. Nous proposons de surmonter ce problème par l'utilisation de stratégies de prise d'information adaptées. Ces stratégies de perception sont mises en oeuvre par certaines routines au travers du choix et du paramétrage des traitements qu'elles effectuent. Nous présentons un ensemble minimal de routines nécessaires à la construction d'une représentation de l'environnement exploitable dans le cadre de la description de cet environnement. Ce système repose sur la mise en oeuvre de trois stratégies de perception: la vigilance qui coordonne des traitements de détection dans le temps et dans l'espace; le suivi qui se charge de mettre à jour les propriétés spatiales des entités existantes dans la représentation; la reconnaissance dont le rôle est d'identifier ces entités. L'efficacité des stratégies de perception suppose une interaction entre la prise de décision (génération de l'exposé) et la perception (construction d'une représentation de l'environnement) de notre acteur virtuel autonome. Nous proposons de mettre en oeuvre cette interaction au travers de la représentation de l'environnement et des requêtes effectuées par le processus de prise de décision sur cette représentation.
Nous avons mené des expérimentations afin mettre en évidence le fonctionnement des différents aspects de notre proposition et de la valider des conditions contrôlées. Ces travaux sont appliqués à un cas concret d'environnement réel dynamique complexe au sein du projet ANR SIRENE. Cette application met en évidence les questions liées à notre problématique et montre la pertinence de notre approche dans le cadre de la présentation d'un aquarium marin d'Océanopolis.
APA, Harvard, Vancouver, ISO, and other styles
28

Ferland, François. "Interfaces graphiques tridimentionnelles de téléopération de plateformes robotiques mobiles." Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1475.

Full text
Abstract:
Les besoins grandissant en santé rendent des technologies comme la téléprésence à domicile de plus en plus intéressantes. Cependant, dans le domaine des interfaces humains-machines, il est souvent noté que négliger la façon dont est présentée l'information provenant du robot peut nuire à l'opérateur dans sa compréhension de la situation, ce qui entraîne une efficacité réduite. C'est en considérant la façon dont est traitée l'information chez l'opérateur que nous arriverons à développer une interface permettant d'allouer le maximum des capacités cognitives de l'opérateur à la tâche. De plus, les développements récents de matériel à haute performance et à coûts réduits nous permettent de mettre en oeuvre des techniques modernes de traitement d'images en temps réel. Nous proposons donc de développer un système flexible pour étudier les différentes façons de présenter l'information pertinente à la navigation efficace d'une plateforme robotique mobile. Ce système est basé sur une reconstruction en trois dimensions de l'environnement parcouru à partir des lectures de capteurs retrouvés couramment sur ces plateformes. De plus, l'utilisation d'une caméra vidéo stéréoscopique permet de reproduire l'effet de perspective tel qu'une personne sur place le percevrait. La présence d'un flux vidéo est souvent appréciée par les opérateurs et nous croyons que d'ajouter la profondeur dans notre reproduction de celui-ci est un avantage. Finalement, la caméra virtuelle de l'interface peut être continuellement réorientée de façon à fournir une perspective soit égocentrique, soit exocentrique, selon les préférences de l'opérateur. Nous validons l'utilisation de ce système en évaluant selon différentes métriques les performances d'opérateurs, autant néophytes qu'experts en robotique mobile, de façon à bien cibler les besoins fonctionnels de ce genre d'interfaces et leurs évaluations avec des populations-cibles. Nous croyons que la flexibilité quant au positionnement de la caméra virtuelle de l'interface demeure l'aspect le plus important du système. En effet, nous nous attendons â ce que cela permette à chaque opérateur d'adapter l'interface à ses préférences et les tâches en cours pour qu'il effectue son travail le plus efficacement possible. Bien que nous n'incluons pas de tâches spécifiques au domaine de la télésanté dans nos expérimentations, nous croyons que les observations de ce travail quant à la téléopération en général pourront s'appliquer éventuellement à ce domaine en particulier.
APA, Harvard, Vancouver, ISO, and other styles
29

Ouellet, Etienne. "Représentation et manipulation de données de simulation dans un environnement virtuel immersif." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28502/28502.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Otis, Martin J. D. "Analyse, commande et intégration d'un mécanisme parallèle entraîné par des câbles pour la réalisation d'une interface haptique comme métaphore de navigation dans un environnement virtuel." Doctoral thesis, Université Laval, 2009. http://hdl.handle.net/20.500.11794/21963.

Full text
Abstract:
Un domaine de la recherche en ingénierie des systèmes est de développer des systèmes supervisés semi-autonomes qui interagissent à un très haut niveau avec l'humain. Ces systèmes intelligents ont les capacités d'analyser et de traiter certaines informations pour produire un comportement général observable par les capacités sensorielles et temporelles de l'humain. Il est donc nécessaire de définir un environnement créatif qui interface efficacement l'humain aux informations pour rendre de nouvelles expériences multi-sensorielles optimisant et facilitant la prise de décision. En d'autres mots, il est possible de définir un système multi-sensoriel par sa capacité à augmenter l'optimisation de la prise de décision à l'aide d'une interface qui définit un environnement adapté à l'humain. Un système haptique dans un environnement virtuel incluant une collaboration et une interaction entre l'humain, les mécanismes robotisés et la physique de la réalité virtuelle est un exemple. Un système haptique doit gérer un système dynamique non-linéaire sous-contraint et assurer sa stabilité tout en étant transparent à l'humain. La supervision de l'humain permet d'accomplir des tâches précises sans se soucier de la complexité de la dynamique d'interactions alors que le système gère les différents problèmes antagonistes dont de stabilité (délai de la communication en réseau, stabilité des rendus, etc.), de transparence et de performance. Les travaux de recherche proposés présentent un système multi-sensoriel visuo-haptique qui asservisse l'interaction entre l'humain, un mécanisme et la physique de l'environnement virtuel avec une commande bilatérale. Ce système permet à l'humain de réaliser des fonctions ou des missions de haut niveau sans que la complexité de la dynamique d'interaction limite la prise de décision. Plus particulièrement, il sera proposé de réaliser une interface de locomotion pour des missions de réadaptation et d'entraînement. Ce projet, qui est nommé NELI (Network Enabled Locomotion Interface), est divisé en plusieurs sous-systèmes dont le mécanisme entraîné par des câbles nommé CDLI ( Cable Driven Locomotion Interface ), le système asservi avec une commande bilatérale qui assure le rendu de la locomotion, la réalité virtuelle qui inclut la physique de l'environnement, le rendu haptique et le rendu visuel. Dans un premier temps, cette thèse propose une méthode qui assure la qualité de la réponse de la transmission en augmentant la transparence dynamique de l'asservissement articulaire d'une manière automatique. Une approche d'optimisation, basée sur une amélioration des Extremum Seeking Tuning, permet d'ajuster adéquatement les paramètres des régulateurs et définit le critère de l'assurance qualité dans le cas d'une production massive. Cet algorithme est ensuite utilisé, pour étudier le rendu d'impédance avec l'aide de la modélisation d'un câble et de l'enrouleur. Cette modélisation permet de définir un asservissement articulaire hybride qui est utilisé dans la commande hybride cartésienne afin d'assurer le rendu haptique. Dans un troisième temps, dans un contexte de sécurité, la gestion des interférences entre les pièces mécaniques de l'interface de locomotion est décrite avec une méthode d'estimation des collisions des câbles. Une démonstration des interférences entre les câbles de deux plates-formes est simulée démontrant la faisabilité de l'approche. Finalement, la définition d'un moteur physique par un rendu haptique hybride au niveau de la commande cartésienne est présentée en considérant la géométrie des points de contact entre le modèle du pied virtuel et un objet virtuel. Cette approche procure la stabilité d'interaction recherchée lors de la simulation d'un contact infiniment rigide. Un robot marcheur de marque Kondo est embarqué sur l'interface de locomotion pour interagir avec les objets virtuels. Les résultats de la marche du robot dans l'environnement virtuel concrétisent le projet et servent de démonstrateur technologique.
APA, Harvard, Vancouver, ISO, and other styles
31

Bettaieb, Ghada. "Importance des facteurs d'accès dans l'expérience d'immersion et de présence dans un nouvel environnement commercial en ligne." Thesis, Lille 2, 2018. http://www.theses.fr/2018LIL2D019/document.

Full text
Abstract:
S’inscrivant à l’intersection des champs du marketing expérientiel et des théories des systèmes d’information et d’interaction homme-machine, ce travail de recherche doctorale étudie les spécificités de l’expérience de shopping dans un environnement commercial en 3D enrichi de dispositifs de réalité virtuelle. Particulièrement, il étudie les facteurs d’accès à l’expérience d’immersion et de présence dans cet environnement et ses conséquences sur les intentions comportementales. La revue de la littérature et la phase qualitative triangulée ont permis de mettre en évidence l’importance de trois facteurs clés d’accès à l’expérience et à son enrichissement ainsi que le rôle central du processus immersion – présence. Une expérimentation mise en oeuvre dans un « véritable » environnement commercial en 3D nous a permis d’étudier de manière concomitante les effets des différents facteurs à savoir : la navigabilité du site web (par le biais d’une manipulation liée à la présence/l’absence d’un map interactif), la richesse sensorielle de l’environnementcommercial (par le biais de la manipulation des couleurs et de la musique diffusée) et la sociabilité (par le biais de la manipulation de la présence/l’absence d’un vendeur virtuel) sur l’immersion sensorielle et la présence. Les conséquences sur les intentions comportementales ont également été investiguées. Les contributions théoriques, méthodologiques et managériales sont nombreuses
As part of the intersection of the fields of experiential marketing and the theories of information systems and human-computer interaction, this doctoral research work investigates the specificities of the shopping experience in a 3D commercial environment enriched with virtual reality devices. In particular, it studies the factors of access to the immersion and presence experience in thisenvironment and its consequences on behavioral intentions. The review of the literature and the triangulated qualitative phase made it possible to highlight the importance of three key factors of access to the experience and its enrichment as well as the central role of the immersion - presence process. An experiment implemented in a "real" commercial environment in 3D allowed us to studyconcomitantly the effects of the various factors namely: the navigability of the website (through a manipulation related to the presence / l lack of an interactive map), the sensory wealth of the commercial environment (through the manipulation of colors and diffused music) and sociability (through the manipulation of the presence / absence of 'a virtual seller) on sensory immersion and presence. The consequences on behavioral intentions have also been investigated. Theoretical,methodological and managerial contributions are numerous
APA, Harvard, Vancouver, ISO, and other styles
32

Simon, Gilles. "Vers un système de réalité augmentée autonome." Nancy 1, 1999. http://docnum.univ-lorraine.fr/public/SCD_T_1999_0272_SIMON.pdf.

Full text
Abstract:
Le concept de réalité augmentée (ra) vise à accroitre la perception du monde réel en y ajoutant des éléments non perceptibles a priori par l'il humain. Un des problèmes majeurs qui se pose dans ce type d'études est de pouvoir déterminer le point de vue adopté pour chaque prise de vue afin d'incruster l'objet de synthèse au bon endroit. Nous proposons pour cela une méthode à deux niveaux prenant en compte des appariements modèle/image de courbes quelconques. Cette méthode est robuste à la présence d'occultations dans l'image, ainsi qu'aux erreurs pouvant se produire lors du suivi des primitives images. Elle s'inscrit dans un système de recalage temporel autonome et séquentiel. Cette méthode a fonctionné bien dans la plupart des cas, mais lorsque l'objet de référence est petit par rapport à la distance objet-camera, le calcul du point de vue devient moins précis. Pour pallier ce problème, nous utilisons des appariements de points d'intérêt entre images consécutives de la séquence. Le point de vue de la camera est alors calculé en minimisant une fonction de cout qui tient compte à la fois des appariements modèle/image de courbes et des appariements image/image de points. Enfin, nous prenons en compte les changements de paramètres intrinsèques de la camera qui peuvent se produire au cours de la séquence. Les méthodes optimisant à la fois les paramètres internes et le déplacement de la camera étant instables, nous avons opté pour un partitionnement automatique de la séquence en zooms et mouvements de camera. Les paramètres de l'optimisation dépendent alors du type de plan considéré. Ces méthodes sont validées aussi bien sur des données synthétiques que sur des applications en vraie grandeur, comme le projet d'illumination artificielle des ponts de Paris.
APA, Harvard, Vancouver, ISO, and other styles
33

Soufflard, Gauthier. "Réalité augmentée et droits fondamentaux." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/29809.

Full text
Abstract:
L’objet de ce mémoire est d’étudier les relations entre les droits fondamentaux à travers l’usage de la réalité augmentée, et donc également les relations entre les droits fondamentaux et la réalité augmentée. Ce faisant, cela permet d’observer comment les droits fondamentaux, qui ont su évoluer face au numérique, sont susceptibles de s’adapter à la réalité augmentée, une technologie qui, bien qu’à ses balbutiements à l’heure de la rédaction de ce travail, s’avère novatrice, pleine de promesses mêlant réel et virtuel. A travers l’étude de la jurisprudence dans les univers physique et numérique, ce travail essayera de déduire les principes applicables à la réalité augmentée et ceux nécessiteront d’être adaptés par le juge, afin d’être au mieux garantis.
APA, Harvard, Vancouver, ISO, and other styles
34

Ballay, Jean-François. "Disparition de l'homme et machinerie humaine sur le scène contemporaine. Denis Marleau, Heiner Goebbels, Jean-François Perret." Thesis, Paris 3, 2012. http://www.theses.fr/2012PA030116.

Full text
Abstract:
L’acteur est-t-il l’objet d’une nouvelle mise en cause radicale, un siècle après Maeterlinck, Jarry et Craig ? La discussion prend aujourd’hui une tournure inédite. Il ne s’agit plus d’écarter l’homme de la scène pour le remplacer par une marionnette idéale. Les acteurs artificiels, avatars, robots et autres doubles, semblent désormais pouvoir devenir autonomes. La question n’est pas seulement : qu’est-ce qui manque, lorsque l’acteur manque ? Mais aussi, qu’est-ce qui ne manque pas ? Pour étudier ce sujet, cette thèse s’appuie sur trois œuvres qui ont fait événement à l’orée du XXIe siècle : Les Aveugles de Denis Marleau, Stifters Dinge de Heiner Goebbels, et Re : Walden de Jean-François Peyret. Elle introduit la conjecture anthropologique d’une « disparition » de l’homme. Expression problématique, qui est à entendre de prime abord au sens d’un retrait ou d’une instrumentation de l’acteur, mais qui sous-tend en arrière-plan d’autres enjeux : brouillage des frontières entre vivant et artificiel, perte du lien au monde, déclin de l’humanisme, effondrement écologique. Si l’homme devait disparaître, c’est peut-être au théâtre qu’il résisterait le plus longtemps à sa disparition. Mais la proposition peut s’inverser : n’est-ce pas là qu’il ne cesse de s’effacer avec le plus d’ostentation, jouant depuis toujours avec les oppositions apparence / réalité, apparition / disparition ? La thèse explore ces problématiques, en s’intéressant aussi bien à la scénographie, à la dramaturgie, à la relation acteur spectateur, et aux nouvelles machines qui transfigurent le dispositif scénique en une anamorphose visuelle, sonore, éminemment troublante, de l’être humain en train de disparaître
Is the actor thrown back into doubt again, one century after Maeterlinck, Craig and Jarry ? The topic happens to be brought up to date. But the purpose is no longer to get rid of the actor, so that he could be replaced by puppets. Artificial actors, like avatars, robots and other doubles, are likely to get their autonomy soon, on stage. The question is not only : what is missing, when the actor is missing ? But also, what is not missing ? This thesis is based upon three performances that stroke the minds on the first decade of the 21st century : Les Aveugles by Denis Marleau, Stifters Dinge by Heiner Goebbels, and Re :Walden by Jean-François Peyret. Our conjecture is about human disappearing on stage, with a special focus on anthropological aspects. The notion of « disappearing » means, at first sight, the withdrawing of actors, but we show that other deep challenges stand in the background : body instrumentation, interferences between life and artificial, disconnection to the phenomenal world, mankind decline and ecological disasters. If the human being is supposed to disappear soon, it’s probably on theatre stage that he will stand for a while. At the same time, isn’t it on stage that he has been playing for ever with appearing and disappearing, reality and illusion ? This thesis explores these problems, dealing with all the aspects : scenography, dramaturgy, actors and spectators, technology and new machines that are completely transforming the stage into a visual, sound, and highly confusing anamorphosis, by which the human being is involved in a vanishing process
APA, Harvard, Vancouver, ISO, and other styles
35

Bayart, Benjamin. "Réalité augmentée haptique : théorie et applications." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00419724.

Full text
Abstract:
Dans cette thèse, nous introduisons le concept de Réalité Augmentée Haptique (RAH) en définissant une taxonomie à deux axes. Le premier dénommé Haptique Augmentée (HA) représente l'ensemble des applications qui modifient/augmentent une donnée haptique existante. Le second axe, appelé Augmentation Haptique (AH), considère les applications qui utilisent la modalité haptique pour fournir une information supplémentaire à l'utilisateur. Par la suite, nous illustrons ces concepts sous forme d'une application de télé-diagnostic, permettant l'exploration d'un objet mixte, composé de parties réelles et virtuelles, ou la comparaison entre un objet réel et un virtuel ; d'un nouvel algorithme pour l'enseignement d'un chemin par guidage haptique, tout en évitant les problèmes de passivité et de dépendance de l'apprenti ; et de l'emploi de ces deux notions dans une application de peinture virtuelle sur un quelconque objet réel (avec croisement d'augmentations visio-haptique), le tout enrichi d'un processus visuel de Réalité Diminuée.
APA, Harvard, Vancouver, ISO, and other styles
36

Masson, Lucie. "Suivi temps-réel d'objets 3D pour la réalité augmentée." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2005. http://tel.archives-ouvertes.fr/tel-00685727.

Full text
Abstract:
Ce mémoire de thèse a pour sujet le suivi temps réel d'objets en trois dimensions, dans le but de réaliser des applications de réalité augmentée. En effet la réalité augmentée nécessite des algorithmes de suivi stables et précis. Si l'on désire en plus que le suivi soit effectué en temps réel vidéo, il faut alors trouver des compromis entre précision des résultats et vitesse de traitement. Ce mémoire contient la description des trois algorithmes de suivi développés durant cette thèse. Ils illustrent le cheminement suivi par nos travaux durant ces trois années, c'est-à-dire le suivi d'objets de plus en plus complexes, d'abord planaires, puis simples objets 3D, et enfin objets 3D complexes de modèle 3D inconnu. Le premier algorithme permet de suivre des objets planaires peu texturés. Il s'agit d'une extension d'un algorithme de suivi de plans efficace et rapide, basé sur l'utilisation d'informations de texture, auquel nous avons ajouté une composante de suivi de contour afin de pouvoir l'utiliser sur un ensemble plus vaste de motifs. Une fois ce travail sur le suivi planaire effectué, nous avons adapté l'algorithme de suivi de textures au suivi d'objets en trois dimensions. En utilisant de multiples occurrences de cet algorithme, réparties sur la surface de l'objet à suivre, couplées à un algorithme itératif d'estimation de pose, nous sommes parvenus à suivre en temps réel des objets simples effectuant des translations et des rotations à 360 degrés. Cet algorithme étant limité par le fait qu'il nous faut connaître un modèle 3D de l'objet à suivre, nous avons ensuite cherché à réaliser un algorithme permettant, lors d'une phase d'apprentissage, de générer un modèle statistique de l'objet à partir de vues clefs 2D. Basé sur le même algorithme de suivi de texture que précédemment, cet algorithme ne détermine pas la pose 3D de l'objet suivi mais décrit sa position comme étant la déformation d'une grille 2D.
APA, Harvard, Vancouver, ISO, and other styles
37

Peillard, Etienne. "Vers une caractérisation des biais perceptifs en réalité mixte : une étude de facteurs altérant la perception des distances." Thesis, Ecole centrale de Nantes, 2020. http://www.theses.fr/2020ECDN0030.

Full text
Abstract:
Réalité Virtuelle, Réalité Augmentée, Réalité Mixte, ces mots comme les applications qui les accompagnent entrent peu à peu dans l’usage commun. Cependant, la réalité proposée par ces technologies n’est pas identique à notre réalité ordinaire. Le présent ouvrage se propose de mettre en évidence certains biais perceptifs en réalité mixte. Dans un premier temps nous étudierons un biais perceptif lié à l’observateur : l’anisotropie de la perception egocentrique des distances en réalité virtuelle. Dans un second temps nous examinerons la perception exocentrique des distances en Réalité Augmentée (RA). En effet la sous-estimation des distances egocentriques est un phénomène souvent observé et il est donc intéressant d’étudier son potentiel transfert à la perception exocentrique. Puis nous étudierons plus en avant d’autres biais potentiels en RA en s’attachant en particulier à évaluer l’impact des indices de profondeur sur la perception des distances. En particulier, nous analyserons dans ce chapitre l’effet de deux indices de profondeurs en RA: l’impact de la position et de la forme des ombres sur la perception des distances, puis l’influence de l’accommodation sur la perception des distances en utilisant une technologie d’affichage spécifique : les dispositifs de projection rétinienne. Enfin nous discuterons le potentiel impact des techniques d’interaction sur la perception des distances et proposerons un protocole permettant d’évaluer l’effet de certaines interactions sur la perception des distances en RA, afin peut-être de parvenir à rapprocher celle-ci de la perception réelle
Virtual Reality, Augmented Reality, Mixed Reality, these words as well as their applications are gradually becoming common usage. However, the reality proposed by these technologies is not identical to our regular reality. This work aims to highlight some perceptual biases in Mixed Reality. First we study a perceptual bias linked to the observer: the anisotropy of the egocentric distances perception in virtual reality. In a second part, we study the exocentric perception of distances in Augmented Reality (AR). Indeed the under estimation of egocentric distances is a phenomen on frequently observed and it is therefore interesting to consider its potential transfer tothe exocentric perception. Then we further study other potential biases in AR by focusing in particular on evaluating the impact of depth cues on the perception of distances. In particular, we investigate in this chapter the effect of two depth cues in AR: the impact of the position and shape of shadows on distance perception, and then the influence of accommodation on distance perception using a specific display technology: retinal projection devices. Finally, we discuss the potential impact of interaction techniques on distance perception and propose a protocol to evaluate the effect of certain interactions on distance perception in AR, in order to perhaps bring it closer to real perception
APA, Harvard, Vancouver, ISO, and other styles
38

Pusch, Andreas. "Conflits visuo-proprioceptifs de la main pour l'interaction 3D en réalité augmentée." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00347430.

Full text
Abstract:
Cette thèse concerne l'étude d'un conflit visuo-proprioceptif de la main appliqué à l'interaction 3D. Un cadre de travail générique est proposé afin de générer, contrôler et réduire le conflit sensoriel en cours d'interaction. Le système utilise un visiocasque semi-transparent vidéo permettant l'intégration de l'image de la main réelle dans la scène virtuelle ainsi que la manipulation visuelle de sa position 3D.
Deux nouvelles méthodes sont introduites: un paradigme d'interaction intuitif pour toucher des objets virtuels et une technique pseudo-haptique active basée sur le déplacement de la main. Ces méthodes sont étudiées en considérant leurs bénéfices, limitations, effets sur le comportement de l'utilisateur et les conséquences sur la conception d'applications en environnements virtuels. Ces travaux montre que de nouvelles formes d'interaction 3D sont possible en exploitant les conflits visuo-proprioceptifs de la main. Des perspectives prometteuses sont présentées.
APA, Harvard, Vancouver, ISO, and other styles
39

Zarrouati-Vissière, Nadège. "La réalité augmentée : fusion de vision et navigation." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00961962.

Full text
Abstract:
Cette thèse a pour objet l'étude d'algorithmes pour des applications de réalité visuellement augmentée. Plusieurs besoins existent pour de telles applications, qui sont traités en tenant compte de la contrainte d'indistinguabilité de la profondeur et du mouvement linéaire dans le cas de l'utilisation de systèmes monoculaires. Pour insérer en temps réel de manière réaliste des objets virtuels dans des images acquises dans un environnement arbitraire et inconnu, il est non seulement nécessaire d'avoir une perception 3D de cet environnement à chaque instant, mais également d'y localiser précisément la caméra. Pour le premier besoin, on fait l'hypothèse d'une dynamique de la caméra connue, pour le second on suppose que la profondeur est donnée en entrée: ces deux hypothèses sont réalisables en pratique. Les deux problèmes sont posés dans lecontexte d'un modèle de caméra sphérique, ce qui permet d'obtenir des équations de mouvement invariantes par rotation pour l'intensité lumineuse comme pour la profondeur. L'observabilité théorique de ces problèmes est étudiée à l'aide d'outils de géométrie différentielle sur la sphère unité Riemanienne. Une implémentation pratique est présentée: les résultats expérimentauxmontrent qu'il est possible de localiser une caméra dans un environnement inconnu tout en cartographiant précisément cet environnement.
APA, Harvard, Vancouver, ISO, and other styles
40

Le, Chenechal Morgan. "Awareness Model for Asymmetric Remote Collaboration in Mixed Reality." Thesis, Rennes, INSA, 2016. http://www.theses.fr/2016ISAR0006/document.

Full text
Abstract:
Etre capable de collaborer à distance avec d'autres personnes peut fournir de précieuses capacités pour effectuer des tâches qui ont besoin de plusieurs utilisateurs pour être accomplies. De plus, les technologies de Réalité Mixte (RM) sont des outils intéressants pour développer de nouveaux types d'applications offrant des interactions et des possibilités de perception plus naturelles comparées aux systèmes classiques. Dans cette thèse, nous proposons d'améliorer la collaboration distante en utilisant ces technologies de RM qui profitent de nos capacités naturelles à effectuer des tâches en environnements 3D. En particulier, nous nous concentrons sur les aspects asymétriques impliqués par ce type de collaboration : les rôles, le point de vue (PdV), les dispositifs et le niveau de virtualité de l'application de RM. Premièrement, nous nous intéressons aux problèmes d'awareness et nous proposons un modèle générique capable de décrire précisément une application de RM collaborative en prenant en compte les potentielles dimensions asymétriques. Afin de traiter toutes ces dimensions, nous séparons notre modèle final en deux niveaux qui distingue espaces réels et virtuels pour chaque utilisateur. Dans ce modèle, chaque utilisateur peut générer différents types d'entrées et recevoir des retours de significations différentes dans le but de maintenir leur propre awareness de l'Environnement Virtuel (EV) partagé. Puis, nous présentons une étude utilisateur exploratoire qui s'intéresse aux conséquences de l'asymétrie des PdVs et aux implications induites par la représentation des utilisateurs sur le niveau d'awareness des autres collaborateurs. Deuxièmement, nous appliquons ces observations dans un contexte de guidage à distance qui implique un guide distant aidant un opérateur à réaliser une tâche de maintenance. Pour ce cas d'usage, nous proposons à l'expert d'utiliser une interface de Réalité Virtuelle (AV) pour aider l'opérateur au travers d'une interface de Réalité Augmentée (RA). Nous contribuons à ce domaine en améliorant les capacités de perception de l'environnement distant par l'expert et en proposant des interactions plus naturelles pour guider l'opérateur au travers d'indications non intrusives et intégrées à son environnement réel. Finalement, nous abordons la tâche de co-manipulation qui est une situation encore plus sensible vis-à-vis de l'awareness en collaboration distante. Cette tâche requiert de viser une synchronisation parfaite entre les collaborateurs pour l'accomplir efficacement. Ainsi, le système doit fournir des retours appropriés pour maintenir un haut niveau d'awareness, spécialement concernant l'activité courante des autres. En particulier, nous proposons une technique de co-manipulation hybride, inspirée de notre cas d'utilisation précédent sur la guidage distant, qui mixe la manipulation d'objet virtuel et du PdV d'un autre utilisateur
Being able to collaborate remotely with other people can provide valuable capabilities in performing tasks that require multiple users to be achieved. Moreover, Mixed Reality (MR) technologies are great tools to develop new kinds of applications with more natural interactions and perception abilities compared to classical desktop setups. In this thesis, we propose to improve remote collaboration using these MR technologies that take advantages of our natural skills to perform tasks in 3D environments. In particular, we focus on asymmetrical aspects involved by these kind of collaboration: roles, point of view (PoV), devices and level of virtuality of the MR application. First, we focus on awareness issues and we propose a generic model able to accurately describe a collaborative MR application taking into account potential asymmetry dimensions. In order to address all these dimensions, we split our final model into two layers that separate real and virtual spaces for each user. In this model, each user can generate different kind of input and receive feedbacks with different meanings in order to maintain their own awareness of the shared Virtual Environment (VE). Then, we conduct an exploratory user study to explore the consequences of asymmetric PoVs and the involvement of users' representation in the level of awareness of others' collaborators. Second, we apply our findings to a remote guiding context that implies a remote guide to help an operator in performing a maintenance task. For this use case, we propose to the expert to use a Virtual Reality (VR) interface in order to help the operator through an Augmented Reality (AR) interface. We contribute to this field by enhancing the expert's perceptual abilities of the remote workspace as well as by providing more natural interactions to guide the operator through not intrusive guiding cues integrated to the real world. Last, we address an even more sensitive situation for awareness in remote collaboration that is virtual co-manipulation. It requires to target a perfect synchronization between collaborators in order to achieve the task efficiently. Thus, the system needs to provide appropriate feedbacks to maintain a high level of awareness, especially about what others are currently doing. In particular, we propose a hybrid co-manipulation technique, inspired from our previous remote guiding use case, that mixes virtual object and other's PoV manipulation in the same time
APA, Harvard, Vancouver, ISO, and other styles
41

Dubois, Emmanuel. "Chirurgie augmentée : un cas de réalité augmentée ; Conception et réalisation centrées sur l'utilisateur." Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004676.

Full text
Abstract:
Les travaux pluridisciplinaires de cette thèse, contribuent à deux domaines : les Interfaces Homme-Machine (IHM), en particulier la Réalité Augmentée (RA), et les Gestes Médico-Chirurgicaux Assistés par Ordinateur (GMCAO), domaine concret de mise en oeuvre de la RA. La contribution est double : d'une part elle enrichit et organise les concepts d'IHM pour la RA en adoptant un point de vue centré sur la tâche, et d'autre part elle améliore l'utilisabilité par les cliniciens des systèmes de GMCAO. La fusion du monde réel et du monde virtuel ouvre des voies nouvelles pour la conception de systèmes de RA, comme les systèmes de GMCAO. Mais les limites sont mal cernées. Dans ce contexte, nous avons identifié des caractéristiques intrinsèques des systèmes de RA et établi un espace taxinomique. Afin de caractériser plus finement la dualité de l'interaction (Utilisateur-Monde Réel et Utilisateur-Monde Virtuel), nous avons défini la notation ASUR. Pour décrire l'interaction, ASUR identifie les entités intervenant dans le système, en particulier les adaptateurs, composants ASUR réalisant le lien entre les deux mondes. L'utilisation d'ASUR, par ces aspects descriptifs, taxinomiques et conceptuels constitue la base de notre démarche de conception ergonomique et logicielle de systèmes de RA. Cette démarche se fonde en outre sur l'étude de propriétés ergonomiques au sein de la description ASUR d'un système et sur l'adaptation du modèle d'architecture PAC-Amodeus aux systèmes de RA. En collaboration avec le chirurgien, nous avons appliqué et testé nos résultats méthodologiques sur une application concrète de chirurgie cardiaque. Cette application, CASPER, assiste le chirurgien lors de la réalisation d'une ponction péricardique, en lui procurant des informations de guidage du geste clinique sur un écran. Une re-conception de CASPER nous a amené à implémenter un casque semi-transparent permettant de visualiser ces informations directement sur le patient.
APA, Harvard, Vancouver, ISO, and other styles
42

Bertuzzi, Juan Pablo. "Mondes hybrides : expérimentations sociales pour analyser la relation avatar-utilisateur." Paris 8, 2014. http://octaviana.fr/document/182056708#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Nous habitons déjà dans un monde hybride, un monde physique qui est nourri constamment par des mondes communicatifs numériques et parallèles, des projections de notre propre monde qui se manifestent à travers cet énorme réseau de points d’interactions dénommé l’Internet. Subséquemment, l’individu expérimente différentes représentations numériques à travers ces dimensions, phénomène qui donne lieu à une nouvelle extension projective et perceptive de l’homme face au monde physique. Mondes Hybrides est une contribution à l’axe de la communication sociale : elle présente une analyse détaillée des effets socioculturels des nouvelles technologies de l’information et de la communication. Notre philosophie de travail est plutôt dédiée à la conception d’expérimentations sociales dans des espaces qui cohabitent constamment avec la technologie de la simulation et qui donnent lieu au développement de la réalité virtuelle et de la réalité augmentée. Notre problématique concerne l’influence qu’ont les représentants des mondes numériques, les avatars, sur ses utilisateurs : jusqu’où cette influence peut se manifester dans la vie quotidienne de l’individu. La thèse « Mondes Hybrides » présente deux projets d’expérimentations : 1) A partir d’une analyse de la théorie du jeu et l’évolution des produits vidéo ludiques dans la culture contemporaine, nous présentons le projet « Patrimoine et Culture Augmentés ». En utilisant les technologies de la réalité virtuelle et de la réalité augmentée, ce projet montre les avantages qu’offrent l’application des mondes hybrides et des jeux sociaux dans les champs culturels et éducatifs. 2) A travers l’étude de l’utilisateur et l’évolution de ses représentations numériques, nous proposons le projet « Avatars sociaux Autonomes (AsA) ». Ce dispositif social interactif a été conçu afin d’offrir une expérience innovante dans la sphère des communautés numériques, en soutenant l’idée d’intégrer des environnements numériques dans des espaces physiques en temps réel. Finalement, en générant ces nouveaux outils d’analyse, l’objectif ultime de cette investigation est de proposer des champs d’étude originaux afin d’ouvrir de nouvelles perspectives de recherche en sciences de l’information et de la communication
We already live in a hybrid world; a physical world that is constantly being nourished by parallel digital communicative worlds and in which projections of our own world manifest themselves via an enormous network of interaction points termed the Internet. Consequently, the individual experiences digital representation in different ways via these dimensions. This is a phenomenon which leads to a new projective and perceptive extension of the self which encounters the physical world. Hybrid Worlds contributes to the field of social communication. It offers detailed analysis of the socio-cultural effects of new information and communication technologies. Our work philosophy is based on the conceptualization of social experiments within spaces which constantly cohabit with simulation technologies and which pave the way for developing virtual and augmented realities. Our key research question focuses on properly evaluating and defining the influence that avatars -representatives of digital worlds- have upon their users; in particular, to what extent this influence can be detected in the everyday life of the individual. Hybrid Worlds presents two in design experiments: 1) Based on analysis of game theory, as well as that of the evolution of video products for leisure purposes in contemporary culture, we hereby present the project entitled ‘Augmented Cultural Heritage’. This project demonstrates the advantages of using technologies of virtual and augmented reality to apply hybrid worlds and social games to the fields of culture and education. 2) We also put forward the project entitled ‘Autonomous social Avatars (AsA)’ which is based on a study of the user habits, with particular attention paid to the evolution of his or her digital representations. This socially-interactive tool has been conceived in order to provide innovative experience within the domain of digital communities, whilst supporting the idea of integrating digital environments into physical spaces in real time. Finally, by managing these new aforementioned analytical tools, the ultimate objective of this investigation is to map out original fields of research for future studies within the information and communication sciences
APA, Harvard, Vancouver, ISO, and other styles
43

Portela, Sotelo Miguel Alfredo. "Vidéosurveillance d’une salle de traitement en radiothérapie." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10260.

Full text
Abstract:
Les différents acteurs impliqués dans le traitement du cancer par radiothérapie (oncologues, radiophysiciens, manipulateurs, etc.) ont exprimé un réel besoin d'avoir une vue globale du système de traitement pour pouvoir suivre le patient ainsi que la totalité des équipements de la salle - mobiles (voire robotisés) ou non – afin d'améliorer la sécurité des patients. Cette vue globale permettrait de réduire le nombre d'interventions humaines, les erreurs d'ordre physique (mouvements involontaires, collisions, etc.) et les erreurs dans la configuration globale par rapport au patient traité. Pour répondre à ce besoin, nous présentons dans cette thèse un module de vidéosurveillance exploitant un modèle numérique des éléments de la scène (patient, couche, bras d'irradiation, etc.) afin de suivre le mouvement de ces éléments dans le but d'éviter tout événement indésirable susceptible de mettre en danger le patient, le personnel voire les équipements. Surveiller la salle de traitement consiste à vérifier, à tout instant, que sa configuration courante est conforme à ce qui a été planifié en amont (dans le Système de Planification de Traitement [SPT]), ainsi qu'aux normes liées à la radiothérapie, et le cas échéant, à informer le personnel médical pour qu'il prenne les mesures nécessaires. Nous avons développé un modèle générique, qui permet la création de modèles numériques à partir des données contenues dans le dossier du patient (issues du SPT), enrichies d'autres informations visuelles, géométriques et « sémantiques ». L'ensemble des modèles numériques permet de créer un environnement virtuel équivalent à la scène vue par les caméras vidéo. La localisation et l'orientation des éléments est calculée par recalage 3D, choix justifié par les caractéristiques propres aux salles de traitement par radiothérapie (milieu contrôlé, dynamique faible, spécification de construction très contrainte : salles très semblables, etc.). Les informations (notamment géométriques, physiques et mécaniques) contenues dans le modèle permettent de réduire la complexité globale des algorithmes de contrôle. La méthode de suivi de mouvement implémentée exploite les caractéristiques et les contraintes des éléments incluses dans leur modèle numérique, et plus précisément les « descripteurs », qui correspondent à la modélisation 3D des primitives permettant de suivre l'élément dans le flux vidéo. Nous présentons également une fonction de dissimilarité, que nous avons définie, résultant de la fusion de deux fonctions de dissimilarité bien connues : distance de chanfrein et notion de non recouvrement. Un formalisme flou permet d'améliorer la robustesse de la méthode face au bruit généré par le système d'acquisition et le traitement des données. Lorsque la séance de traitement se déroule, le module évalue la configuration courante (positions acquises des éléments à l'aide du module de suivi et des paramètres globaux de la scène), pour interagir avec le personnel médical par rapport à ce qui a été défini en prétraitement. Nous présentons des résultats issus de tests réalisés dans une salle de radiothérapie mais en l'absence d'irradiation et de patient (un fantôme positionné sur la couche s'est substitué au patient, ou bien l'un de nos collaborateurs a joué le rôle du patient). Ces résultats démontrent la faisabilité et l'efficacité du module de surveillance
The various professionals (oncologists, medical physicists, radiation therapist, etc.) involved in the treatment of cancer by radiation therapy express more and more acutely a real need to have a global view of the treatment system in order to monitor the patient and all the equipment in the room — be it mobile (or even robotized) or not — to improve patient safety. This global view would help reduce the number of human interventions, errors in physical interaction (involuntary movements, collisions, etc.), and errors in the global configuration for the patient. To answer this need, this PhD manuscript presents a videosurveillance module using a numerical model of the elements in the scene (patient, couch, irradiation arm, etc.) to monitor the movement of these elements in order to avoid any event that could put the patient, staff or equipment in danger. Monitoring the treatment room means checking, at any moment, that its current configuration is consistent with what was planned upstream (in the Treatment Planning System [TPS]) and with the standards of radiotherapy, and if need be to, to inform the medical staff, so that correcting actions may be undertaken. We have developed a generic model which allows the creation of numerical models from the data contained in the patient record (in the TPS), enriched with other visual, geometric and “semantic” information. All the numerical models used to create a virtual environment correspond to the scene as seen by video cameras. Location and orientation of the elements are calculated by 3D registration, a choice justified by the characteristics of radiation treatment rooms (controlled environment, low dynamics, highly constrained construction specifications, very similar treatment rooms, etc.). The (geometric, physical and mechanical) information items in the model allow to reduce the overall complexity of the algorithms. The method for motion tracking we have implemented exploits the characteristics and constraints of the elements included in the numerical model, specifically the “descriptors” which correspond to the 3D modeling of primitives used to track the element in the video stream. We also present a dissimilarity function that we have defined, resulting from the merging of two well-known dissimilarity functions, respectively based on the chamfer distance and the notion of non-overlap. A fuzzy formalism improves the robustness of the method against the noise generated by acquisition and processing. When the treatment session takes place, the module evaluates the current configuration (positions acquired for elements, using the tracking module and global parameters of the scene), to interact with medical staff in relation to what has been defined in pretreatment. We present results of tests performed in a radiotherapy room but in the absence of irradiation and patient (the patient was either replaced by a phantom positioned on the couch or by one researcher playing his/her role). These results demonstrate the feasibility and efficiency of the surveillance module
Los profesionales involucrados en el tratamiento contra el cáncer con radioterapia (oncólogos, radiofísicos hospitalarios, tecnólogos médicos, etc.) expresaron la necesidad de tener una vista global del sistema de tratamiento con el fin de supervisar el paciente y todos los equipos presentes en la habitación - móvil (o robot) o no – para mejorar la seguridad del paciente. Esta vista global reduciría la cantidad de intervenciones humanas, los errores físicos (movimientos involuntarios, colisiones, etc.) y los errores en la configuración global con respecto al paciente tratado. Para satisfacer esta necesidad, en esta tesis presentamos un módulo de vídeovigilancia que explota un modelo digital de les elementos de la escena (el paciente, la camilla, la maquina de radiación, etc.) para vigilar el movimiento de estos elementos con el fin de evitar cualquier evento adverso que podría poner en peligro al paciente, el personal o los equipos. La supervisión de la sala de tratamiento implica la verificación, en cualquier momento, la consistencia entre la configuración actual de la sala con respecto a lo que estaba previsto antes (en el Sistema de Planificación del Tratamiento [SPT]) y con respecto a las normas relacionadas con la radioterapia, y en el caso contrario, informar al personal médico para que el tome las medidas necesarias. Hemos desarrollado un modelo genérico, que permite la creación de modelos digitales de los datos contenidos en el registro del paciente (obtenidas con el SPT), enriquecidas con otro tipo de información visual, geométrica y « semántica ». Los modelos digitales de todos los elementos son utilizados para crear un entorno virtual equivalente a la escena como es visto por las cámaras de vídeo. La ubicación y orientación de los elementos se calcula con la técnica de registro 3D, elección justificada por las características de las salas de tratamiento con radioterapia (entorno controlado, dinámica baja, especificación de la construcción con muchas restricciones : salas muy similares, etc.). Las informaciones (principalmente geométricas, físicas y mecánicas) contenidas en el modelo permiten la reducción de la complejidad general de los algoritmos utilizados. El método de seguimiento del movimiento implementado explota las características y las limitaciones de los elementos incluidas en sus modelos digitales, y plus exactamente los « descriptores », que corresponden au modelado 3D de las primitivas que permiten controlar el elemento de la secuencia de vídeo. También se presenta una función de disimilitud, que nosotros hemos definido, resultante de la fusión de dos funciones de disimilitud muy bien conocidas : distancia de chaflán y la noción de no-recubrimiento. Un formalismo difuso, basado en la teoría de conjuntos difusos, mejora la robustez del método contra el ruido generado por la adquisición y el procesamiento de datos. Cuando la sesión de tratamiento se lleva a cabo, el módulo evalúa la configuración actual (las posiciones adquiridas de los elementos mediante el módulo de seguimiento y los parámetros globales de la escena), para interactuar con el personal médico en relación con lo que se ha definido antes del tratamiento. Presentamos los resultados de las pruebas realizadas en una sala de radioterapia, pero en ausencia de la radiación y del paciente (un objeto reemplazado al verdadero paciente ha sido colocado sobre la camilla, o una persona de nuestro equipo ha jugado el papel del paciente). Estos resultados demuestran la viabilidad y la eficacia del módulo de seguridad
APA, Harvard, Vancouver, ISO, and other styles
44

Sarlat, Ludivine. "Intégration multisensorielle, réalité virtuelle et personnalité schizotypique." Paris 6, 2007. http://www.theses.fr/2007PA066548.

Full text
Abstract:
La réalité virtuelle (RV) est un outil de choix pour l’étude des processus d’intégration multisensorielle chez l’homme. L’objectif de ce travail de thèse est d’investiguer la perception spatiale auditive et de tenter de mettre en évidence des liens entre la personnalité schizotypique et l’intégration des informations spatiales auditives et visuelles impliquées lors d’immersions en RV. Une première étude a abordé l’audition spatiale par une expérience de localisation auditive réalisée avec différents modes de réponse et différents types de stimuli (adaptés individuellement ou non au sujet). Dans une deuxième étude, un paradigme en 3 phases a permis de mesurer les post-effets d’un décalage spatial entre des stimuli visuels et auditifs sur la perception auditive unimodale chez des sujets schizotypiques. Dans un dernier temps, la cognition spatiale est étudiée grâce à une tâche de navigation en RV chez des sujets schizotypiques. Les résultats suggèrent que l’ajout de la modalité auditive en RV permet de mettre en place de nouveaux paradigmes pour étudier la personnalité schizotypique v
APA, Harvard, Vancouver, ISO, and other styles
45

Bailly, Charles. "Interagir en réalité mixte avec un casque : application à la chirurgie augmentée." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM064.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de l’Interaction Homme-Machine (IHM) et est dédiéeà l’interaction en Réalité Mixte (RM) avec un casque. La RM permet de créer des environnements mixtes mêlant du contenu virtuel à du contenu physique. L'ensemble de l'espace de travail, objets physiques comme virtuels, peuvent alors servir à interagir avec le système. Contrairement aux interfaces graphiques traditionnelles, la RM combine les avantages de l'environnement physique tout en offrant la flexibilité des éléments virtuels. Les domaines d'application sont nombreux et variés, allant de la fabrication industrielle à la médecine.La chirurgie est un contexte applicatif dans lequel la RM est particulièrement prometteuse. La possibilité de visualiser des données médicales directement sur le corps du patient et autour de la table d'opération est en effet un atout crucial pour les chirurgiens. Cependant, les techniques existantes permettant d'interagir avec ces informations virtuelles ne sont pas adaptées aux nombreuses contraintes du bloc opératoire. De nouvelles approches sont nécessaires pour permettre aux chirurgiens de visualiser, manipuler et éditer du contenu virtuel pendant une opération.Notre recherche est motivée par ce besoin de techniques d'interaction en RM pour la chirurgie augmentée. Grâce à notre partenariat avec la société Aesculap pour cette thèse CIFRE, notre travail est dédié aux opérations de prothèse de genou. Nous nous concentrons sur l'utilisation de casques de RM (Head-Mounted Display), avec lesquels le champ de vision augmenté est directement lié à la position de la tête.Nous commençons par proposer un espace de conception pour l'interaction basée sur les mouvements de la tête en RM. Nous explorons cet espace de conception en concevant de nouvelles techniques d'interaction pour interagir avec des menus. Ces techniques impliquent l'ensemble du continuum réalité-virtualité en considérant différentes physicalités pour les cibles et des transitions entre la réalité mixte et la réalité virtuelle. Notre but est de respecter les contraintes du chirurgien en tirant partie des objets déjà présents en bloc opératoire.Après avoir exploré les techniques basées sur la tête, nous élargissons notre domaine de recherche en considérant les étapes chirurgicales où les chirurgiens ont au moins une main disponible pour interagir avec le système. Nos contributions sur cet aspect sont doubles. Nous poursuivons tout d'abord notre étude de l'interaction avec les menus en considérant un aspect clé du travail du chirurgien : l'attention visuelle sur le champ opératoire. Nous proposons ainsi trois nouvelles techniques permettant au chirurgien de ramener des widgets virtuels dans son champ de vision sans avoir besoin de détourner le regard du champ opératoire. Ensuite, nous étudions l'exploration de scène 3D en RM avec des vues multiples en nous inspirant de l'étape du planning chirurgical. L’originalité des travaux réside dans la nature différente des vues multiples considérées : vue virtuelle et vue mixte. Nous proposons deux nouvelles techniques d’interaction complémentaires qui permettent de contrôler le niveau de couplage entre ces vues de nature différente et implémentent des transitions entre réalité augmentée et réalité virtuelle
This thesis is in the field of Human-Computer Interaction (HCI) and specifically focuses on user interaction with Mixed Reality systems that rely on Head-Mounted Displays. Mixed Reality (MR) enables us to create mixed environments that combine virtual content with physical content. The entire workspace, including both physical and virtual objects, can then be used to interact with the system. Unlike traditional graphical interfaces, MR combines the advantages of the physical environment while providing the flexibility of virtual elements. The fields of application are many and varied, ranging from industrial manufacturing to medicine.Surgery is an application context in which MR is particularly promising. The ability to view medical data directly on the patient's body and around the operating table is a crucial benefit for surgeons. However, the existing techniques for interacting with this virtual information are not suited to the many constraints of the operating room. New approaches are needed to enable surgeons to view, manipulate and edit virtual content during an operation.Our research is driven by this need for MR interaction techniques for augmented surgery. Thanks to our partnership with the company Aesculap for this CIFRE thesis, our work is dedicated to knee prosthesis operations. We focus on the use of Head-Mounted Displays (HMDs), through which the augmented field of view is directly related to the position of the head.We start by providing a design space for MR head-based interaction. We explore this design space by devising new interaction techniques with menus. These techniques involve the entire reality-virtuality continuum by considering different physicalities for targets and implementing transitions between mixed reality and virtual reality. Our goal is to fulfill the surgery constraints by taking advantage of the objects already present in the operating room.After exploring head-based techniques, we broaden our area of research by considering surgical stages where surgeons have at least one hand available to interact with the system. Our contributions on this aspect are twofold. We first continue our study of menu techniques by considering a key aspect of the surgeon's work: visual attention to the operating field. We thus propose three new techniques allowing the surgeon to bring virtual widgets back into his field of vision without having to look away from the operating field. We then study the exploration of MR 3D scenes with multiple views. For instance, multiple views of the knee are displayed during the surgical planning step. The originality of the work lies in the different nature of the multiple views: virtual views and mixed views. We propose two new complementary interaction techniques that allow users to control the level of coupling between these different views and implement transitions between virtual reality and mixed reality
APA, Harvard, Vancouver, ISO, and other styles
46

El, Rhabi Youssef. "Alignement de données 2D, 3D et applications en réalité augmentée." Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/405363.

Full text
Abstract:
Aquesta tesi s’emmarca en el context de la realitat augmentada. La problemàtica més gran consisteix en l’estimació de la posició de la càmera en temps real. Aquesta estimació s’ha de fer seguint tres criteris principals: precisió, robustesa i eficiència computacional. En el marc d’aquesta tesi, establim alguns mètodes que permetin un millor ús de les primitives de les imatges. En el nostre cas, les primitives de les imatges són els punts característics. Per aconseguir aquest objectiu, ens basem en la textura d’aquesta imatge. Primerament, establim una arquitectura que faciliti una estimació de la posició més ràpida, sense pèrdua de precisió o robustesa. Aquesta arquitectura es basa en la utilització de la informació recollida durant una fase offline, en la qual reconstruïm l’escena en 3D. Utilitzem tota aquesta informació per a construir un graf de veïnatge dins de les imatges de la base de dades. Aquest graf de veïnatge ens permet seleccionar les imatges més rellevants per tal de calcular la posició de la càmera de manera més eficaç. En tant que els processos de descripció i matching no són prou ràpids, s’han optimitzat els càlculs, la qual cosa ens ha portat a proposar el nostre propi descriptor. Amb aquesta finalitat, hem construït un esquema genèric basat en la teoria de la informació la qual engloba una bona part dels descriptors binaris, inclòs el recent descriptor anomenat BOLD. El nostre objectiu ha estat, com per a BOLD, incrementar l’estabilitat dels descriptors produïts en els canvis d’orientació. Per aconseguir-ho, hem dissenyat un nou esquema de selecció offline que s’adapta millor al procés de matching online, que ens permet integrar les millores al descriptor que hem construït. Tot això ens permet millorar les actuacions del descriptor especialment en termes de rapidesa en comparació amb els descriptors de l’estat de l’art. En aquesta tesi descrivim diversos mètodes utilitzats per a estimar la posició de la càmera més eficientment. Dels resultats del treball n’han sorgit dues publicacions (una nacional i una altra internacional) així com una sol·licitud de patent. Realitat augmentada: SFM,SLAM, estimació de la posició a temps real, descriptors basats en punts característics, aprenentatge, enregistrament 2D/3D
Cette thèse s’inscrit dans le contexte de la réalité augmentée (RA). La problématique majeure consiste à calculer la pose d’une caméra en temps réel. Ce calcul doit être effectué en respectant trois critères principaux : précision, robustesse et rapidité. Dans le cadre de cette thèse, nous introduisons certaines méthodes permettant d’exploiter au mieux les primitives des images. Dans notre cas, les primitives sont des points que nous allons détecter puis décrire dans une image. Pour ce faire, nous nous basons sur la texture de cette image. Nous avons dans un premier temps mis en place une architecture favorisant le calcul rapide de la pose, sans perdre en précision ni en robustesse. Nous avons pour cela exploité une phase hors ligne, où nous reconstruisons la scène en 3D. Nous exploitons les informations que nous obtenons lors de cette phase hors ligne afin de construire un arbre de voisinage. Cet arbre lie les images de la base de données entre elles. Disposer de cet arbre nous permet de calculer la pose de la caméra plus efficacement en choisissant les images de la base de données jugées les plus pertinentes. Nous rendant compte que la phase de description et de comparaison des primitives n’est pas suffisamment rapide, nous en avons optimisé les calculs. Cela nous a mené jusqu’à proposer notre propre descripteur. Pour cela, nous avons dressé un schéma générique basé sur la théorie de l’information qui englobe une bonne part des descripteurs binaires, y compris un descripteur récent nommé BOLD [BTM15]. Notre objectif a été, comme pour BOLD, d’augmenter la stabilité aux changements d’orientation du descripteur produit. Afin de réaliser cela, nous avons construit un nouveau schéma de sélection hors ligne plus adapté à la procédure de mise en correspondance en ligne. Cela permet d’intégrer ces améliorations dans le descripteur que nous construisons. Procéder ainsi permet d’améliorer les performances du descripteur notamment en terme de rapidité en comparaison avec les descripteurs de l’état de l’art. Nous détaillons dans cette thèse les différentes méthodes que nous avons mises en place afin d’optimiser l’estimation de la pose d’une caméra. Nos travaux ont fait l’objet de 2 publications (1 nationale et 1 internationale) et d’un dépôt de brevet. Réalité augmentée: SFM,SLAM, estimation de pose temps réel, description, apprentissage, recalage 2D/3D
This thesis belongs within the context of augmented reality. The main issue resides in estimating a camera pose in real-time. This estimation should be done following three main criteria: precision, robustness and computation efficiency. In the frame of this thesis we established methods enabling better use of image primitives. As far as we are concerned, we limit ourselves to keypoint primitives. We first set an architecture enabling faster pose estimation without loss of precision or robustness. This architecture is based on using data collected during an offline phase. This offline phase is used to construct a 3D point cloud of the scene. We use those data in order to build a neighbourhood graph within the images in the database. This neighbourhood graph enables us to select the most relevant images in order to compute the camera pose more efficiently. Since the description and matching processes are not fast enough with SIFT descriptor, we decided to optimise the bottleneck parts of the whole pipeline. It led us to propose our own descriptor. Towards this aim, we built a framework encompassing most recent binary descriptors including a recent state-of-the-art one named BOLD. We pursue a similar goal to BOLD, namely to increase the stability of the produced descriptors with respect to rotations. To achieve this goal, we have designed a novel offline selection criterion which is better adapted to the online matching procedure introduced in BOLD. In this thesis we introduce several methods used to estimate camera poses more efficiently. Our work has been distinguished by two publications (a national and an international one) as well as with a patent application. Augmented Reality: SFM, SLAM, real time pose computation, keypoint description, Machine learning, 2D/3D registration
APA, Harvard, Vancouver, ISO, and other styles
47

Bottecchia, Sébastien. "Système TAC : télé-assistance collaborative : réalité augmentée et NTIC au service des opérateurs et des experts dans le cadre d'une tâche de maintenance industrielle supervisée." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1268/.

Full text
Abstract:
Le système T. A. C. A été conçu avec l'objectif de proposer un nouveau mode de communication distant. Lorsqu'un opérateur a besoin d'être assisté sur une tâche manuelle, les supports techniques classiques comme le téléphone ou la visioconférence montrent rapidement leurs limites en termes d'interaction humaine. En permettant à un expert distant de voir exactement ce que l'opérateur voit, il peut interagir avec lui en temps réel grâce à la réalité augmentée via un paradigme d'interaction adéquat que nous avons nommé « Picking Outlining Adding ». En guidant l'opérateur grâce à des indices virtuels, l'expert lève les ambiguïtés de langage et les difficultés de communication sont évitées. Les opérations sont ainsi plus facilement exécutées. Les expérimentations que nous avons menées vont dans ce sens, montrant l'efficacité de ce nouveau mode de communication. Qui plus est, les principes d'interactions sont suffisamment généraux pour dépasser le cadre original de la maintenance industrielle
T. A. C. System was built in order to propose a new mode of remote communication. When an operator needs to be assisted on a manual task, classical technical support methods as phone or visioconference rapidly show their limits in terms of human interaction. By allowing a distant expert to see exactly what an operator is seeing, he could interact with him in interactive time thanks to augmented reality via an adequate interaction paradigm we named « Picking Outlining Adding ». In guiding the operator through visual guidance information, expert removes the ambiguities of language and communications difficulties are avoided. Operations are then easily performed. The experiments we have conducted go in this direction, showing the effectiveness of this new mode of communication. Moreover, interactions principles are sufficiently general to be applied to other use cases that go beyond the originally planned industrial maintenance
APA, Harvard, Vancouver, ISO, and other styles
48

Marchand, Eric. "Commande d'une caméra réelle ou virtuelle dans des mondes réels ou virtuels." Habilitation à diriger des recherches, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00755302.

Full text
Abstract:
Il y a aujourd'hui, d'après l'UNECE1 environ 770.000 robots opérationnels dont 24.000 en France. À ce jour, la plupart de ces robots sont des manipulateurs industriels dont l'autonomie est souvent réduite au stricte minimum. Ce manque d'autonomie est souvent due à l'absence de capteurs extéroceptifs sur les systèmes robotiques disponibles sur le marché. Ces capteurs sont cependant indispensables des lors que le robot évolue dans un environnement partiellement ou totalement inconnu. Dans ce contexte ces capteurs apportent aux systèmes robotiques les informations nécessaires pour appréhender l'environnement dans lequel ils évoluent. Dans le cadre de nos travaux nous avons uniquement considéré le cas des capteurs de vision qui fournissent au système une information riche mais dégénérée sous la forme d'une projection vers une image 2D de l'ensemble de l'environnement 3D perçu. L'un des points fondamentaux du cycle perception-action est la génération automatique des mouvements d'une ou plusieurs caméras. La création de carte 3D de l'environnement a longtemps été considérée comme un point de passage obligé pour la génération automatique des mouvements d'un robot autonome et de nombreux travaux se sont focalisés, souvent avec succès, sur ce sujet (e.g., [63]). Une façon élégante de raccourcir ce cycle en liant étroitement l'action à la mesure dans l'image est de générer les mouvements du système robotique en ayant recours au techniques d'asservissement visuel.
APA, Harvard, Vancouver, ISO, and other styles
49

Noël, Dominique. "La réalité virtuelle de la réalité virtuelle : éléments pour une sémiotique des environnements et créatures tridimensionnels de synthèse." Paris, EHESS, 2001. http://www.theses.fr/2001EHES0208.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Lourdeaux, Domitile. "Réalité virtuelle et formation : conception d'environnements virtuels pédagogiques." Phd thesis, École Nationale Supérieure des Mines de Paris, 2001. http://tel.archives-ouvertes.fr/tel-00006475.

Full text
Abstract:
La recherche dans le domaine des Environnements Virtuels (EV) pour la formation s'est souvent attachée aux aspects techniques, sans proposer une réelle démarche de conception centrée sur les utilisateurs (formés et formateurs). Pour concevoir un EV efficace, utilisable et utile pour la formation, nous proposons une méthodologie de conception prenant en compte divers aspects. En effet, dans un premier temps, il est essentiel de s'interroger sur les objectifs pédagogiques des formateurs et sur les capacités sensori-motrices et cognitives des formés. Ensuite, les capacités technologiques doivent être étudiées. Enfin, l'EV et les fonctionnalités utiles peuvent être spécifiées. Notre méthodologie de conception est basée sur trois composantes fondamentales dans les EV : l'immersion et l'interaction sensori-motrices (i.e. les interactions physiques des utilisateurs avec le système), l'immersion et l'interaction cognitives (i.e. les raisonnements et les comportements des utilisateurs) et l'immersion et l'interaction fonctionnelles (i.e. l'apprentissage et le transfert de la tâche).
La réalité virtuelle (RV) est souvent utilisée comme moyen technique pour immerger un formé dans des environnements le plus proche possible de la réalité. Les limitations technologiques actuelles ne permettent pas de s'approcher parfaitement de la réalité. De plus, les formateurs ont souvent besoin de fournir des explications s'appuyant sur des situations éloignées du réel afin d'aider les formés à prendre du recul et à mieux comprendre cette réalité. Les nombreuses potentialités de la RV permettent de proposer différents niveaux de réalisme.
Pour gérer ces niveaux de réalisme et optimiser les fonctionnalités offertes par la RV en fonction de objectifs pédagogiques et des difficultés des formés, nous proposons un Agent Pédagogique Intelligent (HAL : Help Agent for Learning)
HAL a été conçu pour aider les formateurs à construire un discours pédagogique en environnement virtuel en proposant deux types de stratégies pédagogiques adaptatives. Les premières modifient des aspects du scénario (pannes, conditions météorologiques, etc.). Les secondes fournissent des aides pour la compréhension de la situation (suggérer où le formé peut trouver la connaissance, expliquer une règle, montrer la conséquence de ses erreurs, etc.). Ces stratégies peuvent être mise en œuvre grâce à différentes formes d'assistance pédagogique gérant différents niveaux de réalisme (enrichissement, visualisation de mécanismes cachés, modélisation de concepts abstraits, etc.) HAL est basé sur un système multi-agent permettant de décrire une architecture modulaire et distribuée.
Une application professionnelle et industrielle réelle nous a permis de mettre en œuvre notre méthodologie de conception basée sur les aspects cognitifs, d'exploiter un grand nombre de potentialités de la RV et de mettre en évidence l'apport de HAL pour gérer ces fonctionnalités. L'objectif de cette application est de former des conducteurs de TGV à l'intervention sur Lignes à Grande Vitesse (descente sur les voies et manipulation d'appareils de voie.)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography