Academic literature on the topic 'Assistance multimodale'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Assistance multimodale.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Assistance multimodale"

1

Weiss, Manfred, and Manfred Laube. "Assistenz und Delegation mit mobilen Softwareagenten - Das Leitprojekt MAP (Assistance and Delegation using Software Agents - Lead Project MAP)." i-com 2, no. 2/2003 (February 1, 2003): 4–12. http://dx.doi.org/10.1524/icom.2.2.4.19593.

Full text
Abstract:
ZusammenfassungIn diesem Bericht präsentieren wir die wesentlichen Ergebnisse aus dem interdisziplinären Leitprojekt Multimedia Arbeitsplatz der Zukunft (MAP). Die technologischen Ziele von MAP lagen in der Entwicklung innovativer und sicherer Technologien, Methoden, Architekturen und Softwarekomponenten für multimodale Interaktion und multimediale Kommunikation am und für den mobilen Arbeitsplatz. Softwareagententechnologie ermöglicht das Delegieren zeitaufwändiger Routineaufgaben und eine intelligente, proaktive Unterstützung von Geschäftsprozessen unter besonderer Berücksichtigung des mobilen Aspekts. Im Rahmen arbeits- und rechtswissenschaftlicher Begleitforschungsaktivitäten wurde auch der kritische Aspekt der Automatisierung rechtlich relevanter Transaktionen mittels Softwareagenten untersucht und die hierfür in MAP entwickelten Ansätze in einer Simulationsstudie validiert. Hier wurde in einzigartiger Weise technologische Innovation von Rechtsexperten, Psychologen, Soziologen, Arbeitswissenschaftlern und Vertretern der Gewerkschaften unterstützend begleitet, um die Akzeptanz und rechtliche Akzeptabilität der MAP-Ergebnisse sicherzustellen.
APA, Harvard, Vancouver, ISO, and other styles
2

Tiferes, Judith, Ann M. Bisantz, Matthew L. Bolton, D. Jeffery Higginbotham, Ryan P. O’Hara, Nicole K. Wawrzyniak, Justen D. Kozlowski, Basel Ahmad, Ahmed A. Hussein, and Khurshid A. Guru. "Multimodal team interactions in Robot-Assisted Surgery." Proceedings of the Human Factors and Ergonomics Society Annual Meeting 60, no. 1 (September 2016): 518–22. http://dx.doi.org/10.1177/1541931213601118.

Full text
Abstract:
Communication gaps have been systematically linked to failures during surgery; however few studies have addressed challenges related to the remoteness of the surgeon during robot-assisted surgery (RAS). While studies on team communication in the Operating Room (OR) rarely report on nonverbal aspects, our initial work has shown that the vast majority of interaction events between the console surgeon and the right bed side assistant is nonverbal. This study focuses on improving our understanding of the nature of the multimodal interactions between surgeons and right bed side assistants. Six robot-assisted radical prostatectomies were recorded and the interaction events between the surgeon and the right bed side assistant were categorized by type (verbal/nonverbal), topic, and sender. The proportion of verbal and nonverbal events varied with the topic of the interaction. Strategies to improve team communication during surgery should take into account both the use of nonverbal communication means and the change in communication strategies based on purpose.
APA, Harvard, Vancouver, ISO, and other styles
3

Rocha, Ana Patrícia, Maksym Ketsmur, Nuno Almeida, and António Teixeira. "An Accessible Smart Home Based on Integrated Multimodal Interaction." Sensors 21, no. 16 (August 13, 2021): 5464. http://dx.doi.org/10.3390/s21165464.

Full text
Abstract:
Our homes are becoming increasingly sensorized and smarter. However, they are also becoming increasingly complex, making accessing them and their advantages difficult. Assistants have the potential for improving the accessibility of smart homes, by providing everyone with an integrated, natural, and multimodal way of interacting with the home’s ecosystem. To demonstrate this potential and contribute to more environmentally friendly homes, in the scope of the project Smart Green Homes, a home assistant highly integrated with an ICT (Information and communications technology) home infrastructure was developed, deployed in a demonstrator, and evaluated by seventy users. The users’ global impression of our home assistant is in general positive, with 61% of the participants rating it as good or excellent overall and 51% being likely or very likely to recommend it to others. Moreover, most think that the assistant enhances interaction with the smart home’s multiple devices and is easy to use by everyone. These results show that a home assistant providing an integrated view of a smart home, through natural, multimodal, and adaptive interaction, is a suitable solution for enhancing the accessibility of smart homes and thus contributing to a better living ambient for all of their inhabitants.
APA, Harvard, Vancouver, ISO, and other styles
4

Schultz, Carl, and Mehul Bhatt. "Multimodal spatial data access for architecture design assistance." Artificial Intelligence for Engineering Design, Analysis and Manufacturing 26, no. 2 (April 20, 2012): 177–203. http://dx.doi.org/10.1017/s0890060412000066.

Full text
Abstract:
AbstractWe present a multimodal spatial data access framework designed to serve the informational and computational requirements of architectural design assistance systems that are intended to provide intelligent spatial decision support and analytical capabilities. The framework focuses on multiperspective semantics, qualitative and artifactual spatial abstractions, and industrial conformance and interoperability within the context of the industry foundation classes. The framework provides qualitative and cognitively adequate representational mechanisms, and the formal interpretation of the structural form of indoor spaces that are not directly provided by conventional computer-aided design based or quantitative models of space. We illustrate the manner in which these representations directly provide the spatial abstractions that are needed to enable the implementation of intelligent analytical capabilities in design assistance tools. We introduce the framework, and also provide detailed use cases that illustrate the usability of the framework and the manner of its utilization within architectural design assistance systems.
APA, Harvard, Vancouver, ISO, and other styles
5

Herfet, Thorsten, Thomas Kirste, and Michael Schnaider. "EMBASSI multimodal assistance for infotainment and service infrastructures." Computers & Graphics 25, no. 4 (August 2001): 581–92. http://dx.doi.org/10.1016/s0097-8493(01)00086-3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Eisenmann, U., R. Metzner, C. R. Wirtz, and H. Dickhaus. "Integrating multimodal information for intraoperative assistance in neurosurgery." Current Directions in Biomedical Engineering 1, no. 1 (September 1, 2015): 188–91. http://dx.doi.org/10.1515/cdbme-2015-0047.

Full text
Abstract:
AbstractComputer-assisted planning of complex neurosurgical interventions benefits from a variety of specific functions and tools. However, commercial planning- and neuronavigation systems are rather restrictive concerning the availability of innovative methods such as novel imaging modalities, fiber tracking algorithms or electrical dipole mapping. In this respect there is a demand for modular neurosurgical planning systems offering flexible interfaces for easy enhancement. Furthermore all relevant planning information should be available within neuron-avigation. In this work we present a planning system providing these capabilities and its suitability and application in a clinical setting. Our Multimodal Planning System (MOPS 3D) offers a variety of tools such as definition of trajectories for minimally invasive surgery, segmentation of ROIs, integration of functional information from atlas maps or magnetoencephalography. It also supplies plugin interfaces for future extensions. For intraoperative application MOPS is coupled with the neuronavigation system Brainlab Vector Vision Cranial/ENT (VVC). We evaluated MOPS in the Department of Neurosurgery at the University Hospital Heidelberg. Surgical planning and navigation was performed in 5 frequently occurring clinical cases. The time necessary for planning was between 5 and 15 minutes including data import, segmentation and planning tasks. The additional information intraoperatively provided by MOPS 3D was highly appreciated by the neurosurgeons and the performance was satisfactory.
APA, Harvard, Vancouver, ISO, and other styles
7

Gao, Yixing, Hyung Jin Chang, and Yiannis Demiris. "User Modelling Using Multimodal Information for Personalised Dressing Assistance." IEEE Access 8 (2020): 45700–45714. http://dx.doi.org/10.1109/access.2020.2978207.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Kirchner, Elsa Andrea, Marc Tabie, and Anett Seeland. "Multimodal Movement Prediction - Towards an Individual Assistance of Patients." PLoS ONE 9, no. 1 (January 8, 2014): e85060. http://dx.doi.org/10.1371/journal.pone.0085060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Djaid, Nadia Touileb, Nadia Saadia, and Amar Ramdane-Cherif. "Multimodal Fusion Engine for an Intelligent Assistance Robot Using Ontology." Procedia Computer Science 52 (2015): 129–36. http://dx.doi.org/10.1016/j.procs.2015.05.041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Baeza, Rianna R., and Anil R. Kumar. "Perceived Usefulness of Multimodal Voice Assistant Technology." Proceedings of the Human Factors and Ergonomics Society Annual Meeting 63, no. 1 (November 2019): 1560–64. http://dx.doi.org/10.1177/1071181319631031.

Full text
Abstract:
Smart speaker devices are appealing to consumers, but the perceived usefulness of the multimodal voice experience is not fully understood. The purpose of this study was to evaluate the extent to which cognitive load, the relevance of visual information, and personality influence the perceived usefulness of multimodal voice assistant technology in a within-subjects repeated measures design. A multimodal voice prototype was created to answer the question, “What are some extreme weather conditions?” Nine variants, including 3, 5 and 7 system responses with relevant, irrelevant or no information presented on a screen were included. Three tasks were embedded within each condition (Stroop task, sort M&Ms and no task). Perceived usefulness score, recall, personality score, and fluctuations in galvanic skin response (GSR) values were the subjective and objective measures. The findings suggest that when there’s a smaller number of responses/words for the participant to attend to, and subsequently recall, in addition to relevant visual feedback to aid in that recall, they perceive the voice assistant experience to be more useful, while task conducted exhibits marginal significance in determining PU. Scores of conscientiousness, openness to experience, agreeableness, and neuroticism were successful in predicting some variation in the PU responses, while GSR data was not. It is highly recommended that UX designers of the multimodal interface create succinct voice responses with relevant visual feedback to accompany it, and to keep the main use cases of these products in mind to increase the experience’s PU and subsequent behavioral intention to use the product.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Assistance multimodale"

1

Kieffer, Suzanne. "Assistance multimodale à l'exploration de visualisations 2D interactives." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011312.

Full text
Abstract:
Ce travail porte sur la conception d'une nouvelle forme d'interaction Homme-Machine : la multimodalité parole+présentation visuelle en sortie du système. Plus précisément, l'étude porte sur l'évaluation des apports potentiels de la parole, en tant que mode d'expression complémentaire du graphique, lors du repérage visuel de cibles au sein d'affichages 2D interactifs.
Nous avons adopté une approche expérimentale pour déterminer l'influence d'indications spatiales orales sur la rapidité et la précision du repérage de cibles et évaluer la satisfaction subjective d'utilisateurs potentiels de cette forme d'assistance à l'activité d'exploration visuelle.
Les différentes études réalisées ont montré d'une part que les présentations multimodales facilitent et améliorent les performances des utilisateurs pour le repérage visuel, en termes de temps et de précision de sélection des cibles. Elles ont montré d'autre part que les stratégies d'exploration visuelle des affichages, en l'absence de messages sonores, dépendent de l'organisation spatiale des informations au sein de l'affichage graphique.
APA, Harvard, Vancouver, ISO, and other styles
2

Ullah, Sehat. "Multi-modal assistance for collaborative 3D interaction : study and analysis of performance in collaborative work." Thesis, Evry-Val d'Essonne, 2011. http://www.theses.fr/2011EVRY0003.

Full text
Abstract:
Les progrès récents dans le domaine de l'infographie et la capacité des ordinateurs personnels de rendre les scènes 3D réalistes ont permis de développer des environnements virtuels dans lesquels plusieurs utilisateurs peuvent co-exister et travailler ensemble pour atteindre un objectif commun. Ces environnements sont appelés Environnements Virtuels Collaboratifs (EVCs). Les applications potentielles des EVCs sont dans les domaines militaire, médical, l'assemblage, la conception assistée par ordinateur, la téléopération, l'éducation, les jeux et les réseaux sociaux. Un des problèmes liés aux EVCs est la faible connaissance des utilisateurs concernant l'état, les actions et les intentions de leur(s) collaborateur(s). Ceci réduit non seulement la performance collective, mais conduit également à des résultats non satisfaisants. En outre, les tâches collaboratives ou coopératives réalisées sans aide ou assistance, sont plus difficiles et plus sujettes aux erreurs. Dans ce travail de thèse, nous étudions l'influence de guides multi-modaux sur la performance des utilisateurs lors de tâches collaboratives en environnement virtuel (EV). Nous proposons un certain nombre de guides basés sur les modalités visuelle, auditive et haptique. Dans ce contexte, nous étudions leur qualité de guidage et examinons leur influence sur l'awareness, la co-présence et la coordination des utilisateurs pendant la réalisation des tâches. A cette fin, nous avons développé une architecture logicielle qui permet la collaboration de deux (peut être étendue a plusieurs utilisateurs) utilisateurs (distribués ou co-localisés). En utilisant cette architecture, nous avons développé des applications qui non seulement permettent un travail collaboratif, mais fournissent aussi des assistances multi-modales aux utilisateurs. Le travail de collaboration soutenus par ces applications comprend des tâches de type "Peg-in-hole", de télé-manipulation coopérative via deux robots, de télé-guidage pour l'écriture ou le dessin. Afin d'évaluer la pertinence et l'influence des guides proposés, une série d'expériences a été effectuée au LISA (Laboratoire d'Ingénierie et Systèmes Automatisés) à l'Université d'Angers et au Laboratoire IBISC (Informatique, Biologie Intégrative et Systèmes Complexes) d'Evry. Dans ces expériences, les utilisateurs ont été invités à effectuer des tâches variées, dans des conditions différentes (avec et sans guides). L'analyse a été effectuée sur la base du temps de réalisation des tâches, des erreurs et de l'apprentissage des utilisateurs. Pour les évaluations subjectives des questionnaires ont été utilisés. Ce travail contribue de manière significative au développement de systèmes collaboratifs pour la téléopération, la simulation d'assemblage, l'apprentissage de gestes techniques, la rééducation, la conception assistée par ordinateur et le divertissement
The recent advancement in the field oh high quality computer graphics and the capability of inexpensive computers to render realistic 3D scenes have made it possible to develop virtual environments where two more users can co-exist and work collaboratively to achieve a common goal. Such environments are called Collaborative Virtual Environnment (CVEs). The potential application domains of CVEs are many, such as military, medical, assembling, computer aided designing, teleoperation, education, games and social networks etc.. One of the problems related to CVEs is the user's low level of awareness about the status, actions and intentions of his/her collaborator, which not only reduces user's performance but also leads to non satisfactory results. In addition, collaborative tasks without using any proper computer generated assistance are very difficult to perform and are more prone to errors. The basic theme of this thesis is to provide assistance in collaborative 3D interactiion in CVEs. In this context, we study and develop the concept of multimodal (audio, visual and haptic) assistance of a user or group of users. Our study focuses on how we can assist users to collaboratively interact with the entities of CVEs. We propose here to study and analyze the contribution of multimodal assistance in collaborative (synchronous and asynchronous) interaction with objects in the virtual environment. Indeed, we propose and implement various multimodal virtual guides. Theses guides are evaluated through a series of experiments where selection/manipulation task is carried out by users both in synchronous and asynchronous mode. The experiments were carried out in LISA (Laboratoire d'Ingénierie et Systèmes Automatisés) lat at University of Angers and IBISC (Informatique, Biologie Intégrative et Systèmes complexes) lab at University of Evry. In these experiments users were asked to perform a task under various conditions (with and without guides). Analysis was done on the basis of task completion time, errors and users' learning. For subjective evaluations questionnaires were used. The findings of this research work can contribute to the development of collaborative systems for teleopreation, assembly tasks, e-learning, rehabilitation, computer aided design and entertainment
APA, Harvard, Vancouver, ISO, and other styles
3

Ullah, Sehat. "Assistance multimodale pour l'interaction 3D collaborative : étude et analyse des performances pour le travail collaboratif." Phd thesis, Université d'Evry-Val d'Essonne, 2011. http://tel.archives-ouvertes.fr/tel-00562081.

Full text
Abstract:
Les progrès récents dans le domaine de l'infographie et la capacité des ordinateurs personnels de rendre les scènes 3D réalistes ont permis de développer des environnements virtuels dans lesquels plusieurs utilisateurs peuvent co-exister et travailler ensemble pour atteindre un objectif commun. Ces environnements sont appelés Environnements Virtuels Collaboratifs (EVCs). Les applications potentielles des EVCs sont dans les domaines militaire, medical, l'assemblage, la conception assistee par ordinateur, la teleoperation, l'éducation, les jeux et les réseaux sociaux. Un des problemes liés aux EVCs est la faible connaissance des utilisateurs concernant l'état, les actions et les intentions de leur(s) collaborateur(s). Ceci reduit non seulement la performance collective, mais conduit également à des résultats non satisfaisants. En outre, les tâches collaboratives ou coopératives réalisées sans aide ou assistance, sont plus difficiles et plus sujettes aux erreurs. Dans ce travail de thèse, nous étudions l'influence de guides multi-modaux sur la performance des utilisateurs lors de tâches collaboratives en environnement virtuel (EV). Nous proposons un certain nombre de guides basés sur les modalites visuelle, auditive et haptique. Dans ce contexte, nous étudions leur qualité de guidage et examinons leur influence sur l'awareness, la co-presence et la coordination des utilisateurs pendant la réalisation des tâches. A cette effet, nous avons développé une architecture logicielle qui permet la collaboration de deux (peut être étendue à plusieurs utiliateurs) utilisateurs (distribués ou co-localisés). En utilisant cette architecture, nous avons développé des applications qui non seulement permettent un travail collaboratif, mais fournissent aussi des assistances multi-modales aux utilisateurs. Le travail de collaboration soutenu par ces applications comprend des tâches de type "Peg-in-hole", de télé-manipulation coopérative via deux robots, de télé-guidage pour l'écriture ou le dessin. Afin d'évaluer la pertinence et l'influence des guides proposés, une série d'expériences a ete effectuée au LISA (Laboratoire d'Ingénierie et Systemes Automatisés) à l'Université d'Angers et au Laboratoire IBISC (Informatique, Biologie Integrative et Systemes Complexes) à l'Université d'Evry. Dans ces expériences, les utilisateurs ont été invités à effectuer des tâches variées, dans des conditions différentes (avec et sans guides). L'analyse a été effectuée sur la base du temps de réalisation des tâches, des erreurs et de l'apprentissage des utilisateurs. Pour les évaluations subjectives des questionnaires ont été utilisés. Ce travail contribue de manière signicative au développement de systèmes collaboratifs pour la téléoperation, la simulation d'assemblage, l'apprentissage de gestes techniques, la rééducation, la conception assistée par ordinateur et le divertissement.
APA, Harvard, Vancouver, ISO, and other styles
4

Chapelier, Laurent. "Dialogue d'assistance dans une interface homme-machine multimodale." Nancy 1, 1996. http://www.theses.fr/1996NAN10117.

Full text
Abstract:
Les interfaces homme-machine destinées au grand public demeurent souvent d'une approche difficile malgré leur caractère attrayant et leurs nombreuses fonctionnalités. Un utilisateur peu expérimenté doit ainsi fournir un effort d'apprentissage et de compréhension important. Dans cette thèse, nous défendons notre point de vue sur le dialogue d'assistance à l'utilisateur dans le cadre de son interaction avec une interface multimodale intelligente. Pour cela, nous avons adopté une démarche empirique basée sur une expérience du type Magicien d'Oz. L'étude psycho- sociale du corpus obtenu a permis d'identifier et de formaliser des schémas de dialogue propres à différents type d'aide. A partir de ces résultats, nous proposons un modèle d'architecture multi-agents d'interface multimodale intelligente. Nous présentons une maquette du système de dialogue d'assistance montrant la mise en oeuvre des schémas de dialogue dans un système multi-agents
Man-machine interfaces for a wide range of users still remain difficult to use in spite of their attractive aspect and their many fonctionalities. Thus, a novice user has to learn how to use the interface. In this thesis, we present our results on the assistance dialogue with a user in interaction with a multimodal intelligent interface. We conducted an experimental study using the Wizard of Oz paradigm to observe the behaviour of the users in front of such a system. The psycho-social study of the corpus permitted to identify and formalise dialogue schemes corresponding to different types of help. From these results we propose a model of a multi-agents architecture of a multimodal intelligent interface. We present a prototype of the assistance dialogue system which shows the use of the dialogue schemes in a multi-agents system
APA, Harvard, Vancouver, ISO, and other styles
5

Mollaret, Christophe. "Perception multimodale de l'homme pour l'interaction Homme-Robot." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30225/document.

Full text
Abstract:
Cette thèse porte sur la perception multimodale de l'homme pour l'Interaction Homme-Robot (IHR). Elle a été financée par le projet ANR Contint RIDDLE (2012 - 2015). Ce projet est centré sur le développement d'un robot d'assistance pour les personnes âgées atteintes de troubles cognitifs légers. Celui-ci a pour but de répondre à un besoin grandissant d'aide à domicile envers les personnes âgées vivant seules. En effet, la population vieillissant de plus en plus, on estime qu'environ 33% des français auront plus de 60 ans en 2060. L'enjeu est donc de programmer un robot interactif (via ses capacités perceptuelles) capable d'apprendre la relation entre l'usager et un sous-ensemble d'objets du quotidien de ce dernier, soit des objets pertinents, présents ou possiblement égarés dans l'espace partagé du robot et de l'usager. Dans ce cadre, il reste de nombreux verrous à lever, notamment en termes de : (i) perception conjointe de l'homme et de son environnement, (ii) d'intégration sur un système robotisé, (iii) de validation par des scénarii mettant en jeu le robot et une personne âgée en interaction avec quelques objets usuels. La finalité du projet est de voir le robot répondre aux interrogations relatives à une dizaine d'objets courants (définis par une étude préliminaire sur une population qui se plaint de troubles cognitifs) par des actions appropriées. Par exemple, le robot signalera l'emplacement d'un objet en se déplaçant vers lui, en le saisissant ou en donnant des indications orales quant à sa position si l'objet n'est pas atteignable. Le projet RIDDLE est multipartenaire : il regroupe la société Magellium, le Gérontopôle de Toulouse, l'équipe MINC du LAAS-CNRS et l'entreprise Aldebaran Robotics dont le robot doit servir de plateforme pour les démonstrations finales. Cette thèse a été co-encadrée par Frédéric Lerasle et Isabelle Ferrané respectivement enseignants-chercheurs dans les équipes RAP du LAAS-CNRS et SAMoVA de l'IRIT-UPS. Lors de ce projet, nous avons, en partenariat avec le gérontopôle, défini un scénario robotique regroupant trois phases principales. Une phase de monitoring où le robot se trouve loin de l'utilisateur et l'observe de sa position, en attente d'une demande d'interaction, une phase d'interaction proximale où le robot se trouve proche de l'utilisateur et interagit avec lui, et enfin la transition qui permet au robot de passer d'une phase à l'autre. Ce scénario est donc construit de manière à créer un robot d'interaction proactif mais non-intrusif. Le caractère non-intrusif est matérialisé par la phase de monitoring. La proactivité est, quant à elle, matérialisée par la création d'un détecteur d'intentionnalité permettant au robot de comprendre de manière non-verbale la volonté de l'utilisateur de communiquer avec lui. Les contributions scientifiques de cette thèse recoupent divers aspects du projet : le scénario robotique, le détecteur d'intentionnalité, une technique de filtrage par essaim de particules, et enfin une technique bayésienne d'amélioration du taux d'erreur de mot à partir d'informations de distance. Cette thèse est divisée en quatre chapitres. Le premier traite du détecteur d'intentionnalité, le deuxième de la technique de filtrage développée, le troisième de la phase d'interaction proximale et des techniques employées, et enfin le dernier chapitre est centré sur les implémentations robotiques
This work is about human multimodal perception for human-robot interaction (HRI). This work was financed by the RIDDLE ANR Contint project (2012-2015). This project focuses on the development of an assisting robot for the elderly who experience small losses of memory. This project aims at coping with a growing need in human care for elder people living alone. Indeed in France, the population is aging and around 33% of the estimated population will be more than 60 years old by 2060. The goal is therefore to program an interactive robot (with perceptive capabilities), which would be able to learn the relationship between the user and a set of selected objects in their shared environment. In this field, lots of problems remain in terms of : (i) shared human-environment perception, (ii) integration on a robotic platform, and (iii) the validation of some scenarii about usual objects that involve both the robot and the elderly. The aim is to see the robot answer the user's interrogations about ten objects (defined by a preliminary study) with appropriate actions. For example, the robot will indicate the position of an object by moving towards it, grapping it or giving oral indications if it is not reachable. The RIDDLE project was formed by a consortium, with Magellium, the gerontology center of Toulouse, the MINC team from the LAAS-CNRS laboratory and Aldebaran Robotics. The final demonstrations will be led on the Rom´eo platform. This thesis has been co-directed by Fr´ed´eric Lerasle and Isabelle Ferran´e, respectively from the RAP team of LAAS-CNRS and the SAMoVA team of IRIT. Along the project, in partnership with the gerontology center, a robot scenario was determined following three major steps. During the first one -the "Monitoring step"- the robot is far from the user and waits for an intention of interaction. A "Proximal interaction step" is reached when the robot interacts with the user from a close position. Finally, the last step : the "Transition" allows the robot to move to reach the two previous ones. This scenario was built in order to create a not-intrusive proactive robot. This non-intrusiveness is materialized by the "monitoring step". The proactivity is achieved by the creation of a detector of user intention, allowing the robot to understand non-verbal information about the user's will to communicate with it. The scientific contributions of this thesis include various aspects : robotic scenarii, the detector of user intention, a filtering technique based on particle swarm optimization algorithm, and finally a Baysian scheme built to improve the word error rate given distance information. This thesis is divided in four chapters. The first one is about the detector of user intention. The second chapter moves on to the filtering technique. The third chapter will focus on the proximal interaction and the employed techniques, and finally the last chapter will deal with the robotic implementations
APA, Harvard, Vancouver, ISO, and other styles
6

Courtial, Nicolas. "Fusion d’images multimodales pour l’assistance de procédures d’électrophysiologie cardiaque." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S015.

Full text
Abstract:
Les procédures d’électrophysiologie cardiaque ont démontré leur efficacité pour la suppression de symptômes d’arythmie et d’insuffisance cardiaque. Leur taux de succès dépend de la bonne connaissance de l’état du cœur du patient, en termes de conductivité électrique, de qualité tissulaire, et de propriétés mécaniques. Cette intégration d’informations est un enjeu clinique majeur pour ces thérapies. Cette thèse porte sur le développement et l’exploitation de modèles multimodaux spécifiques au patient, pour la planification et l’assistance de l’ablation par radiofréquences (ARF) et de la thérapie de resynchronisation cardiaque (CRT). Des méthodes de segmentation, de recalage et de fusion d’informations multimodales ont dans un premier temps été établies pour la création de ces modèles, permettant de planifier ces procédures. Puis, des approches spécifiques à chacune ont été mises en œuvre pour intégrer ces modèles dans le bloc opératoire, pour assister le geste clinique. Enfin, une analyse postopératoire a permis la synthèse d’un nouveau descripteur multimodal, visant à prédire la réponse de la CRT suivant le site choisi de stimulation du ventricule gauche. Ces études ont été appliquées et validées pour des patients candidats à la CRT et à l’ARF. Elles ont montré la faisabilité et l’intérêt d’intégrer ces modèles multimodaux dans le workflow clinique pour l’assistance à ces gestes interventionnels
Cardiac electrophysiology procedures have been proved to be efficient to suppress arrythmia and heart failure symptoms. Their success rate depends on patient’s heart condition’s knowledge, including electrical and mechanical functions and tissular quality. It is a major clinical concern for these therapies. This work focuses on the development of specific patient multimodal model to plan and assist radio-frequency ablation (RFA) and cardiac resynchronization therapy (CRT). First, segmentation, registration and fusion methods have been developped to create these models, allowing to plan these interventional procedures. For each therapy, specific means of integration within surgical room have been established, for assistance purposes. Finally, a new multimodal descriptor has been synthesized during a post-procedure analysis, aiming to predict the CRT’s response depending on the left ventricular stimulation site. These studies have been applied and validated on patients candidate to CRT and ARF. They showed the feasibility and interest of integrating such multimodal models in the clinical workflow to assist these procedures
APA, Harvard, Vancouver, ISO, and other styles
7

Morin, Philippe. "Partner, un système de dialogue homme-machine multimodal pour applications finalisées à forte composante orale." Nancy 1, 1994. http://www.theses.fr/1994NAN10423.

Full text
Abstract:
L'objet de notre étude porte sur l'élaboration d'un système générique de dialogue homme-machine multimodal, le système Partner. Ses objectifs portent d'une part sur la création d'une interface multimodale conviviale et robuste, et d'autre part sur la définition d'une architecture propre à faciliter le développement d'applications variées. Sa contribution se situe dans le cadre d'applications finalisées. L'interface multimodale qu'il fournit, permet à un utilisateur coopératif de communiquer naturellement avec une application au moyen de la parole, mais aussi au moyen d'autres périphériques comme une souris, un écran tactile et un clavier. Un modèle sémantique multimodal est utilisé pour assurer l'indépendance du système vis-à-vis des périphériques d'entrées/sorties et de la langue. L'approche de Partner est basée sur une analyse des besoins interactionnels des applications qui a conduit à l'identification d'invariants dialogue. Il se caractérise par une architecture originale qui est de type client/serveur. Elle correspond à une décomposition de l'activité de communication en deux domaines d'expertise qui permet de décharger les applications des aspects interactionnels du dialogue pour que celles-ci puissent se focaliser sur leur tache. Un environnement de développement (toolkit dialogue) est mis à la disposition des concepteurs d'applications. Pour assurer une interaction conviviale et robuste, le système fournit également des mécanismes pour la gestion d'erreurs et d'incertitudes, et propose différentes solutions pour assister les utilisateurs dans leur interaction avec la machine. Partner est un système de dialogue opérationnel qui a donne lieu, à ce jour, à la réalisation de trois applications qui fonctionnent en temps réel et en plusieurs langues
APA, Harvard, Vancouver, ISO, and other styles
8

Lutkewitte, Claire E. "Multimodality is-- : a survey investigating how graduate teaching assistants and instructors teach multimodal assignments in first-year composition courses." CardinalScholar 1.0, 2010. http://liblink.bsu.edu/uhtbin/catkey/1560841.

Full text
Abstract:
This dissertation identifies if and how graduate teaching assistants and instructors working in the field of rhetoric and composition teach multimodal assignments in first-year composition (FYC) courses. The research questions for this study were as follows: 1) In what ways do graduate teaching assistants and faculty teach multimodal assignments in FYC courses? 2) Are graduate teaching assistants, adjuncts, and contract faculty equally as likely as assistant, associate, and full professors to teach multimodal assignments in FYC courses? 3) What kinds of training do graduate teaching assistants and faculty receive to prepare them to teach multimodal assignments in FYC courses? 4) Do graduate teaching assistants and faculty feel the kinds of training they receive adequately prepare them to teach multimodal assignments in FYC courses? If not, what needs to change? These research questions were investigated using a combination of online survey research methods and follow-up interviews. This study provides a broad and current analysis, as well as a reflective picture, of the teaching of multimodal assignments in FYC courses. As a result of quickly evolving technologies, instructors have potentially more opportunities to teach multimodal assignments. However, in some cases, writing program policies and curriculum limit or make it difficult for graduate teaching assistants and instructors to assign multimodal assignments in FYC courses. Thus, this study investigated the ways current graduate teaching assistants and/or instructors teach multimodal assignments despite difficulties and limitations. It also investigated whether or not graduate teaching assistants and instructors receive any training or help in shaping their multimodal pedagogy and whether or not they feel this training or help was adequate. The findings indicate instructors are more willing than their departments to implement multimodal composition pedagogy. The findings also show that instructors teach multimodal assignments in their classrooms in various ways, including the use of different technologies and resources. Evidence suggests that despite their desire for more help from their departments, instructors teach themselves how to use such technologies and resources to implement their multimodal composition pedagogy. The study concludes that how multimodal composition pedagogy is implemented in a writing classroom is more likely an individual instructor’s decision rather than a department’s decision.
Department of English
APA, Harvard, Vancouver, ISO, and other styles
9

Coue, Christophe. "Modèle bayésien pour l'analyse multimodale d'environnementsdynamiques et encombrés : Application à l'assistance à la conduite en milieu urbain." Phd thesis, 2003. http://tel.archives-ouvertes.fr/tel-00005527.

Full text
Abstract:
La perception de l'environnement constitue un prérequis fondamental pour l'extension des systèmes d'assistance actuels aux situations complexes de conduite induites par le milieu urbain. En particulier, le nombre et la dynamique des acteurs de la circulation rendent la poursuite multicible peu fiable, et par conséquent le contrôle du véhicule impossible. Cette thèse présente une représentation alternative de l'environnement du véhicule, qui évite les prises de décision prématurées de la poursuite multicible. Nous utilisons pour cela les grilles d'occupation de manière originale. En particulier ces grilles portent sur l'espace d'état des acteurs de la circulation (position et vitesse relative au véhicule), et sont égocentrées. L'absence de notion d'objet en tant que tel dans les grilles d'occupation permet de contourner les difficultés de la poursuite multi-objet. Un filtrage temporel inspiré des filtres bayésiens est également ajouté à l'estimation des grilles pour prendre en compte la dynamique de la scène. Le document illustre de manière incrémentale les qualités de notre représentation sur de nombreux exemples. Nous commençons par illustrer l'estimation statique de grille, lorsqu'un puis plusieurs capteurs fournissent une unique puis plusieurs observations. Par statique, nous entendons sans prise en compte de la dynamique temporelle de la scène. L'estimation dynamique est ensuite illustrée en suivant la même progression. Enfin, l'intérêt de cette représentation dans le contexte automobile est montrée par l'implémentation d'un algorithme d'évitement de collisions sur le Cycab. Le contrôle du Cycab est alors effectué sans qu'aucune décision sur les objets n'ait été prise.
APA, Harvard, Vancouver, ISO, and other styles
10

(8636196), Ting Zhang. "MULTIMODAL DIGITAL IMAGE EXPLORATION WITH SYNCHRONOUS INTELLIGENT ASSISTANCE FOR THE BLIND." Thesis, 2020.

Find full text
Abstract:
Emerging haptic devices have granted individuals who are blind the capabilities to explore images in real-time, which has always been a challenge for them. However, when only haptic-based interaction is available, and no visual feedback is given, image comprehension demands time and major cognitive resources. This research developed an approach to improve blind people’s exploration performance by providing assisting strategies in various sensory modalities, when certain exploratory behavior is performed. There are three fundamental components developed in this approach: the user model, the assistance model, and the user interface. The user model recognizes users’ image exploration procedures. A learning framework utilizing spike-timing neural network is developed to classify the frequently applied exploration procedures. The assistance model provides different assisting strategies when certain exploration procedure is performed. User studies were conducted to understand the goals of each exploration procedure and assisting strategies were designed based on the discovered goals. These strategies give users hints of objects’ locations and relationships. The user interface then determines the optimal sensory modality to deliver each assisting strategy. Within-participants experiments were performed to compare three sensory modalities for each assisting strategy, including vibration, sound and virtual magnetic force. A complete computer-aided system was developed by integrating all the validated assisting strategies. Experiments were conducted to evaluate the complete system with each assisting strategy expressed through the optimal modality. Performance metrics including task performance and workload assessment were applied for the evaluation.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Assistance multimodale"

1

Directory of services for technical assistance in shipping, ports, and multimodal transport to developing countries. New York: United Nations, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Assistance multimodale"

1

Hortal, Enrique. "Multimodal Assistance System." In Brain-Machine Interfaces for Assistance and Rehabilitation of People with Reduced Mobility, 23–34. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-95705-0_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Cifuentes, Carlos A., and Anselmo Frizera. "Multimodal Interface for Human Mobility Assistance." In Springer Tracts in Advanced Robotics, 81–100. Cham: Springer International Publishing, 2016. http://dx.doi.org/10.1007/978-3-319-34063-0_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Ferrer, Gonzalo, Anaís Garrell, Michael Villamizar, Iván Huerta, and Alberto Sanfeliu. "Robot Interactive Learning through Human Assistance." In Multimodal Interaction in Image and Video Applications, 185–203. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-35932-3_11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Cremers, Anita H. M., Maaike Duistermaat, Peter L. M. Groenewegen, and Jacomien G. M. de Jong. "Making Remote ‘Meeting Hopping’ Work: Assistance to Initiate, Join and Leave Meetings." In Machine Learning for Multimodal Interaction, 315–24. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-85853-9_29.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Papageorgiou, Xanthi S., Costas S. Tzafestas, Petros Maragos, Georgios Pavlakos, Georgia Chalvatzaki, George Moustris, Iasonas Kokkinos, et al. "Advances in Intelligent Mobility Assistance Robot Integrating Multimodal Sensory Processing." In Universal Access in Human-Computer Interaction. Aging and Assistive Environments, 692–703. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-07446-7_66.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Bohus, Dan, and Alexander I. Rudnicky. "LARRI: A Language-Based Maintenance and Repair Assistant." In Spoken Multimodal Human-Computer Dialogue in Mobile Environments, 203–18. Dordrecht: Springer Netherlands, 2005. http://dx.doi.org/10.1007/1-4020-3075-4_12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Alaçam, Özge, Christopher Habel, and Cengiz Acartürk. "Towards Designing Audio Assistance for Comprehending Haptic Graphs: A Multimodal Perspective." In Universal Access in Human-Computer Interaction. Design Methods, Tools, and Interaction Techniques for eInclusion, 409–18. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-39188-0_44.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Liao, Lizi, Lyndon Kennedy, Lynn Wilcox, and Tat-Seng Chua. "Crowd Knowledge Enhanced Multimodal Conversational Assistant in Travel Domain." In MultiMedia Modeling, 405–18. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-37731-1_33.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Wasinger, Rainer, Antonio Krüger, and Oliver Jacobs. "Integrating Intra and Extra Gestures into a Mobile and Multimodal Shopping Assistant." In Lecture Notes in Computer Science, 297–314. Berlin, Heidelberg: Springer Berlin Heidelberg, 2005. http://dx.doi.org/10.1007/11428572_18.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Niculescu, Andreea I., Ridong Jiang, Seokhwan Kim, Kheng Hui Yeo, Luis F. D’Haro, Arthur Niswar, and Rafael E. Banchs. "SARA: Singapore’s Automated Responsive Assistant, A Multimodal Dialogue System for Touristic Information." In Mobile Web Information Systems, 153–64. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-10359-4_13.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Assistance multimodale"

1

Leclercq, Pierre, Geneviève Martin, Catherine Deshayes, and François Guena. "Vers une interface multimodale pour une assistance à la conception architecturale." In the 16th conference. New York, New York, USA: ACM Press, 2004. http://dx.doi.org/10.1145/1148613.1148629.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bertoldi, Eduardo, and Lucia Filgueiras. "Multimodal advanced driver assistance systems." In the 2nd international workshop. New York, New York, USA: ACM Press, 2010. http://dx.doi.org/10.1145/2002368.2002370.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Rodriguez, B. Helena, Jean-Claude Moissinac, and Isabelle Demeure. "Multimodal instantiation of assistance services." In the 12th International Conference. New York, New York, USA: ACM Press, 2010. http://dx.doi.org/10.1145/1967486.1967652.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ortega, Fabio J. M., Sergio I. Giraldo, and Rafael Ramirez. "Bowing modeling for violin students assistance." In ICMI '17: INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA: ACM, 2017. http://dx.doi.org/10.1145/3139513.3139525.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Makula, Pooja, Anurag Mishra, Akshay Kumar, Krit Karan, and V. K. Mittal. "Multimodal smart robotic assistant." In 2015 International Conference on Signal Processing, Computing and Control (ISPCC). IEEE, 2015. http://dx.doi.org/10.1109/ispcc.2015.7374991.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Brun, Damien. "Multimodal and Context-Aware Interaction in Augmented Reality for Active Assistance." In ICMI '18: INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA: ACM, 2018. http://dx.doi.org/10.1145/3242969.3264966.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Guo, Wei, and Shiwei Cheng. "An Approach to Reading Assistance with Eye Tracking Data and Text Features." In ICMI '19: INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA: ACM, 2019. http://dx.doi.org/10.1145/3351529.3360659.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Mangipudi, Vidyavisal, and Raj Tumuluri. "Context-Aware Multimodal Robotic Health Assistant." In ICMI '14: INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA: ACM, 2014. http://dx.doi.org/10.1145/2663204.2669627.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Oh, Jin-hwan, Sudhakar Sah, Jihoon Kim, Yoori Kim, Jeonghwa Lee, Wooseung Lee, Myeongsoo Shin, Jaeyon Hwang, and Seongwon Kim. "Hang Out with the Language Assistant." In ICMI '19: INTERNATIONAL CONFERENCE ON MULTIMODAL INTERACTION. New York, NY, USA: ACM, 2019. http://dx.doi.org/10.1145/3340555.3358659.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Johnston, Michael, John Chen, Patrick Ehlen, Hyuckchul Jung, Jay Lieske, Aarthi Reddy, Ethan Selfridge, Svetlana Stoyanchev, Brant Vasilieff, and Jay Wilpon. "MVA: The Multimodal Virtual Assistant." In Proceedings of the 15th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL). Stroudsburg, PA, USA: Association for Computational Linguistics, 2014. http://dx.doi.org/10.3115/v1/w14-4335.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Assistance multimodale"

1

Ehlen, Patrick. Multimodal Meeting Capture and Understanding with the CALO Meeting Assistant. Fort Belvoir, VA: Defense Technical Information Center, January 2007. http://dx.doi.org/10.21236/ada506397.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography