To see the other types of publications on this topic, follow the link: Simulateurs.

Dissertations / Theses on the topic 'Simulateurs'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Simulateurs.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Michel, Pauline. "Simulateurs de conduite et adéquation architecture / modèles : impact sur le « mal du simulateur »." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPAST173.

Full text
Abstract:
E « mal du simulateur », qui s’apparente jusqu’à un certain point au mal des transports, est particulièrement problématique. La compréhension des causes du mal du simulateur et l'identification de procédés pour réduire l’occurrence de ce dernier sont des enjeux importants dans la mesure où elle introduit un biais double dans les résultats acquis : la population étudiée est filtrée « à la porte » et où le conducteur qui souffre de mal du simulateur risque d’avoir des comportements de conduite altérés.L'hypothèse que nous défendons dans le cadre de cette thèse concerne la relation entre « contrôlabilité » du système (le simulateur) et mal du simulateur. En simulation de conduite, le conducteur fait partie intégrante de la boucle : il initie les mouvements et reçoit les réponses du système. Notre hypothèse est que, dans ce cadre, un mauvais contrôle du déplacement du véhicule simulé induit des déplacements erratiques, perçus par le conducteur comme ne correspondant pas à ses attentes (du fait de son expérience de conduite antérieure) et donc non-acceptables.Pour tester cette hypothèse, nous avons repensé les modalités d’interfaçage conducteur/simulateur d’un simulateur de conduite moto préexistant : architecture matérielle et logicielle, structure capteurs/actionneurs de la colonne de direction, modèle de véhicule implémenté. Le simulateur, dans sa version actuelle, permet un meilleur degré de contrôlabilité par le conducteur pour des vitesses de déplacement moyennes à hautes
“Simulator sickness,” which is to some extent similar to motion sickness, is particularly problematic. Understanding the causes of simulator sickness and identifying ways to reduce its occurrence are important issues insofar as, on the one hand, the “at the door” filtering of the population studied on the simulator (people who are not susceptible) introduces bias in the results acquired and, on the other hand, a driver who suffers from simulator sickness is likely to behave differently in terms of their driving, which also introduces bias.The hypothesis we defend in this thesis concerns the relationship between the "controllability" of the system (the simulator) and simulator sickness.In driving simulation, the driver is an integral part of the loop: they initiate the movements and receive the system responses. Our hypothesis is that, in this context, a poor control of the simulated vehicle movement induces erratic movements, perceived by the driver as not corresponding to their expectations (because of their previous driving experience) and therefore unacceptable.To evaluate this hypothesis, we have redesigned the rider/simulator interfacing modalities of a pre- existing motorcycle simulator: hardware and software architecture, sensor/actuator structure of the steering column, and implemented vehicle model. In its current version, the simulator allows a higher degree of controllability by the driver for medium to high speeds
APA, Harvard, Vancouver, ISO, and other styles
2

Delabie, Christophe. "Elaboration d'un simulateur de dispositifs planaires microondes : Application à la caractérisation de matériaux supraconducteurs." Lille 1, 1994. http://www.theses.fr/1994LIL10146.

Full text
Abstract:
Cette etude a pour objectif de developper un code numerique propre a simuler des circuits microruban de forme quelconque, et d'inclure dans cette analyse une modelisation precise des pertes conducteurs, en vue d'une application a la caracterisation des pertes supraconductrices. Nous avons rappele dans le premier chapitre les principales etapes de la mise en uvre de l'approche dans le domaine spectral dans le cas simple du resonateur microruban rectangulaire. La bonne precision des resultats obtenus nous a amenes a reconsiderer au deuxieme chapitre la decomposition de la densite de courant au moyen de fonctions de base definies par sous-domaines, afin de pouvoir traiter des structures de forme quelconque. Nous presentons dans ce chapitre un formalisme original permettant la modelisation de terminaisons sans reflexion base sur la simulation de lignes de longueur infinie a l'aide de fonctions de base fantomes. L'application de cette technique a la determination de l'impedance d'entree d'un dipole ou aux parametres s de multipoles est presentee. Dans le troisieme chapitre nous presentons une analyse numerique qui nous permet de preciser la repartition du champ electromagnetique au sein d'un ruban metallique ou supraconducteur. Cette analyse permet de definir une impedance de surface equivalente en effectuant les bilans de puissances active et reactive au sein du ruban. Quelques resultats typiques sont presentes. Nous disposons des cet instant d'un outil capable de prendre en compte l'ensemble des phenomenes de pertes presentes dans les structures microruban. L'application de ce formalisme a la caracterisation des materiaux supraconducteurs s'opere en procedant par ajustement des courbes theoriques et experimentales. Quatre resonateurs differents en ybacuo et tibacacuo ont ete etudies. Les parametres des modeles a deux et trois fluides sont determines pour la conductivite complexe des materiaux supraconducteurs. Nous obtenons dans chaque cas des valeurs proches de celles precedemment mesurees par d'autres methodes sur les memes echantillons.
APA, Harvard, Vancouver, ISO, and other styles
3

Louboutin, Jean-Pierre. "Analyse et commande d'un actionneur quasi-résonant : application à l'optimisation énergétique d'un robot hybride." Orléans, 2002. http://www.theses.fr/2002ORLE2055.

Full text
Abstract:
La consommation énergétique des robots à pattes en régime dynamique rapide reste, de nos jours, un problème crucial. Dans bien des cas, en effet, l'augmentation des performances dynamiques d'un système détériore fortement ses performances énergétiques. L'approche ± roboticienneα couramment proposée pour tenter de résoudre ce dilemme consiste alors à élaborer des lois de commande - optimales ou non - nécessitant une formulation explicite du modèle dynamique du robot. De plus, le modèle de l'actionneur est souvent négligé car celui-ci est perçu comme un ± produit technologique α figé que l'on se procure sur étagère. C'est dans ce contexte que s'insère le travail présenté dans ce manuscrit. Après une mise en relief des aspects qui, de notre point de vue, limitent actuellement les performances dynamique et énergétique des robots à pattes en régime de fonctionnement rapide, le second chapitre mène à la proposition d'une ± approche actionneur α privilégiant d'une part, l'optimisation énergétique intrinsèque de la partie actionneur et, d'autre part, la modélisation numérique de l'ensemble de la partie mécanique de la structure. Cette approche numérique permet ainsi de s'affranchir de la détermination d'un modèle dynamique qui s'avère, dans bien des cas, éloigné de la réalité physique du système. Le troisième chapitre traite de la modélisation géométrique et des performances intrinsèques - i. E. Sans commande - d'un actionneur quasi-résonant défini par l'association d'un mécanisme particulier et d'un moteur à courant continu. Après avoir mis en exergue les propriétés structurelles d'un tel actionneur au regard des autres familles d'actionneurs utilisés en robotique, le quatrième chapitre propose la mise en œuvre d'une commande dite symétrique exploitant la ± symétrie naturelle α du système et nécessitant uniquement la prise en compte du modèle géométrique de la partie mécanique de l'actionneur. Le phénomène de quasi-résonance est ainsi clairement mis en évidence et l'approche numérique est validée via un simulateur, défini au sein de notre travail, permettant d'interconnecter directement - avec la même syntaxe - la partie ± moteur / commande α et la partie mécanique de la structure de l'actionneur. L'intérêt de ce simulateur est double : il permet d'une part, de valider différentes commandes en prototypant le système dans son ensemble sans utiliser la modélisation dynamique du robot, et d'autre part, d'implémenter sans aucune modification ces commandes sur le prototype réel. Le cinquième chapitre exploite le principe de quasi-résonance défini et étudié dans ce manuscrit au travers des organes propulseurs d'un robot hybride. Suite à l'optimisation énergétique du mécanisme pantographique servant à la locomotion du robot, la commande symétrique est mise en œuvre sur la structure complète. Un ensemble de résultats obtenus avec l'approche actionneur et le simulateur numérique sont finalement donnés
APA, Harvard, Vancouver, ISO, and other styles
4

Doré, Cyntia. "Étude de la transmissibilité d'attaches de simulateurs de vol." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1424.

Full text
Abstract:
Les simulateurs de vols sont très utilisés dans la formation des pilotes de lignes. Ces simulateurs reproduisent les différentes conditions de vol qu'un pilote pourrait avoir à faire face dans une situation réelle. Il est donc important qu'ils soient très représentatifs de la réalité. Le mouvement est simulé par l'action de vérins entraînant la cabine et créant l'illusion d'être dans un vrai appareil. Cependant, les vérins utilisés peuvent produire beaucoup des vibrations et l'utilisation d'isolateurs reliant les vérins à la cabine peut devenir nécessaire. Le but de cette étude était d'établir un modèle dynamique permettant l'amélioration et l'optimisation des performances d'isolateurs sur un simulateur de vol afin de minimiser le bruit à l'intérieur de l'habitacle. Pour ce faire, un modèle analytique du système vérins-isolateur-cabine a été établi. Ce dernier permet de calculer la position d'équilibre du système ainsi que de déterminer la transmissibilité en force sur la cabine. Le logiciel ANSYS a permis de valider ce modèle. Afin d'optimiser les isolateurs, il est important de s'assurer que les fréquences de résonance du système ne soient pas dans une gamme de fréquence non désirée. Pour ce faire, l'impact de la variation de différentes propriétés du système sur la position des fréquences de résonance a été étudié. Par exemple, en diminuant la masse de l'isolateur de 50%, une augmentation allant jusqu'à 25% de la position des fréquences de résonances est observée. De plus, un déplacement vers la droite du centre de gravité de l'isolateur de 50% amène les pics de résonances à se déplacer d'environ 45% vers la droite tandis qu'un changement de raideur des composantes élastiques les déplacent de 5% à 60%.
APA, Harvard, Vancouver, ISO, and other styles
5

Azzi, Rachid. "Environnement de développement de simulateurs pédagogiques de procédés industriels." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0104.

Full text
Abstract:
La conduite performante des systèmes de production pose 1' éternel problème de la formation du personnel d'exploitation. Cette formation est rendu indispensable par les coûts exorbitants qu'entraînerait l'apparition réelle d'incidents sur l'unité. De plus, la fastidieuse et longue durée d'apprentissage souvent par compagnonnage, les contraintes économiques et les risques réels encourus sur le système de production rendent nécessaires la conception et le développement de simulateurs pédagogiques pour l'apprentissage à la conduite de procédés industriels. La simulation, outil d'apprentissage, peut ainsi à des coûts et dans des délais raisonnables, améliorer la maîtrise des procédures de conduite, apprendre à reconnaître 1'apparition d'incidents et à réagir en conformité avec les critères de production et de sécurité. L'objet de notre étude est de proposer un environnement de développement de simulateurs pédagogiques. Nous avons développé un outil de spécification permettant la description (structurelle, fonctionnelle et comportementale) de l'installation industrielle et un outil de simulation qui se charge de l'exécution de scénarios de simulation
The efficient operation of production systems shows off the constant personal Training problem. This training is essential because of the prohibitive costs needed to remedy major incidents. Furthermore, the long period of any new operator training, the economic constraints and the real risks when using the production system, make needful the design and the development of pedagogic simulators. Simulation as a training tool allows, via reasonable delays and costs, the improvement of operation procedures mastership, the incident detection and how to react according to security and production criteria. The goal of this report is to propose an environment of developping educational simulators. We have developed a specification tool allowing industrial plant description (structural, functional and behavioural) and a simulation tool for scenario running
APA, Harvard, Vancouver, ISO, and other styles
6

Kaszczyc, Antoine. "Méthodes statiques pour la programmation fonctionnelle de simulateurs d'économies." Thesis, Paris 13, 2019. http://www.theses.fr/2019PA131045.

Full text
Abstract:
La première partie de la thèse a pour sujet les effets de bord dans les programmes fonctionnels, et leur simulation par les monades. Les propositions ont une portée générale : elles peuvent s’appliquer peu importe le thème du programme. Cependant, elles ont été inspirées par un contexte de programmation de simulateur d’économies. Ce type de programme utilise intensément les effets de bord et les répétitions de fonctions. Les propositions de la thèse sont plus pertinentes pour les programmes qui présentent ces caractéristiques.Comme bien d’autres, elles sont pensées dans un objectif d’organisation stricte du programme.Elles ne sont pas adaptées pour réaliser un programme "vite fait bien fait", mais plutôt un programme dans lequel des parties critiques ont été sécurisées et n’ont plus besoin d’attention.Le chapitre 1 introduit la programmation fonctionnelle, et des schémas d’exécution reflétant la consommation mémoire lors de l’exécution. Il introduit les monades, et les transformateurs de monades, en tant que mécanismes permettant d’automatiser la simulation des aspects mutables dans un contexte immutable. Le chapitre 2 aborde la gestion des effets de bord : la simulation d’une variable mutable par la monade State, et l’encadrement de sa valeur par un prédicat. Le chapitre commence par définir précisément cerque signifie le respect du prédicat, notamment par la solution bien connue du type abstrait. Ensuite, nous faisons observer que le prédicat est plus expressif lorsqu’il concerne un type fonctionnel (A ! A) plutôt que simplement A. La monade State fournit un support adéquat pour implanter le prédicat dans le programme, puisqu’elle exprime une variable mutable par des compositions de fonctions. Dans une simulation,la monade State abstraite avec prédicat permet d’exprimer des mécanismes auxiliaires mais ubiquitaires, tels la génération de nombre pseudo-aléatoire, ou la gestion de comptes bancaires. Ce sont deux concepts, la simulation d’effets de bord, et la garantie de prédicat, qui se résolvent par une même structure : la monade State abstraite.Le chapitre 3 concerne un autre aspect de la sécurité du programme : la consommation mémoire. Celle-ci est bornée par les composants physiques de l’ordinateur qui exécute le programme. Si l’exécution du programme nécessite trop d’espace mémoire, elle est simplement arrêtée. Le chapitre présente les deux types d’erreurs mémoire rencontrés en programmation fonctionnelle : Stack_Overflow et Out_Of_Memory. L’erreur Stack_Overflow est causée par les fonctions récursives. Le remède est l’optimisation de l’appel terminal.Cependant il est plus difficilement applicable en présence de monades, qui remplacent l’application standard par l’application bind, sur laquelle le programmeur a moins de contrôle. L’exemple emblématique est la monade State, qui crée des compositions de fonctions dont l’évaluation n’est pas optimisée. De plus,les compositions de fonctions doivent être stockées et risquent de générer une erreur Out_Of_Memory.Le chapitre présente ensuite les solutions existantes, dont la meilleure définit une fonction de récursion spécialisée à chaque monade. Les solutions existantes ne résolvent pas la situation où la récursion n’est pas"contrôlée", c’est à dire où le programmeur fournit seulement la fonction à répéter. Dans ce contexte, les solutions provoquent un risque d’erreur Out_Of_Memory, car elles stockent des opérations en suspension. [....]
The first part of the phd concerns side effects in functional programs, and their simulation by monads. The proposed solutions have a general goal : they are useful no matter the subject of the program. However, they have been inspired by the context of programming economics simulators. Indeed this kind of program use intensively side effects and repetition of functions calls. The proposed solutions are more usefulfor program with these characteristics. Like many others, they are suited for a strict organization of the program. They are not meant to build a "quick and well done" program, rather a program whose critical parts have been made safe and does not need any more attention.The chapter 1 introduces functional programming, with execution schemes representing memory consumption.It introduce monads, and monads transformers, as mechanisms allowing to automatize the simulation of mutable aspect in an immutable context.Chapter 2 address handling of side effects : the simulation of a mutable variable by the State monad, the framing of its value by a predicate. The chapter starts by defining precisely what means the respect of apredicate, in particular by the well known solution of abstract type. Then, we observe that the predicateis more expressive when it concerns a functional type (A ! A) rather than simply A. The State monad gives a adequate structure to implant the predicate in the program, since it simulates a mutable variable byf unction composition. In an economics simulator, the abstract State monad with a predicate can expresssimilar but ibiquitous mechanisms, as pseudo-random generation, or handling of bank accounts. These aretwo concepts, simulation of side effects and respect of a predicate, that are resolved by the abstract State monad.Chapter 3 address another aspect of program safety : memory consumption. It is boundered by physical components of the computer. If the execution of the program necessits too much memory space, the program is simply stopped. The chapter presents the two type of memory error in functional programing :Stack_Overflow and Out_Of_Memory. The error Stack_Overflow is caused by recursive functions. The solution is tail-call optimization. However it is more difficult to apply in the presence of monads, which replace the standard application by application bind, on which the oprogrammer has less control. The emblematic example is the State monad, which creates composition of functions non-optimized by tail-call.Moreover, composition of functions has to be stored and can generate an error Out_Of_Memory.The chapter then introduces the existing solutions, and the best one defines a function of recursion specialized for each monad. However none of the solution resolve the case where the recursion is "not controlled",ie when the programmer just gives a function to be repeted. In this context, the existing solutions present arisk of Out_Of_Memory, because they store functions in suspension.We present our solution : "monadic concretes". The idea is to create a context inside of which all the informations are known, for example theauxiliary variable of State. It is then possible to perform recursive uncontrolled recursion without suspendingoperations. The context is responsible for waiting the informations.The chapter ends by presenting the context of Read Eval Print Loop (REPL). It consists in extracting(reading) the monadic value between every bind. This present a problem with existing solutions, since every tome they have to recompute the suspensions. Monadic concretes then shows themselves adequate,since they do not use suspensions.Chapter 4 gather a set of observations resulting from the writing of a small functional economis simulator.They concerns the monads library realized from the previous chapter, the problem of lift, the use of mutability in isolated and time critical places. The chapter ends by an attempt of comparing programing with mutability versus immutability. [....]
APA, Harvard, Vancouver, ISO, and other styles
7

Pedrali, Mauro. "Vers un environnement multimédia pour l'analyse vidéo des causes d'erreurs humaines : application dans les simulateurs d'avions." Toulouse 1, 1996. http://www.theses.fr/1996TOU10056.

Full text
Abstract:
Ce travail concerne le développement d'une approche méthodologique et d'un outil pour l'analyse vidéo des causes d'erreur humaine. Ce prototype a été intégré dans un environnement multimédia pour l'analyse des incidents accidents. Notre approche repose sur un modèle cognitif et sur une classification d'erreurs humaines. La classification permet de reconstruire les enchainements causaux au travers desquels les erreurs latentes, combinées avec les aspects cognitifs, donnent lieu aux erreurs actives. L'outil se compose d'un organisateur des données et d'un analyseur. L'organisateur permet d'agencer les données concernant les erreurs, tandis que l'analyseur permet de tracer graphiquement (sous forme d'arborescence) les processus cognitifs qui ont amené aux erreurs. L'outil a été incorporé dans un environnement multimédia intégrateur dont l'architecture a été conçue conjointement à l'outil. Cet environnement s'appuie sur un système multimédia de haut niveau à l'aide duquel un analyste numérise et décompose en séquences l'enregistrement vidéo concernant un incident accident afin de créer des scenarios d’analyse. Dans la base de données sont archives sur trois niveaux différents les scenarios vidéo, les informations issues de l'organisateur et les résultats de l'analyse des causes. L'environnement sert de structure d'accueil a d'autres outils (organisateur et analyseur) supportant différentes méthodes d'analyse de l'activité humaine. L'outil a été testé sur une étude de cas concernant l'analyse de séquences vidéo enregistrées dans un simulateur d'avion. La simulation a permis de recréer assez fidèlement les conditions de travail qui existent dans un cockpit, y compris les situations d'urgence. Bien que des tests complets d'utilisabilité soient nécessaires pour une validation incontestable de l'outil, cette étude nous a fourni un premier retour d'expérience qui a montré l'intérêt capital d'une approche permettant de discerner l'ensemble des causes responsables d'une erreur et de reconstruire leurs enchainements dans les processus cognitifs
This research concerns the development of a methodological approach and of a software tool for video analyses of human error causes. We integrated this tool within a multimedia environment for accident incident investigations. Our approach relies on a cognitive model and on a classification of human errors. The classification allows to reconstruct the causal chains through which latent failures, combined with cognitive aspects, give rise to active failures. We implemented this approach in a tool composed of a data organizer and an analyzer. While the organizer supports the arrangement of data concerning errors, the analyzer helps in tracing the causal chain leading to errors as a fault tree. We integrated the tool within a multimedia environment whose architecture was conceived together with the tool. This environment relies on desktop for digital video editing and on a relational database, for the storage of the results. We have structured the database on three levels, each one in relation with a precise step of a video analysis. The expert stores the scenarios at level 1 (sorted data) ; the information coming from the organizer at level 2 (organizers and analyzers) that are supposed to be used on the same set of video recordings, but whose final results (in terms of data organization and analysis) are assumed to be stored separately. We tested the tool and the multimedia environment on a case study concerning the analysis of video sequences recorded in a full flight simulator. Though usability tests are necessary to completely validate david - from the point of view of its utilization and the accuracy of the results we can obtain, this study gave us a first feedback. The acknowledged advantage in this type of analysis shows the fundamental interest to discern the set of causes responsible of an active failure, and the reconstruction of the causal chain in the cognitive process
APA, Harvard, Vancouver, ISO, and other styles
8

Arzur, Fabien. "Développement de simulateurs de cibles pour radars automobiles 77 GHz." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0082.

Full text
Abstract:
Le travail présenté dans ce manuscrit porte sur le développement d’un simulateur de cible (RTS) pour radars automobiles 77 GHz. Afin de proposer des véhicules toujours plus sûrs, les constructeurs automobiles développent des systèmes ADAS de plus en plus performants. On assiste aujourd’hui à la démocratisation des radars automobiles d’alerte à la collision et de régulation de distance. La généralisation de tels systèmes sur des véhicules de série va nécessiter le recours accru à des moyens de tests, chez les constructeurs et dans les centres de contrôle technique. Pour pouvoir tester et calibrer les radars, il est nécessaire d’utiliser des RTS. Ces appareils permettent de simuler les scénarios rencontrés par le radar, ceux-ci devenant plus complexes avec le développement des voitures autonomes. Une cible est définie par trois paramètres : une vitesse, une distance et une SER. Afin de répondre à des exigences drastiques, Autocruise développe ses propres RTS pour des bancs de test de production et de R&D. Ils doivent s’adapter à tout radar fonctionnant sur la bande 76 – 81 GHz, avec différentes modulations et une bande de fréquence supérieure à 800 MHz. Le système doit être à bas coût, de faibles dimensions et flexible pour être intégré dans différentes applications. Le principal verrou technologique est la réalisation d’une ligne à retard variable, capable de simuler des distances comprises entre 1 m et 250 m, avec une résolution de 0,2 m et permettre le contrôle de la SER. Un compromis devra être trouvé afin de répondre aux spécifications. L’étude a montré l’impossibilité de couvrir l’ensemble de la plage de distances avec une seule technologie. Une architecture hybride est indispensable. Une ligne à retard hybride reconfigurable large bande est présentée
The work presented in this thesis concerns the development of an automotive radar target simulator for 77 GHz radar sensors. In order to continue offering safer vehicles, manufacturers develop more and more performant ADAS systems. We are witnessing a democratization of automotive radar sensors for adaptive cruise control and collision warning. The generalization of such systems on standard cars will require an increased use of test devices both at the manufacturers and in technical control centers. To test and calibrate radars, it is necessary to use Radar Target Simulators (RTS). These devices enable to simulate situations encountered by the radar. Furthermore, these scenarios are becoming increasingly complex with the arrival of autonomous vehicles. A target is defined by three parameters: distance, velocity and radar cross-section (RCS). In order to meet drastic requirements, ZF TRW Autocruise develops its own RTS for production test benches and R&D. RTS must adapt to all radars within a 76 – 81 GHz frequency band, with different modulations and a frequency bandwidth higher than 800 MHz. The system must present the advantages of being a low-cost system, with small dimensions and flexible to be integrated in different applications. The major blocking point is the design of a reconfigurable delay line, able to simulate distances between 1 m and 250 m with a resolution of 0.2 m on a large frequency band and also allowing control of RCS. A compromise will have to be found in order to meet the different specifications. The study showed the impossibility to cover the entire range of distances with one single technology. A hybrid architecture is necessary. A hybrid, tunable, wideband delay line is at study
APA, Harvard, Vancouver, ISO, and other styles
9

Pauwels, Benoît. "Optimisation sans dérivées sous incertitudes appliquées à des simulateurs coûteux." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30035/document.

Full text
Abstract:
La modélisation de phénomènes complexes rencontrés dans les problématiques industrielles peut conduire à l'étude de codes de simulation numérique. Ces simulateurs peuvent être très coûteux en temps d'exécution (de quelques heures à plusieurs jours), mettre en jeu des paramètres incertains et même être intrinsèquement stochastiques. Fait d'importance en optimisation basée sur de tels simulateurs, les dérivées des sorties en fonction des entrées peuvent être inexistantes, inaccessibles ou trop coûteuses à approximer correctement. Ce mémoire est organisé en quatre chapitres. Le premier chapitre traite de l'état de l'art en optimisation sans dérivées et en modélisation d'incertitudes. Les trois chapitres suivants présentent trois contributions indépendantes --- bien que liées --- au champ de l'optimisation sans dérivées en présence d'incertitudes. Le deuxième chapitre est consacré à l'émulation de codes de simulation stochastiques coûteux --- stochastiques au sens où l'exécution de simulations avec les mêmes paramètres en entrée peut donner lieu à des sorties distinctes. Tel était le sujet du projet CODESTOCH mené au Centre d'été de mathématiques et de recherche avancée en calcul scientifique (CEMRACS) au cours de l'été 2013 avec deux doctorants de Électricité de France (EDF) et du Commissariat à l'énergie atomique et aux énergies alternatives (CEA). Nous avons conçu quatre méthodes de construction d'émulateurs pour des fonctions dont les valeurs sont des densités de probabilité. Ces méthodes ont été testées sur deux exemples-jouets et appliquées à des codes de simulation industriels concernés par trois phénomènes complexes: la distribution spatiale de molécules dans un système d'hydrocarbures (IFPEN), le cycle de vie de grands transformateurs électriques (EDF) et les répercussions d'un hypothétique accident dans une centrale nucléaire (CEA). Dans les deux premiers cas l'émulation est une étape préalable à la résolution d'un problème d'optimisation. Le troisième chapitre traite de l'influence de l'inexactitude des évaluations de la fonction objectif sur la recherche directe directionnelle --- un algorithme classique d'optimisation sans dérivées. Dans les problèmes réels, l'imprécision est sans doute toujours présente. Pourtant les utilisateurs appliquent généralement les algorithmes de recherche directe sans prendre cette imprécision en compte. Nous posons trois questions. Quelle précision peut-on espérer obtenir, étant donnée l'inexactitude ? À quel prix cette précision peut-elle être atteinte ? Quels critères d'arrêt permettent de garantir cette précision ? Nous répondons à ces trois questions pour l'algorithme de recherche directe directionnelle appliqué à des fonctions dont l'imprécision sur les valeurs --- stochastique ou non --- est uniformément bornée. Nous déduisons de nos résultats un algorithme adaptatif pour utiliser efficacement des oracles de niveaux de précision distincts. Les résultats théoriques et l'algorithme sont validés avec des tests numériques et deux applications réelles: la minimisation de surface en conception mécanique et le placement de puits pétroliers en ingénierie de réservoir. Le quatrième chapitre est dédié aux problèmes d'optimisation affectés par des paramètres imprécis, dont l'imprécision est modélisée grâce à la théorie des ensembles flous. Plusieurs méthodes ont déjà été publiées pour résoudre les programmes linéaires où apparaissent des coefficients flous, mais très peu pour traiter les problèmes non linéaires. Nous proposons un algorithme pour répondre à une large classe de problèmes par tri non-dominé itératif
The modeling of complex phenomena encountered in industrial issues can lead to the study of numerical simulation codes. These simulators may require extensive execution time (from hours to days), involve uncertain parameters and even be intrinsically stochastic. Importantly within the context of simulation-based optimization, the derivatives of the outputs with respect to the inputs may be inexistent, inaccessible or too costly to approximate reasonably. This thesis is organized in four chapters. The first chapter discusses the state of the art in derivative-free optimization and uncertainty modeling. The next three chapters introduce three independent---although connected---contributions to the field of derivative-free optimization in the presence of uncertainty. The second chapter addresses the emulation of costly stochastic simulation codes---stochastic in the sense simulations run with the same input parameters may lead to distinct outputs. Such was the matter of the CODESTOCH project carried out at the Summer mathematical research center on scientific computing and its applications (CEMRACS) during the summer of 2013, together with two Ph.D. students from Electricity of France (EDF) and the Atomic Energy and Alternative Energies Commission (CEA). We designed four methods to build emulators for functions whose values are probability density functions. These methods were tested on two toy functions and applied to industrial simulation codes concerned with three complex phenomena: the spatial distribution of molecules in a hydrocarbon system (IFPEN), the life cycle of large electric transformers (EDF) and the repercussions of a hypothetical accidental in a nuclear plant (CEA). Emulation was a preliminary process towards optimization in the first two cases. In the third chapter we consider the influence of inaccurate objective function evaluations on direct search---a classical derivative-free optimization method. In real settings inaccuracy may never vanish, however users usually apply direct search algorithms disregarding inaccuracy. We raise three questions. What precision can we hope to achieve, given the inaccuracy? How fast can this precision be attained? What stopping criteria can guarantee this precision? We answer these three questions for directional direct search applied to objective functions whose evaluation inaccuracy stochastic or not is uniformly bounded. We also derive from our results an adaptive algorithm for dealing efficiently with several oracles having different levels of accuracy. The theory and algorithm are validated with numerical tests and two industrial applications: surface minimization in mechanical design and oil well placement in reservoir engineering. The fourth chapter considers optimization problems with imprecise parameters, whose imprecision is modeled with fuzzy sets theory. A number of methods have been published to solve linear programs involving fuzzy parameters, but only a few as for nonlinear programs. We propose an algorithm to address a large class of fuzzy optimization problems by iterative non-dominated sorting. The distributions of the fuzzy parameters are assumed only partially known. We also provide a criterion to assess the precision of the solutions and make comparisons with other methods found in the literature. We show that our algorithm guarantees solutions whose level of precision at least equals the precision on the available data
APA, Harvard, Vancouver, ISO, and other styles
10

Yacef, Kalina. "Vers un assistant tutoriel intelligent pour la formation d'opérateurs de systèmes complexes et dynamiques." Paris 5, 1999. http://www.theses.fr/1999PA05S017.

Full text
Abstract:
Les travaux décrits dans cette thèse visent à offrir un assistant tutoriel intelligent pour aider la formation opérationnelle d'opérateurs de systèmes complexes et dynamiques. Ce type de formation, qui a fait l'objet de peu de travaux d'enseignement intelligemment assisté par ordinateur, vise à développer les compétences opérationnelles de l'élève, c'est-à-dire ses aptitudes à gérer de manière sure et efficace toute situation ou problème, quelle que soit la charge de travail. Le domaine d'application de ces travaux est le contrôle aérien. Le système proposé ici diffère des tuteurs intelligents classiques, généralement autonomes, dans le sens qu'il conserve l'instructeur : il a pour but d'assister celui-ci dans ses tâches les plus laborieuses tout en lui conservant ses relations provilégiées avec l'élève ainsi que son rôle principal et primordial de pédaggoue. La problématique est d'évaluer l'acquisition des compétences opérationnelles de l'apprenant sans recourir à un modèle expert complet du domaine. En effet, les solutions expertes sont rarement uniques : deux experts peuvent avoir deux comportements différents face à une situation identique, sans que l'une soit meilleure que l'autre. La solution apportée consiste à proposer un modèle de développement de compétences opérationnelles (MOST), qui prend en compte les mécanismes d'apprentissage de ces compétences et qui compense l'indisponibilité d'un modèle complet de l'expert. Les mécanismes d'apprentissage identifiés sont la construction de patterns situationnels et l'atteinte d'un certain degré d'automaticité. Le modèle MOST met en oeuvre les tâches ciblées, leur pratique dans des situations et charges de travail diverses et les performances des résultats obtenus. A partir de ces principes, nous décrivons en détail l'évaluation de l'apprenant et la génération d'ojbectifs pédagogiques en vue de concevoir des exercices individualisés à l'élève.
APA, Harvard, Vancouver, ISO, and other styles
11

Jurvillier, Isabelle. "Etudes de fiabilité des systèmes complexes par simulations électroniques : réalisation d'un appareil configurable par ordinateur en fonction du modèle à étudier." Dijon, 1991. http://www.theses.fr/1991DIJOS035.

Full text
Abstract:
Ce travail se situe dans le cadre des études de fiabilité de systèmes complexes à l'aide de simulations électroniques. La complexité des systèmes industriels modernes nécessite de disposer d'outils rapides et conviviaux permettant de modéliser ces systèmes et de les analyser afin de déterminer leurs points faibles, la valeur de leur probabilité de défaillance, leur sensibilité par rapport à la défaillance de leurs composants élémentaires. La recherche entreprise a conduit au développement du prototype d'un nouveau simulateur entièrement configurable par ordinateur présentant des performances en vitesse au moins égales à celles des simulateurs cables existants (ESCAF), mais ne nécessitant plus d'opérations manuelles de cablage de la simulation. Le prototype, périphérique d'un micro-ordinateur, est considéré comme un coprocesseur de fiabilité. Ses capacités de traitement ont été étendues par rapport à celles des outils comparables existants, notamment dans le traitement des défaillances de cause commune.
APA, Harvard, Vancouver, ISO, and other styles
12

Varlet, Eric. "Etude d'un simulateur pédagogique d'écho-endoscopie digestive : modélisation et réalisation." Lille 1, 1997. http://www.theses.fr/1997LIL10196.

Full text
Abstract:
Les applications de l'informatique et de la realite virtuelle pour la medecine sont de plus en plus nombreuses, nous nous interessons plus particulierement les simulateurs pedagogiques medicaux. Cette these a pour objectif la conception et la realisation d'un simulateur pedagogique d'echo-endoscopie digestive (s. P. E. E. D. ). L'echo-endoscopie digestive est une technique medicale d'observation des structures a la peripherie du duodenum. Elle necessite un apprentissage long et difficile sous forme de compagnonnage. L'objectif de ce travail de these est donc l'elaboration d'un simulateur qui place l'eleve echo-endoscopiste dans des conditions proches de celles d'une echo-endoscopie reelle. Une description detaillee des mecanismes et phenomenes physiques intervenant lors d'une echo-endoscopie nous permet d'etablir le cahier des charges du simulateur. Il en resulte un decoupage du simulateur en plusieurs modeles et moteurs de simulation : un modele geometrique, un moteur de simulation echographique et un modele mecanique. Le modele geometrique utilise pour representer la surface des organes repose sur des surfaces implicites a squelettes. Nous decrivons une methode qui permet de facettiser en temps reel ces surfaces implicites en mouvement. La simulation echographique et plus particulierement la technique employee pour extraire un plan de coupe echographique du modele geometrique des surfaces est une adaptation du lancer de rayons, elle utilise un plongement du modele implicite des organes dans une structure decoupant l'espace de facon recursive (octree). Cette structure permet une synthese temps reel des images echographiques. Un modele mecanique calcule les interactions entre l'endoscope et les voies digestives, il sera integre dans une future version de s. P. E. E. D. L'ensemble des logiciels et materiels mis au point sont un modeleur de surface implicite, un afficheur 3d temps reel de surfaces implicites en mouvement et une interface mecanique.
APA, Harvard, Vancouver, ISO, and other styles
13

Benkhelil, Hassan. "Conception et réalisation d'un micro-simulateur de pluie pour les milieux rural et urbain." Artois, 2005. http://www.theses.fr/2005ARTO0208.

Full text
Abstract:
L'étude des phénomènes d'érosion hydrique, de ruissellement et d'infiltration des sols est essentielle pour la compréhension de nombreux problèmes environnementaux. Ces phénomènes peuvent être à l'origine de la baisse de productivité des sols, de pollution des eaux de surface et souterraine, d'innondation des zones urbanisées et de la mise en péril des infrastructures. Les recherches visant à mieux les appréhender sont grandement simplifiées quand l'expérimentateur possède la maîtrise du facteur pluie
The study of the phenomena of hydrous erosion, streaming and infiltration of the ground is essential for the comprehension of many environnemental problems. These phenomena can beat the origine of the fall of productivity of the grounds of water pollution of surface and underground of floods of the residential areas and setting in danger of the infrastructure researching aiming to bether apprehending them is largely simplified when the experimenter has the control of the factor rain
APA, Harvard, Vancouver, ISO, and other styles
14

Vilain, Loïc. "Conception et évaluation d'un système de surveillance : application au serrage hydraulique." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-161.pdf.

Full text
Abstract:
Cette these est consacree a l'etude de la surveillance d'un processus siderurgique, le serrage hydraulique d'une cage de laminoir. Apres la description du serrage hydraulique et de ses fonctionnalites nous presentons les donnees disponibles pour notre etude. Le module de generation des residus du systeme de surveillance est concu en utilisant l'analyse structurelle des equations du modele du systeme. Un simulateur est utilise pour quantifier numeriquement le cahier des charges a partir de l'influence des defaillances sur le systeme et evaluer les performances du systeme de surveillance genere. Nous proposons des solutions pour definir a partir des donnees disponibles un modele dont le comportement en simulation est proche du comportement du procede sur site. En etude preliminaire a la detection et localisation des defaillances, une etude theorique est menee pour determiner la sensibilite de la moyenne des residus aux defaillances, en tenant compte des divers points de fonctionnement du systeme. La simulation des defaillances permet d'effectuer une comparaison entre resultats theoriques et pratiques. Le dernier chapitre est consacre a l'evaluation par la simulation des performances qui pourront etre attendues du systeme de surveillance. Plusieurs procedures de detection a appliquer aux residus sont presentees. Elles servent de base a la quantification des amplitudes de defaillances minimales detectables et a l'evaluation des capacites de detection et de localisation pour les defaillances definies par le cahier des charges. Cette etude montre l'interet d'une instrumentation complementaire pour ameliorer les performances. L'utilisation des donnees enregistrees sur site fournit une indication de la robustesse des solutions retenues. Pour ameliorer celle-ci, des modifications sont proposees et leur incidence sur les performances est estimee.
APA, Harvard, Vancouver, ISO, and other styles
15

Wohrer, Adrien. "Model and large-scale simulator of a biological retina, with contrast gain control." Nice, 2008. http://www.theses.fr/2008NICE4011.

Full text
Abstract:
La rétine est une structure neuronale complexe, qui non seulement capte la lumière incidente au fond de l'oeil, mais procède également à des transformations importantes du signal lumineux. Dans la Partie I de ce travail, nous résumons en détail les caractéristiques fonctionnelles de la rétine des vertébrés: Il s'agit d'une structure très ordonnée, qui réalise un filtrage passe-bande du stimulus visuel, selon différents canaux parallèles d'information aux propriétés spatio-temporelles distinctes. Les trains de potentiels d'action émis par la rétine ont également une structure statistique complexe, susceptible de véhiculer une information importante. De nombreux mécanismes de contrôle de gain permettent une adaptation constante à la luminosité et au contraste. Le modèle de rétine défini et implémenté dans la Partie II de ce travail prend en compte une part importante de cette complexité. Il reproduit le comportement passe-bande, à l'aide de filtres linéaires spatio-temporels appropriés. Des mécanismes non-linéaires d'adaptation au contraste et de génération de potentiels d'action sont également inclus. Le mécanisme de contrôle du gain au contraste proposé permet une bonne reproduction des données expérimentales, et peut également véhiculer d'importants effets d'égalisation spatiale des contrastes en sortie de rétine. De plus, une analyse mathématique confirme que notre mécanisme a le comportement escompté en réponse à une stimulation sinusoïdale. Enfin, le simulateur /Virtual Retina/ implémente le modèle à grande échelle, permettant la simulation d'environ 100 000 cellules en un temps raisonnable (100 fois le temps réel)
The retina is a complex neural structure. The characteristics of retinal processing are reviewed extensively in Part I of this work: It is a very ordered structure, which proceeds to band-pass spatio-temporal enhancements of the incoming light, along different parallel output pathways with distinct spatio-temporal properties. The spike trains emitted by the retina have a complex statistical structure, such that precise spike timings may play a role in the code conveyed by the retina. Several mechanisms of gain control provide a constant adaptation of the retina to luminosity and contrast. The retina model that we have defined and implemented in Part II can account for a good part of this complexity. It can model spatio-temporal band-pass behavior with adjustable filtering scales, with the inclusion of plausible mechanisms of contrast gain control and spike generation. The gain control mechanism proposed in the model provides a good fit to experimental data, and it can induce interesting effects of local renormalization in the output retinal image. Furthermore, a mathematical analysis confirms that the gain control behaves well under simple sinusoidal stimulation. Finally, the simulator /Virtual Retina/ implements the model on a large-scale, so that it can emulate up to around 100,000 cells with a processing speed of about 1/100 real time. It is ready for use in various applications, while including a number of advanced retinal functionalities which are too often overlooked
APA, Harvard, Vancouver, ISO, and other styles
16

BARDET, J. CHRISTOPHE. "Analyse et conception de simulateurs d'impulsions electromagnetiques a lignes de transmission." Limoges, 1988. http://www.theses.fr/1988LIMO0009.

Full text
Abstract:
Ce memoire a pour objectif la determination du champ electromagnetique guide transitoire et rayonne par un simulateur d'impulsions electromagnetiques. Cette structure est constituee de trois lignes de transmission modelisees par des fils
APA, Harvard, Vancouver, ISO, and other styles
17

Bardet, Jean-Christophe. "Analyse et conception de simulateurs d'impulsions électromagnétiques à lignes de transmission." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37611519m.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Hétier, Mickaël. "Analyse et quantification des comportements des conducteurs automobiles lors des phases de pré-crash : Contribution au développement d'un modèle de détection des postures de conduite en temps réel." Valenciennes, 2009. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/06d45dbc-30f5-4321-8a44-db264fe3d947.

Full text
Abstract:
La standardisation des essais de crash implique une protection de l'occupant dans une position assise bien déterminée, sans tenir compte de la variété des caractéristiques individuelles, des positions réelles et des forces musculaires développées par les occupants lors de l'accident. L'étude de l'incidence des positions réelles, normalisées et atypiques, des caractéristiques morphologiques avant le crash et de l'impact des systèmes actifs est essentielle. En effet, durant cette phase appelée pré-crash, l'occupant anticipe les effets de chocs, modifie sa posture (mouvements des bras, etc. ) et génère des efforts (sur le volant, etc. ). Ces modifications cinématiques et dynamiques ont un effet sur la gravité des lésions occasionnées par l'accident. De ce fait, un nouveau modèle de sécurité automobile a été développé par les équipes C2S du LAMIH et LBMC de l'INRETS. Celui-ci consiste à déduire l'anthropométrie du conducteur puis sa position à chaque instant par des capteurs peu coûteux et une base de données sur les éventuelles réactions possibles du conducteur au moment de l'impact. Une connaissance des réactions au moment du choc permettra aux systèmes de protections de s'adapter en conséquence et ainsi optimiser au mieux la sécurité du conducteur. Il s'agira par exemple de modifier le temps de déclenchement et le volume des airbags, le repositionnement du siège ou les lois de comportement des prétensionneurs…Les travaux présentés dans ce mémoire de thèse ont pour but de contribuer au développement de ce nouveau concept et tout particulièrement sur la création d'une méthode permettant de détecter les réactions et les postures du conducteur en temps réel, à partir d'essais réalisés sur simulateurs de conduite automobile
Standardisation of crash-tests implies that the occupants are protected and seated with a predetermined position. In addition, standardisation does not take into account individual characteristics, real position and anticipatory reactions during a crash. Thus, it is essential to study the incidences of human beings' morphologies before a crash. It is indeed very important to study the effects of real, standardised and atypical postures in relation with the active protection systems. In fact, during the phase called pre-crash, the driver anticipates and tries to avoid the crash with a swerving movement. During the crash, these kinematics and dynamical modifications increase the injuries severity of the car occupant. Thus, a new concept of automobile safety was developed by the C2S, a LAMIH's research team, and the INRETS-LBMC laboratory. This concept consists of deducing, in real time, the anthropometry, and the driver's reactions and postures, with basic sensors, in order to adapt driver's protection systems at the crash time. For example, this system will modify, in function of driver's characteristics, the volume of airbags, the seat adjustments, or the pretentionners' performances. This doctoral thesis contributed to create this new concept and to develop the methodology. This methodology will allow to detect, in real time, the driver's behaviour and position, from results obtained with driving simulator tests
APA, Harvard, Vancouver, ISO, and other styles
19

Barthou, Adrien. "Confiance et reliance envers les systèmes en fonction de leur apparence physique." Paris 6, 2011. http://www.theses.fr/2011PA066441.

Full text
Abstract:
Les interactions entre un système d’aide et un opérateur sont régies par des notions similaires à celles dirigeant les interactions entre des individus. L'une de ces notions, la confiance entre les différents intervenants, a un rôle essentiel. Une confiance forte amenant logiquement les individus à interagir plus fortement ensemble. L’apparence physique pouvant jouer un rôle dans l’établissement de la confiance, nous avons souhaité dans le cadre de nos recherches, étudier l’influence de l’apparence des systèmes, apparence de leur Interface Homme-Machine ou physique, sur le niveau de confiance développé par les opérateurs envers ces systèmes, et par conséquent sur leur utilisation. Nos analyses se dérouleront sur deux systèmes distincts. La première étude est réalisée sur des systèmes d’aide à la navigation en fonction de deux interfaces Homme-Machine distinctes. Les résultats montrent que la confiance exprimée par les sujets est bien influencée par l’apparence de l’interface Homme-Machine du système utilisé. En revanche nous notons que l’utilisation du système n’est que peu modifiée par ce niveau de confiance. Ce résultat étant pertinent avec la littérature développant de plus en plus une distinction entre le niveau de confiance et l’utilisation des systèmes, la reliance, cette dernière prenant en considération des facteurs contextuels de façon plus importante que le niveau de confiance. Notre seconde expérimentation consistait à évaluer l’influence des outils de simulation sur le comportement des sujets. En accord avec notre problématique principale concernant l’effet de l’apparence des systèmes sur le ressenti de confiance qu’il engendre, nous avons comparé les ressentis et les données de conduite des sujets sur deux simulateurs d’apparence fortement distincte. Nos résultats montrent que la confiance a bien été influencée par l’apparence des systèmes et que le comportement des sujets sur les simulateurs était sensiblement différent. Même avec des simulateurs de performance réelle identique
APA, Harvard, Vancouver, ISO, and other styles
20

Aubert, Denis. "Etude, mise en œuvre et tests d'un simulateur de microprocesseur de traitement du signal." Nice, 1987. http://www.theses.fr/1987NICE4085.

Full text
Abstract:
Présentation d'une nouvelle méthode de simulation des systèmes microprogrammes, utilisant le macro-assembleur. Cette méthode est appliquée sur un simulateur pour processeur de signal interne. Evaluation des performances de cette technique de simulation
APA, Harvard, Vancouver, ISO, and other styles
21

Wibaux, Luc. "Une méthode de synthèse d'images échographiques : application à des simulateurs médicaux d'entraînement." Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-502.pdf.

Full text
Abstract:
Les médecins souhaitent améliorer leur formation par l'utilisation de simulateur d'entraînement. Cette évolution est possible grâce a l'émergence de nouvelles techniques comme la synthèse d'image et le retour d'effort. Dans ce cadre, nous avons travaillé sur la synthèse d'images échographiques en temps-réel. D'autres équipes de recherche ont adopté une solution basée sur la construction d'une base de donnée d'images utilisée lors de la simulation. Cette solution pose un certain nombre de problèmes, comme le mauvais positionnement d'artefacts sur les images de la simulation. Nous avons pris comme objectif d'établir une méthode de synthèse d'images échographiques s'appuyant sur la physique. Pour cela nous avons adapté l'algorithme du lancer de rayon à notre problème et utilisé des textures solides. Ceci nous a permis de rendre les principales caractéristiques des images échographiques de façon réaliste. La méthode est indépendante du modèle choisi pour la géométrie des organes
Toutefois les performances d'affichage en dépendent, l'intersection entre les rayons et les objets représentant une partie importante des calculs. Une première maquette logicielle nous a permis de montrer la validité de notre méthode. Nous avons ensuite conçu un simulateur pour les amniocentèses. Pour ce simulateur, nous proposons une solution pour que la déformation des organes soit visible. Cette déformation utilise les résultats des calculs du modèle mécanique et la modélisation des organes au repos. Le prototype du simulateur a été présenté à deux conférences médicales. Les spécialistes sont convaincus de l'utilité d'un tel simulateur dans leur formation. Cette thèse décrit une méthode temps-réel de synthèse d'images échographiques qui a été validé sur un cas concret. Elle peut s'appliquer à tout autre simulateur
APA, Harvard, Vancouver, ISO, and other styles
22

Ahmed, Saifuddin. "Modélisation thermodynamique des mélanges électrolytiques multi-solvants pour les simulateurs de procédés." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS002/document.

Full text
Abstract:
Les performances des modèles thermodynamiques actuels pour les solvants mixtes (en particulier avec alcools) électrolytiques sont limités. L’objectif de ce travail est d’étendre les capacités du modèle eGC-PPC-SAFT à ces systèmes. Ceci est fait en plusieurs étapes. Dans une première étape, le modèle PPC-SAFT existant est amélioré pour l’eau pure et les solvants usuels, par (1) introduisant une dépendance en température du diamètre sphère dure de l'eau et (2) adapter un minimum de paramètres ioniques sur les coefficients d’activité moyens et les densités des systèmes contenant des électrolytes forts ainsi que les sur les équilibres liquide vapeur des solvants mixtes d'électrolytes. Dans une troisième étape, le modèle final est utilisé pour représenter les équilibres liquide-liquide des solvants mixtes électrolytiques en étudiant les coefficients de partition de chacune des espèces dans le système. Pour cela, une stratégie de paramétrage des paramètres binaires ion-solvant a été développée, qui implique l’évaluation de l’impact de chacune des contributions individuelles du modèle ePPC-SAFT sur les coefficients de partition. Étant donné son importance dans le cadre de la modélisation thermodynamique de ces systèmes, une nouvelle règle de mélange pour le constant diélectrique est proposée. Au final, le modèle développé est capable de décrire les coefficients d’activité ainsi que les équilibres VLE et LLE des système électrolytiques avec solvants mixtes
The capabilities of the current thermodynamic models are limited in dealing with mixed-solvent electrolyte systems, due to the complex interactions within these systems. The objective of this work is to extend eGC-PPC-SAFT model to these systems. This is done in several steps. First, a modification in the temperature dependent water diameter was proposed. Second, a minimum number of ion-water parameters are determined on mean ioninc activity coefficients and densities of strong electrolyte systems, as well as vapour-liquid equilibria (VLE) of mixed solvent electrolytes. In the third step, the model is used to study the liquid-liquid equilibrium (LLE) of the mixed-solvent electrolyte system. This was done by looking at the partition coefficients of the individual species in the systems. In doing so, a parameterization strategy was developed for ion-solvent binaries that involve assessing the impact of the individual ePPC-SAFT contribution on the partitioning of individual species. A new method for dealing with the condition of electroneutrality in liquid-liquid ionic systems was proposed that involves a direct correction on the fugacity coefficient. In view of the importance of this property, a new mixing rule for the dielectric constant of mixed solvent is proposed to provide the best description of LLE of mixed solvent electrolyte. The final model is capable of describing, the activity coefficient, VLE, and LLE of mixed-solvent electrolyte systems
APA, Harvard, Vancouver, ISO, and other styles
23

Famy, Carine. "Les termes d'échange entre blocs et fractures dans les simulateurs de réservoirs fracturés." Phd thesis, Toulouse, INPT, 2006. http://oatao.univ-toulouse.fr/7573/1/famy.pdf.

Full text
Abstract:
La modélisation des écoulements en réservoir fracturé s’appuie généralement sur une représentation dite double-milieu. La fiabilité du calcul des transferts matrice-fissure est alors essentielle pour les prévisions de production. A l’échelle de la maille d’un simulateur double-milieu, ces transferts sont formulés en supposant un écoulement pseudo-permanent entre un bloc matriciel représentatif, non discrétisé, d’une part, et le réseau de fissures limitrophes homogénéisé d’autre part. Si elle peut suffire à estimer les échanges monophasiques, une telle formulation se révèle par contre inadaptée à la prévision des mécanismes de production polyphasiques. Cette thèse revisite une méthode de sous-maillage des blocs matriciels et l’optimise en vue de la rendre opérationnelle et intégrable aux simulateurs double-milieu tels qu’utilisés à ce jour par l’industrie pétrolière. Sur le plan théorique, un modèle mixte a été construit en couplant le modèle d’écoulement de fracture à grande échelle à un modèle d’écoulement à l’échelle locale du bloc matriciel désormais discrétisé et non plus comme un simple terme-source. Sur le plan pratique, la mise en œuvre de ce modèle mixte a comporté trois étapes principales, (a) la définition d’une méthode générale de discrétisation du bloc matrice réalisant le meilleur compromis entre caractère prédictif et coût de calcul, (b) la transcription numérique du couplage entre d’une part, le modèle double-milieu tel qu’utilisé actuellement et d’autre part, un modèle d’écoulement diphasique au sein du bloc matriciel maillé, (c) la validation des formules de couplage et des méthodes de résolution pour divers cas d’application qui mettent également en évidence l’impact de certaines hypothèses de travail. Le modèle mixte proposé offre de réelles et décisives perspectives d’amélioration des simulateurs double milieu de l’industrie.
APA, Harvard, Vancouver, ISO, and other styles
24

Ben-El-Kezadri, Ryad. "Modélisation par Composants des Interfaces Réseaux dans les Simulateurs de Réseaux Sans Fil." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00809515.

Full text
Abstract:
Ces dernières années ont été marquées par l'intégration dans les interfaces de réseaux sans fil de fonctionnalités de plus en plus nombreuses : qualité de service, routage, sécurité, mobilité, etc. Ces interfaces évoluent aujourd'hui vers des systèmes autonomes adaptatifs. Le problème de la simulation dans ce contexte est que l'écart technologique entre ces équipements et les moutures de simulation disponibles est devenu trop grand. Les systèmes en composants offrant un meilleur potentiel d'adaptation et d'évolution que les structures monolithiques classiques, nous proposons l'application du principe de modularisation aux cartes réseaux dans les simulateurs. Cette thèse est une réflexion autour de la flexibilité et de la réutilisation des composants dans les interfaces réseaux des simulateurs sans fil. Nous avons recours pour ce faire aux méthodes d'ingénierie logicielle FODA (Feature Oriented Domain Analysis) et FORM (Feature Oriented Reuse Method) pour définir l'ensemble des fonctionnalités possibles d'une interface réseau et les mapper dans une structure logicielle. La structure ainsi définie met en oeuvre plusieurs styles d'architecture dont les machines virtuelles, les systèmes à évènements et les processus communicants. Une suite d'outils permettant la comparaison des simulateurs est également proposée dans le cadre de la validation d'un tel système. Nos contributions sont les suivantes. (i) La conception et l'implémentation d'une suite d'outils dédiée à la comparaison et à la validation des simulateurs grâce à la mesure et à la certification par rapport aux spécifications. La solution se base sur un format de trace standard très détaillé baptisé 'langage neutre'. (ii) La définition d'un procédé de mapping des préoccupations utilisateurs vers une architecture de simulation. Celui s'appuie sur les méthodes FODA et FORM. (iii) La définition d'un prototype de carte réseau basé sur cette méthodologie.
APA, Harvard, Vancouver, ISO, and other styles
25

Aulignac, Diego d'. "Modélisation de l'interaction avec objets déformables en temps-réel pour des simulateurs médicaux." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0127.

Full text
Abstract:
La qualité du traitement médicale des patients s'améliore de jour en jour. Cette amélioration est souvent accompagnée d'une augmentation de la complexité des interventions et les procédures médicales. Cependant, la formation des patriciens est principalement assurée par l'expérience sur un patien réel, avec des dangers évidents pour des procédures mal maîtrisées. D'où l'objectif de notre travail : explorer les possibilités de fournir une formation virtuelle par la simulation sur ordinateur. Souvent, ces procédures médicales impliquent les tissus mous du corps. C'est pourquoi, nous étudions différents modèles d'objets déformables, tels que des masses-ressorts et des éléments finis, et examinons leur adéquation avec les applications médicales en termes d'exactitude et de complexité de calcul. Puisque ces modéles font partie d'un simulateur pédagogique, il est essentiel qu'ils fournissent des solutions en temps réel. Par conséquent, nous examinons la résolution des systèmes résultants de modèles déformables, et discutons les non-linéarités liées à la géométrie et au matériau. De plus, pour pouvoir apprendre, le stagiaire doit pouvoir interagir avec la simulation. Par conséquent, des collisions doivent être détectées et une réponse adéquate calculée. Particulièrement pour des dispositifs de retour d'efforts, la cadence de cette réponse est de grande importance pour une inter-action haptique réaliste. Nous appliquons ces méthodes dans le cadre d'un simulateur échographique de la cuisse humaine et d'une simulation laparoscopique du foie humain. Dans ce contexte, nous abordons les questions importantes telles que l'identification et l'évaluation des paramètres du modèle correspondant à des propriétés physiques du tissu.
APA, Harvard, Vancouver, ISO, and other styles
26

Pegaz-fiornet, Sylvie. "Etude de modèles pour la migration des hydrocarbures dans les simulateurs de bassin." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10049.

Full text
Abstract:
La modélisation de la migration des hydrocarbures dans les bassins sédimentaires a pour but d'évaluer leur potentiel pétrolier, en localisant et en quantifiant les accumulations d'hydrocarbures au sein des formations géologiques. Dans cette thèse, nous étudions les modèles de migration de type "Darcy" ainsi que des modèles simplifiés de types "ray-tracing" et "invasion percolation"; l'objectif est de mener une analyse critique et de proposer des améliorations tout en fournissant un guide pour une utilisation pertinente sur des cas d'étude.Tout d'abord, nous faisons une revue des mécanismes de la migration depuis l'échelle des pores jusqu'à l'échelle des bassins, puis nous présentons chacun des modèles.Dans le volet suivant, nous proposons deux algorithmes d'invasion percolation : le premier, adapté aux maillages structurés; le second, permettant de mieux prendre en compte les maillages non structurés. Dans un troisième volet, nous nous intéressons à la comparaison entre ces modèles, en nous concentrant sur ceux de types "Darcy" et "invasion percolation". Nous nous focalisons en premier lieu sur les aspects numériques en nous appuyant sur plusieurs cas tests; puis nous effectuons une comparaison formelle en étudiant la limite asymptotique de la solution du modèle de type "Darcy" en temps long. Nous présentons ensuite une série d'applications dont notamment l'étude d'un cas réel 3D en géométrie complexe.Finalement, nous concluons ce travail avec deux articles. Le premier montre une évolution des modèles de type "Darcy" en utilisant la méthode du raffinement local de maillage, avec une illustration sur un cas d'étude du nord du Koweït. Le deuxième synthétise les principaux résultats obtenus concernant les méthodes de "Darcy" et "d'invasion percolation"
Hydrocarbon migration modeling in sedimentary basins aims to localize and to quantify hydrocarbon accumulations in geological formations in order to estimate their petroleum potential. In this thesis, we study “Darcy” migration models and also simplified migration models such as “ray-tracing” and “invasion percolation”; the purpose is to conduct a critical analysis and to offer improvements while providing a guide for a relevant use on case studies.We start by a review of migration mechanisms from the pore scale to the basin scale, then we present each model.In a following part, we propose two invasion percolation algorithms: the first one is suited to structured grids, the second one allows to take better account of unstructured grids.In a third part, we take an interest in the comparison between the different models and particularly between “Darcy” and “invasion percolation” approaches. First we devote our attention to numerical aspects supported by several use cases; then we realize a formal comparison by studying the asymptotic limit of the “Darcy” model large time solution. Afterwards, we present several applications including the study of a 3D real case in complex geometry.Finally, we conclude this work with two articles. The first one shows an evolution of “Darcy” models by using the method of local grid refinement with an illustration on a case study from northern Kuwait. The second one synthesizes the main results on “Darcy” and “invasion percolation” methods
APA, Harvard, Vancouver, ISO, and other styles
27

Famy, Carine Quintard Michel. "Les termes d'échange entre blocs et fractures dans les simulateurs de réservoirs fracturés." Toulouse : INP Toulouse, 2008. http://ethesis.inp-toulouse.fr/archive/00000466.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Laporte, Matthieu. "Amélioration et exploitation d’un simulateur électro-optique du détecteur spatial d’ondes gravitationnelles LISA." Thesis, Sorbonne Paris Cité, 2019. http://www.theses.fr/2019USPCC013.

Full text
Abstract:
La détection d'ondes gravitationnelles en 2015 a posé la première pierre d'un tout nouveau pan de la physique de l'Univers. La multiplication et l'amélioration des détecteurs permettront, associées aux observations électromagnétiques, d'obtenir de précieuses informations sur les objets peu connus de l'Univers, comme les trous noirs. Dans ce contexte la mission LISA (Laser Interferometer Space Antenna) sera le premier détecteur interférométrique spatial à ondes gravitationnelles. Concrètement, l'effet d'une onde gravitationnelle est une déformation périodique de l'espace-temps, très faible, mais pouvant être détectée par mesure interférométrique. La mission LISA détectera ainsi des variations de longueur de l'ordre du picomètre pour une longueur de bras de l'ordre du million de kilomètres, soit une variation relative de 〖10〗^(-21). De tels niveaux de sensibilités nécessitent des techniques avancées de réductions de bruit qui doivent être testées numériquement et expérimentalement. Le bruit dominant sur la mesure sera le bruit de fréquence du laser, qui nécessitera, outre les techniques de stabilisation laser, l'utilisation d'une méthode de traitement numérique appelée interférométrie à temps retardés (TDI) qui permet de reformer virtuellement un interféromètre à bras égaux, ce qui a pour effet d'annuler le bruit de fréquence du laser. C'est particulièrement cette technique qui est testée par l'expérience faisant l'objet de cette thèse. Le LISA On Table (LOT) est un simulateur comportant une partie électronique et une partie optique permettant de simuler des signaux réalistes de LISA afin de tester TDI. Il permet de faire interférer des signaux retardés simulés représentatifs du temps de trajet de la lumière entre les satellites de la constellation LISA. L'expérience possédant ses propres bruits instrumentaux, il s'agit de travailler à leur compréhension et leur diminution. Le LOT permet en outre de tester d'autres points de la mission, comme le transfert de bruit d'horloge ou bien des prototypes d'instruments comme le phasemètre par exemple. Les travaux réalisés ont permis de faire fonctionner la partie optique du LOT sous vide, afin d'en limiter les bruits instrumentaux. L'expérience permet de tester et de valider TDI dans une configuration réaliste à bras inégaux de LISA. Des tests permettent aussi de valider la simulation de l'effet Doppler
The first gravitational waves detection in 2015 opened a brand new window on astrophysics and cosmology. Developement and enhancement of new instruments, coupled with electromagnetic observations, will help with the understanding of quite unknow objects of the Universe, such as black holes. In this context, the LISA mission (Laser Interferometer Space Antenna) will be the first space-based interferometric detector of gravitational waves. The effect of a gravitational wave is a weak periodic distortion of space-time but still observable with interferometric measurments. LISA will detect length variation in the range of picometer, for an arm length in the range of a million kilometer, which corresponds to a relative variation of 〖10〗^(-21). Such sensitivity levels require advanced noise reduction techniques which have to be tested both numerically and experimentally. The dominant noise on the measurement is the frequency noise of the laser. Besides laser stabilisation techniques, a data processing technique called time delay interferometry (TDI) will be needed. It allows to virtually reconstruct an equal arm interferometer, so that the frequency noise of the laser is canceled. This is the main noise reduction technique which is tested by the core experiment of this thesis work. The LISA On Table (LOT) is a simulator comprised of both an electronic and an optical part that can simulate realistic signals of LISA to test TDI. It enables simulated delayed signals, representative of the travel time of the light between satellites, to interfere. The experiment having its own instrumental noises, it is necessary to work on their comprehension and reduction. Moreover, the LOT can be used to test other key features of the mission, such as clock noise transfer, and instruments prototypes such as the phasemeter. the conducted studies made the LOT operational under vacuum, thus limiting the instrumental noises. With the experiment, TDI can be validated in a representative uneven arm length configuration of LISA. Doppler effect simulations are also tested
APA, Harvard, Vancouver, ISO, and other styles
29

Chalfoun, Joe. "Prédiction des efforts musculaires dans le système main avant-bras : modélisation, simulation, optimisation et validation." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0008.

Full text
Abstract:
Le projet SHARMES démarré en 2000 a comme objectif la réalisation d'une plateforme de simulation du système main et avant-bras. La prédiction dynamique des efforts musculaires responsables d'un geste est recherchée dans le cadre de ce projet. Après présentation du projet SHARMES donnée au début de ce manuscrit, une étude bibliographique sur les travaux de recherche dans le domaine de la réalisation d'une main robotique et de la conception d'un simulateur est ensuite développée. Le but du simulateur SHARMES est basé sur la reproduction hautement réaliste du système main et avant-bras. En effet, nous recherchons à estimer les efforts musculaires tout en respectant la condition de calcul temps-réel. A l'issue d'une étude anatomique, un modèle comportant 45 muscles et 24 degrés de liberté a été retenu. Une technique d'optimisation utilisant les multiplicateurs de Lagrange a été utilisée. La prédiction des efforts tendineux a été réalisée en temps-réel. La validation de ces efforts tendineux a nécessité le passage aux efforts musculaires. Une première approche de validation quantitative a été menée entre les activations prédites par optimisation et celles obtenues à partir des signaux EMG mesurés par des électrodes de surfaces. Ces premiers résultats ont validé l'approche adoptée dans ce travail ainsi que la modélisation développée
The objective of the project SHARMES, started in 2000, is the realization of a simulation platform of the system: hand and forearm. The dynamic prediction of the muscle forces responsible for a given movement of the system is the aim of the work described within the framework of this project. After a brief presentation of SHARMES project given at the beginning of this manuscript, a bibliographical study on the research tasks in the field of the realization of a robot-like hand and design of a simulator are then developed. The aim of the simulator SHARMES is based on the highly realistic reproduction of the movement of the system. Indeed, we seek to estimate the muscle forces while preserving the real-time condition. After an anatomical study, the selected model comprises 45 muscles and 24 degrees of freedom. An optimization technique utilizing the Lagrange multiplier was used. The prediction of the tendon forces was carried out in real-time. The validation of these forces required the muscle forces computation. A first approach of quantitative validation was carried out between activations predicted by optimization and those obtained from EMG signals measured by surface electrodes. These first results checked the accuracy of the procedure used as well as the models developed
APA, Harvard, Vancouver, ISO, and other styles
30

Ben, Rhouma Abdelkarim. "Caractérisation et modélisation des champs électromagnétiques rayonnés par les décharges de foudre en vue de l'élaboration d'un simulateur expérimental." Ecully, Ecole centrale de Lyon, 1996. http://www.theses.fr/1996ECDL0012.

Full text
Abstract:
La solution aux problemes de susceptibilite electromagnetique des circuits electriques et electroniques necessite dans un premier temps une bonne identification de la source de perturbation. Ceci permet de mieux evaluer ses effets et de lui associer les protections necessaires. Dans le cas du rayonnement de la foudre, ceci consiste a bien caracteriser l'environnement electromagnetique de la decharge, la ou elle peut etre dangereuse, et en particulier a faible distance de son lieu d'impact. Ceci fera l'objet du travail que nous presenterons. Ce travail comporte une partie theorique et deux parties experimentales ; l'une sur site, a l'echelle reelle et l'autre en laboratoire. L'etude theorique, a consiste a elaborer des modeles de calcul du rayonnement electromagnetique des deux phases les plus importantes de la decharge de foudre, a savoir celles du leader descendant et de l'arc en retour. Les resultats de ces modeles theoriques ont ete valides a l'aide du retour d'experience, issu des campagnes de declenchement artificiel de la foudre, effectuees sur le site naturel de camp blanding en floride, entre 1993 et 1995. Les resultats de ces campagnes de mesure a echelle reelle, nous ont egalement servi comme reference lors de l'etude du phenomene, menee en laboratoire, dans le but de definir un simulateur experimental, capable de reproduire un environnement electromagnetique, comparable a celui de la decharge de foudre. Ce simulateur, qui permettra d'etudier en laboratoire la susceptibilite electromagnetique des produits industriels a caractere electrique ou electronique, vis-a-vis des champs rayonnes par la foudre, a ete teste pour evaluer les effets induits par les champs electromagnetiques generes par la decharge, sur le cablage electrique d'un vehicule automobile
APA, Harvard, Vancouver, ISO, and other styles
31

Coutier, Thierry. "Élaboration d'un simulateur du fonctionnement d'un véhicule électrique : Application à l'augmentation de l'autonomie par la gestion des flux d'énergie." ENSMP, 1997. http://www.theses.fr/1997ENMP0814.

Full text
Abstract:
Il s'est agit durant la thèse, de chercher des solutions visant à augmenter l'autonomie d'un véhicule électrique par assistance au conducteur dans la gestion des flux d'énergie. Deux concepts ont été étudiés. Le premier consista à optimiser les trajectoires à l'aide d'un algorithme de commande optimale, le deuxième, à limiter progressivement avec la vitesse l'accélération disponible. Le premier concept utilisant la commande optimale requiert malheureusement une tâche de planification des trajectoires, interdisant une application à court comme à moyen terme. Mais l'algorithme établi a permis de montrer, en gardant inchangés les paramètres cinématiques habituels des cycles, que la consommation dépend également largement de l'asymétrie des histogrammes de vitesse, quantifiée par le coefficient d'asymétrie. Ce comportement des histogrammes renvoie à une caractéristique temporelle des trajectoires optimisées qui voient des paliers de vitesse se former autour de la vitesse moyenne. Les effets du deuxième concept ont été étudiés sur un simulateur complet de véhicule électrique, modélisant un volta. Une phase expérimentale a servi à en identifier les paramètres physiques, une validation a suivi. La discrétisation a été soigneusement étudiée, pour que le simulateur backward résultant allie précision et rapidité. Il permet de modifier les cycles de conduite utilisés en entrée en en tenant compte des limites de fonctionnement du véhicule. Après un bilan des performances, on a évalué les gains à escompter en appliquant la limitation progressive de l'accélération. En n'occasionnant que de faibles pertes de vitesse moyenne, l'autonomie augmente largement. Les raisons en ont alors été clairement explicitées. Les signaux obtenus se rapprochent de signaux optimisés au sens où le coefficient d'asymétrie augmente. Contrairement à l'algorithme de commande optimale, le concept de limitation progressive de l'accélération pourrait être facilement appliqué sur un véhicule actuel
This study has focused on improving electric vehicles autonomy by providing some driving assistance, helping the driver to better control the energy fluxes occuring on board. Two concepts were considered. The first one has taken optimal control theory as tool in order to find the optimal longitudinal trajectories. In the second one, the effects of a soft, gradually increasing with speed, limitation of the vehicle acceleration capabilities were studied. The first concept unfortunately requiring some path planning task, could not be yet implemented on actual vehicles. But the elaborated optimal control algorithm has been useful in showing that large consumption improvements can be achieved when the asymmetry of speed histograms grows, while classical driving cycles cinematic parameters are kept unchanged. This asymmetry is better quantified by the asymmetry coefficient. The behaviour of the histograms reflects the main temporal trend of the optimised trajectories : the creation of speed plateaux around the mean speed. The second concept was studied on a complete electric vehicle simulator, modelling a Volta. Some experiments were carried out to identify the physical parameters of the model, which has been validated by on road measurements. Discretization of the model has been carefully accomplished, so that the resulting backward simulator is both accurate and quick. It features a special algorithm, which modifies input driving cycles according to the working zone of the vehicle. Firstly, an assessment of the vehicle perforamnces among different representative driving cycles was made. Then, improvements, when progressive limitations of acceleration capabilities are applied, were evaluated. Results showed that while mean speed only slightly decreased, autonomy could significantly increase. Explanations were carefully investigated. According to the asymmetry coefficient, it appears that the modified driving cycles get closer to the optimised signals. Unlike the optimal control approach, the second concept does not require some path planning task and could be easily applied on an electric vehicle
APA, Harvard, Vancouver, ISO, and other styles
32

Faure, Vérane. "Les simulateurs de conduite : évaluation de la validité psychologique sous l'angle de la charge mentale." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS590/document.

Full text
Abstract:
La validité des simulateurs de conduite est une question essentielle pour étayer et valoriser les travaux visant à mieux comprendre les comportements de conduite. Alors que les dimensions subjective et comportementale de la validité ont été régulièrement étudiées, elles font face à certaines limites. A l’opposé, rares sont les études qui se sont intéressées à la validité psychologique des simulateurs. Cette dimension compare l'implication des mécanismes qui sous-tendent les comportements entre conduite réelle et virtuelle. De plus, très peu d’études ont confronté les différentes dimensions de la validité, alors que cela pourrait contribuer au développement d’une métrologie des environnements virtuels. C’est précisément à ce niveau que se situe ce travail de thèse, au cours duquel des mesures classiques de la validité comportementale (vitesse, contrôle latéral) ont été confrontées à des mesures de la validité psychologique examinée sous l’angle de la charge mentale en prenant notamment comme indicateur les clignements oculaires. L’objectif principal était de déterminer si le niveau de charge mentale diffère entre conduite sur route et conduite sur simulateur dans des cas où les comportements observés ne permettent pas de faire de distinction.Pour répondre à cette question, ce travail de thèse a été organisé autour de trois expériences réalisées sur simulateur de conduite et d’une étude sur route réelle. Les deux premières expériences visaient à mieux cerner l’effet de certains facteurs inhérents à la conduite sur route ouverte (trafic, environnement) sur les comportements de conduite et la charge mentale. La troisième expérience était quant à elle destinée à comparer la charge mentale induite par la conduite réelle et la conduite sur simulateur « bas coût », en confrontant cette mesure de la validité psychologique aux mesures comportementales classiques. Enfin, la quatrième expérience a porté sur les effets du retour d’effort du volant sur cette même charge mentale.Les principaux résultats ont mis en évidence un niveau de charge supérieur en conduite simulée par comparaison à la conduite en situation réelle, alors que certaines mesures comportementales (vitesse) n’étaient pas différentes. Cette charge accrue sur simulateur ne semble cependant pas trouver son origine dans le retour d’effort au volant, les modalités de retour testées n’ayant pas eu d’effet sur les indicateurs de la charge. Au final, ce travail confirme que la prise en compte de la validité psychologique, examinée ici sous l’angle de la charge mentale, présente un intérêt dans une démarche d’évaluation, dans le but de mieux cerner le positionnement des utilisateurs face à un dispositif de réalité virtuelle. Il ouvre ainsi des perspectives pour améliorer la validité des simulateurs de conduite
The validity of driving simulators is an essential subject to support and highlight the works aiming to understand driving behaviours more thoroughly. While the subjective and behavioural dimensions of that validity have often been studied, they encounter a few limits. On the other hand, studies about simulators’ validity are fairly rare. This dimension compares the implication of mechanisms inherent in behaviours between real and virtual driving. Furthermore, very few studies have considered the various dimensions of validity at once, whereas it could contribute to the development of a metrology for virtual environments. This thesis is precisely about this, with confrontations between classical measurements of behavioural validity (speed, lateral control) and measurements of psychological validity, examined from the viewpoint of mental workload - using indicators such as eye blinking. The main objective was to ascertain whether the mental workload levels vary between road driving and simulated driving when the observed behaviours aren’t relevant to make a clear difference.To answer this question, this thesis has been organised around three experiences carried out on driving simulators and a comparison between actual road driving and low-cost simulated driving. Two of those experiences were conducted to finely analyse the effect of some factors inherent to open road driving (traffic, environment) on driving behaviours and mental workload. The third experience was made to compare the mental workload induced by real driving and low-cost simulator driving, by putting this psychological validity measurement against classical behavioural measurements. Lastly, the fourth experience focused on the effects of the driving wheel’s force-feedback on this same mental workload.The main results revealed a higher workload level on simulated driving than on real driving, while some behavioural measurements (speed) were not different. This increased workload with the simulator does not seem to stem from the wheel’s force-feedback, since the tested feedback methods did not have a repercussion on the workload levels. In the end, this work confirms that taking psychological validity - examined here from a mental workload viewpoint - does have an interest within an evaluation process to analyse in a finer fashion the mental state of users when faced with a virtual reality system. It creates prospects to improve the validity of driving simulators
APA, Harvard, Vancouver, ISO, and other styles
33

Delbos, Benjamin. "Contributions au développement de simulateurs haptiques pour l'apprentissage du geste chirurgical de l'insertion d'aiguille." Electronic Thesis or Diss., Lyon, INSA, 2024. http://www.theses.fr/2024ISAL0136.

Full text
Abstract:
Au cours de ce doctorat, l'étude se concentre sur la simulation pour l'apprentissage du geste chirurgical d'insertion d'aiguille. Plusieurs thématiques liées à la conception de simulateurs haptiques utilisant un retour de force via une interface haptique ont été explorées. Deux échelles de travail sont à distinguer. La première concerne la reproduction haptique de l'interaction outil-tissu, visant à simuler les forces ressenties par le chirurgien lors de la pratique clinique. Bien que cette thématique ne soit pas spécifique à un geste particulier, elle s'applique à l'insertion d'aiguille, présente dans de nombreuses procédures chirurgicales. La problématique principale réside dans la modélisation et l'implémentation des forces d'insertion en simulation haptique, afin de reproduire fidèlement ces forces à travers une interface haptique. Parallèlement, une interface à retour de force a été conçue pour la simulation de l'insertion d'aiguille, optimisant ses performances tout en réduisant le coût des simulateurs, directement lié au coût de l'interface. La seconde thématique concerne la reproduction de l'interaction chirurgien-patient, spécifique au geste de ponction ventriculaire, un acte courant en neurochirurgie. L'objectif est de fournir une représentation réaliste du geste pour améliorer l'apprentissage via la simulation haptique. Le simulateur développé associe un retour haptique, un retour visuel et un mannequin anatomique. Cette approche multimodale, absente de la littérature, vise à équilibrer la simulation haptique et physique, tout en garantissant la cohérence des retours sensoriels. Enfin, une méthodologie a été établie pour diversifier les cas d'études en simulation patient-spécifique, malgré les contraintes imposées par la présence du mannequin physique, en explorant des méthodes de génération de simulations adaptées
In the course of this PhD, the study focuses on simulation for learning the surgical gesture of needle insertion. Several topics related to the design of haptic simulators using force feedback via a haptic interface have been explored. Two scales of work can be distinguished. The first concerns the haptic reproduction of tool-tissue interaction, aimed at simulating the forces felt by the surgeon during clinical practice. Although this theme is not specific to a particular gesture, it applies to needle insertion, which is present in many surgical procedures. The main problem lies in modeling and implementing insertion forces in haptic simulation, in order to faithfully reproduce these forces through a haptic interface. At the same time, a force feedback interface has been designed for needle insertion simulation, optimizing its performance while reducing the cost of simulators, which is directly linked to the cost of the interface. The second theme concerns the reproduction of surgeon-patient interaction, specific to ventricular puncture, a common procedure in neurosurgery. The aim is to provide a realistic representation of the gesture to enhance learning via haptic simulation. The simulator developed combines haptic feedback, visual feedback and an anatomical mannequin. This multimodal approach, absent from the literature, aims to balance haptic and physical simulation, while ensuring the consistency of sensory feedback. Finally, a methodology has been established to diversify patient-specific simulation case studies, despite the constraints imposed by the presence of the physical mannequin, by exploring suitable simulation generation methods
APA, Harvard, Vancouver, ISO, and other styles
34

Zertuche, Federico. "Utilisation de simulateurs multi-fidélité pour les études d'incertitudes dans les codes de caclul." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM069/document.

Full text
Abstract:
Les simulations par ordinateur sont un outil de grande importance pour les mathématiciens appliqués et les ingénieurs. Elles sont devenues plus précises mais aussi plus compliquées. Tellement compliquées, que le temps de lancement par calcul est prohibitif. Donc, plusieurs aspects de ces simulations sont mal compris. Par exemple, souvent ces simulations dépendent des paramètres qu'ont une valeur inconnue.Un metamodèle est une reconstruction de la simulation. Il produit des réponses proches à celles de la simulation avec un temps de calcul très réduit. Avec ce metamodèle il est possible d'étudier certains aspects de la simulation. Il est construit avec peu de données et son objectif est de remplacer la simulation originale.Ce travail est concerné avec la construction des metamodèles dans un cadre particulier appelé multi-fidélité. En multi-fidélité, le metamodèle est construit à partir des données produites par une simulation objective et des données qu'ont une relation avec cette simulation. Ces données approximées peuvent être générés par des versions dégradées de la simulation ; par des anciennes versions qu'ont été largement étudiées ou par une autre simulation dans laquelle une partie de la description est simplifiée.En apprenant la différence entre les données il est possible d'incorporer l'information approximée et ce ci peut nous conduire vers un metamodèle amélioré. Deux approches pour atteindre ce but sont décrites dans ce manuscrit : la première est basée sur des modèles avec des processus gaussiens et la seconde sur une décomposition à base d'ondelettes. La première montre qu'en estimant la relation il est possible d'incorporer des données qui n'ont pas de valeur autrement. Dans la seconde, les données sont ajoutées de façon adaptative pour améliorer le metamodèle.L'objet de ce travail est d'améliorer notre compréhension sur comment incorporer des données approximées pour produire des metamodèles plus précis. Travailler avec un metamodèle multi-fidélité nous aide à comprendre en détail ces éléments. A la fin une image globale des parties qui forment ce metamodèle commence à s'esquisser : les relations et différences entres les données deviennent plus claires
A very important tool used by applied mathematicians and engineers to model the behavior of a system are computer simulations. They have become increasingly more precise but also more complicated. So much, that they are very slow to produce an output and thus difficult to sample so that many aspects of these simulations are not very well understood. For example, in many cases they depend on parameters whose value isA metamodel is a reconstruction of the simulation. It requires much less time to produce an output that is close to what the simulation would. By using it, some aspects of the original simulation can be studied. It is built with very few samples and its purpose is to replace the simulation.This thesis is concerned with the construction of a metamodel in a particular context called multi-fidelity. In multi-fidelity the metamodel is constructed using the data from the target simulation along other samples that are related. These approximate samples can come from a degraded version of the simulation; an old version that has been studied extensively or a another simulation in which a part of the description is simplified.By learning the difference between the samples it is possible to incorporate the information of the approximate data and this may lead to an enhanced metamodel. In this manuscript two approaches that do this are studied: one based on Gaussian process modeling and another based on a coarse to fine Wavelet decomposition. The fist method shows how by estimating the relationship between two data sets it is possible to incorporate data that would be useless otherwise. In the second method an adaptive procedure to add data systematically to enhance the metamodel is proposed.The object of this work is to better our comprehension of how to incorporate approximate data to enhance a metamodel. Working with a multi-fidelity metamodel helps us to understand in detail the data that nourish it. At the end a global picture of the elements that compose it is formed: the relationship and the differences between all the data sets become clearer
APA, Harvard, Vancouver, ISO, and other styles
35

Mischler, Catherine. "Les concepts et les outils de la différentiation automatique appliqués aux simulateurs de procédés." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT039G.

Full text
Abstract:
La differentiation automatique (da), developpee dans le cadre du calcul formel, regroupe l'ensemble des methodes permettant d'obtenir un programme informatique calculant les derivees d'une fonction, elle-meme representee par un programme. L'enjeu de ces travaux est de definir avec precision les besoins en derivees, et de proposer des strategies de da, afin d'adapter un differentiateur automatique au domaine du genie des procedes. Les methodes mises en uvre dans les simulateurs commerciaux pour simuler (en regime permanent ou dynamique), concevoir ou optimiser un procede, et qui necessitent des derivees, ont ete recensees. Trois grandes classes de programmes ont ete degagees, respectivement associees aux proprietes thermodynamiques, aux operations unitaires (modules), et aux reseaux d'unites (sequence de modules). Sur la base du simulateur prosim, les algorithmes de da et, lorsque c'etait possible, le differentiateur odyssee ont ete testes sur des codes fortran, representatifs de chaque classe. Les tests montrent que, en thermodynamique, il faut differentier les proprietes scalaires en mode inverse et les proprietes vectorielles en mode direct. Des solutions pour pallier aux problemes specifiques des programmes des simulateurs sont proposees. Elles rendent les programmes generes par da aussi rapides que ceux generes a la main a partir des derivees analytiques. Notamment, une procedure pour le traitement des fonctions implicites et une representation adaptee des vecteurs et des matrices permettent la da des modules. De plus, pour l'utilisation de la methode de newton-raphson niveau procede, le jacobien est obtenu par propagation directe des derivees dans la sequence de modules. Les resultats prouvent qu'il est possible de developper un differentiateur adapte aux besoins du genie des procedes et qu'un tel outil devrait permettre d'une part un gain en travail humain pour la maintenance, le developpement et la qualite des codes, et d'autre part l'utilisation de methodes numeriques fiables et efficaces tant en simulation qu'en optimisation
APA, Harvard, Vancouver, ISO, and other styles
36

Ratsiambahotra, Tahiry. "Contribution à la simulation de processeur : conception d'un générateur de librairie de simulateurs fonctionnels." Toulouse 3, 2010. http://www.theses.fr/2010TOU30160.

Full text
Abstract:
L'adoption de la simulation comme un outil de test et de validation est unanime surtout dans le domaine des systèmes embarqués, domaine dans lequel les applications sont souvent complexes et où les méthodes formelles trouvent vite leurs limites. Cette simulation se base sur le noyau principal du matériel à embarquer qui est le processeur. Les systèmes à simuler sont de plus en plus complexes. Il en découle que concevoir un simulateur requiert beaucoup de temps et est passible d'erreurs. Parallèlement, le délai alloué à cette conception est raccourci à cause des délais de mise à disposition sur le marché de plus en plus courts. Ainsi, depuis les années 1990, la recherche sur la génération automatique de simulateur s'est accrue. Il devient de plus en plus indispensable de décrire le système à simuler avec un langage de haut niveau et ensuite de générer le simulateur pour minimiser les erreurs. Ce langage de haut niveau est appelé langage de description d'architecture ou ADL (Architecture Description Language). Nous nous intéressons dans cette thèse aux langages de description d'architectures de processeurs pour développer notre générateur automatique de simulateurs fonctionnels. Un générateur associé à un ADL peut viser à produire automatiquement plusieurs outils en même temps : un simulateur ou émulateur, un compilateur-assembleur ou générateur de code, un désassembleur-débogueur. En vérité, c'est une bibliothèque qui est produite et les outils sont générés à partir de templates d'utilisation de fonctions de la bibliothèque. L'approche modulaire a été proposée pour faire évoluer efficacement la description d'un processeur. Cette approche, que nous avons adoptée, propose de découpler la description de la partie fonctionnelle du processeur de la description structurelle. Ainsi, non seulement il est possible de faire évoluer l'une ou l'autre partie indépendamment mais un langage différent peut être utilisé pour chaque partie. Alors, pour la partie structurelle, des langages HDL (Hardware Description Language) comme SystemC ou VHDL sont appropriés tandis que, pour la partie fonctionnelle, un ADL est nettement préférable. D'une part, vu la diversité des jeux d'instructions (encodage, taille des instructions, mode d'adressage), et des outils ciblés (compilateur-simulateur), il est difficile de trouver, parmi les ADLs existants, un langage capable de décrire toutes les familles de jeux d'instructions existants. Pourtant durant la phase de conception, il est très important d'avoir le maximum de choix d'implémentations possibles. Plus il y a de choix d'implémentations, plus l'architecture qui en découle est sûre d'être la meilleure possible. D'autre part, dans les systèmes critiques, le principe de dissymétrie impose au concepteur de composer avec au moins deux architectures processeur différentes, son système embarqué. Même si ces choix dépendent de plusieurs facteurs, ils sont aussi limités par la capacité de l'ADL à décrire les architectures visées. L'idéal est donc de posséder un ADL qui est capable de décrire toute architecture. Nous avons adopté le langage ADL " nML " de l'université de Aachen, qui a été source d'inspiration de plusieurs firmes et chercheurs dans ce domaine pour réaliser notre générateur de librairie de simulation fonctionnelle : GLISS. Nous l'avons étendu afin que, d'une part, le langage soit capable de décrire toutes les familles de jeu d'instructions existantes (RISC, VLIW, CISC) et, d'autre part, que la taille du code généré soit plus compacte et la vitesse de simulation plus grande. Ces trois facteurs (universalité, compacité du code généré et vitesse de simulation) sont importants pour l'intégration du générateur dans un environnement de simulation complet. Nous avons actuellement, généré cinq librairies de simulateurs fonctionnels pour le HCS12X de Freescale, l'ARM V5 (y compris l'extension Thumb), l'IBM PowerPC750, le Sharc d'Analog Devices et le Tricore d'Infineon). Cependant, la bibliothèque générée par GLISS peut être utilisée dans n'importe quel outil acceptant le code C
Instruction-set simulators (ISS) are more and more used in design space exploration and functional software testing. Furthermore, cycle-accurate simulators are often made of a functional coupled to a timing simulator. Research about ISS generators is not new but most often addresses only simple instruction sets (i. E. RISC). This paper describes techniques to ease the description of complex Instruction-Set Architectures and to increase simulation speed. They are integrated in a tool which generates libraries containing functions to disassemble (useful for testing), decode and simulate many different architectures like RISC, CISC, VLIW and is able to deal with variable-length instructions. We successfully generated and used ARM/thumb, HCS 12X, Tricore, Sharc, PPC simulators and experiments have been made on the x86 architecture
APA, Harvard, Vancouver, ISO, and other styles
37

Pinto, Maria. "Les interactions multisensorielles dans la perception du mouvement longitudinal : implications pour les simulateurs de conduite." Grenoble 3, 2007. http://www.theses.fr/2007GRE39015.

Full text
Abstract:
Les simulateurs de conduite destinés à la recherche et au développement sont des outils courants. Cependant certains résultats posent la question de leur validité. On observe que l'absence de mouvement des simulateurs statiques induit des différences comportementales par rapport à la conduite réelle. La discordance entre les informations visuelles de mouvement et les informations proprioceptives et vestibulaires pourrait expliquer le décalage observé et contribuer à provoquer le mal du simulateur, le deuxième volet de cette problématique. On observe également des différences de comportement de freinage entre les situations réelles et simulées sur simulateur dynamique. Cette thèse porte donc sur l'analyse des interactions entre les différentes modalités sensorielles impliquées dans la perception du mouvement linéaire, afin d'améliorer le freinage sur simulateur tout en limitant le risque de cinétose. Nous avons étudié l’influence d'un environnement sonore et d'un mouvement en tangage de l'horizon visuel sur simulateur statique et mesuré la contribution d'un mouvement doté ou non d'une composante longitudinale sur simulateur dynamique. Ces facteurs ont été testés dans une tâche de freinage et dans une situation de conduite en file. Cette approche comportementale est associée à une approche différentielle basée sur le style perceptif des participants. Les résultats mettent en évidence une amélioration du freinage sur simulateur statique en présence du mouvement en tangage de la scène visuelle et du son, et une légère influence de la base mobile. Toutefois le mouvement longitudinal n'a qu'une influence limitée sur le comportement de freinage
Driving simulators for research and development are common today. But recent results raise the problem of its validity while emphasising two inherent points with the driving simulator. First, it is actually observed that the lack of motion in fixed-based simulators induces behavioural differences in simulated as compared to real situations. Visual information on movement without congruent vestibular or proprioceptive information is thought to contribute to creating the type of conflict underlying simulator sickness, which is the second main point of this thesis. But different braking behaviour in real and simulated situations is also observed in motion-base simulators. Thus the subject of this thesis deals with the analysis of the interactions between the various sensory systems linked to perception of longitudinal movement, with the aim of improving braking performance on driving simulator, while limiting the risk of inducing simulator sickness. We tested the influence of the sound feedback and of the pitch of the visual scene on a fixed-base simulator, and measured the contribution of a movement with or without a small amplitude longitudinal translation on a motion-base simulator. These factors were tested on a braking-to-stop task and on a car-following situation. This behavioural approach was associated to a differential approach based on subject's perceptive style. The results showed an improvement of braking manoeuvres on the fixed-based simulator when visual and auditory deceleration cues were present. A minor influence of the motion-base was also observed. However, the small longitudinal motion had only a slight effect on braking behaviour
APA, Harvard, Vancouver, ISO, and other styles
38

Gagnerot, Georges. "Etude des attaques et des contre-mesures associées sur composants embarqués." Limoges, 2013. http://aurore.unilim.fr/theses/nxfile/default/feffb1ab-ad89-4586-a86c-efb78fb12b3c/blobholder:0/2013LIMO4057.pdf.

Full text
Abstract:
Les systèmes cryptographiques embarqués sont de plus en plus employé de nos jours allant de la carte bancaire, à la SIM qui nous identifie sur le réseau téléphonique, jusqu’à nos smartphones qui contiennent de nombreuses données sensibles voir secrètes. Ces systèmes doivent résister à un grand nombre d’attaques autant physiques que logiques. Les travaux qui suivent décrivent dans un premier temps la cryptographie ainsi que les différents algorithmes classiquement utilisés. Un état de l’art sur les techniques d’attaques par canaux cachés est ensuite présenté, ces attaques sont dévastatrices car elle ne demandent pas forcément de détenir le dispositif, elles peuvent être effectuées à distance grâce à du matériel performant. Elles consistent à étudier les émissions produites par un composant pendant qu’il traite un secret afin de retrouver ce dernier par des calculs statistiques ou de simples observations comme le temps de traitement. Nous présentons ensuite les attaques par fautes qui sont un autre type d’attaque qui menacent les composants sécurisé, il s’agit cette fois d’induire un comportement différent en introduisant des modifications extérieures au composant comme l’envoie de photons ou des décharges électriques afin de le mettre dans un état non standard et d’utiliser cela pour récupérer les secrets utilisés. Puis dans une seconde partie nous proposons de nouvelles attaques et contremesures associées ainsi que de nouvelles implémentations d’algorithme pour sécuriser les calculs tout en les accélérant. Nous présentons également un simulateur d’émissions par canaux cachés ainsi qu’un simulateur de faute pour permettre d’évaluer plus rapidement et à moindre coût la sécurité des systèmes sécurisés
Embedded cryptographic systems are more and more used nowadays, starting from our credit card, to our SIM that identifies us on the GSM networks, or to our smartphones for example that store personal or secret data. Those systems have to be resistant against different kind of attacks, physical and logical. Our work that we present thereafter first introduce cryptography with the different classic algorithms used. We proceed to present the state of the art on side channel attacks, those attacks are very dangerous since they do not always need the physical possession of the target device, and can be done remotely with the good material. They are based on the study of the emissions produced by a component while it is using the secret stored in its internal memory to retrieve the secret through statistic computations or simple observations like the time it takes to treat data. We then propose a survey on faults attacks that also threaten security product. The idea is to produce a non standard behavior by changing its environment, like sending photons or power discharge and then trying to recover the secrets. In a second part, we propose new attacks, associated counter-measures and new algorithm to secure computation while making them also quicker. We present after a simulator of side channel emissions and faults attacks that allows us to assess the security of embedded systems quicker and cheaper than standard methods
APA, Harvard, Vancouver, ISO, and other styles
39

Thorel, Claire. "Maîtrise de la qualité microbiologique en réseau de distribution : impact de procédés alternatifs de désinfection sur des biofilms d'eaux thermales." Poitiers, 2002. http://www.theses.fr/2002POIT2255.

Full text
Abstract:
Les établissements thermaux connaissent des épisodes récurrents de contamination bactérienne des eaux distribuées. Le but de nos travaux était d'évaluer l'efficacité désinfectante de quelques procédés "alternatifs" (acide peracétique, monochloramine, peroxyde d'hydrogène, sels d'ammonium quaternaire et prétraitements acides ou basiques) sur des biofilms d'eaux thermales afin d'établir un protocole de désinfection efficace des réseaux des établissements thermaux. Tous les désinfectants étudiés présentent un bon effet biocide mais la croissance bactérienne reprend dès l'arrêt du traitement. Les abattements bactériens les plus conséquents sont obtenus avec le peroxyde d'hydrogène seul et l'association prétraitement basique/sels d'ammonium quaternaire. Sur des biofilms contenant des Legionella, le couplage prétraitement acide/monochloramine inhibe la recolonisation du biofilm par les Legionella. L'émergence de P. Aeruginosa a été observée après plusieurs traitements
Thermal spas meet recurrent episodes of bacterial contamination of delivered waters. The aim of this work was to evaluate disinfectant efficiency of some "alternative" processes (peracetic acid, monochloramine, hydrogen peroxide, quaternary ammonium salts and association with acid or basic leachings) on biofilms from thermal waters in order to determine an efficient process for thermal spas distribution systems. All processes studied have an important biocidal effect but bacterial growth start again from the end of the process. The most consistent bacterial kills were obtained with hydrogen peroxide alone and basic leaching/quaternary ammonium salts association. Disinfection assays applied to biofilms containing Legionella sp. Showed that acid leaching/monochloramine association inhibit biofilm colonization by Legionella sp. P. Aeruginosa emergence was observed in some cases further to the use of several disinfection processes
APA, Harvard, Vancouver, ISO, and other styles
40

Moreau, Richard Redarce Tanneguy Pham Minh Tu. "Le simulateur d'accouchement BirthSIM un outil complet pour la formation sans risque en obstétrique /." Villeurbanne : Doc'INSA, 2008. http://docinsa.insa-lyon.fr/these/pont.php?id=moreau.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Ali, Asim. "Robustness in large scale distributed systems." Paris 11, 2010. http://www.theses.fr/2010PA112097.

Full text
Abstract:
Au cours de la dernière décennie, l'informatique et les technologies de la communication ont effectué une croissance exponentielle tant au niveau matériel que logiciel. La conséquence directe de cette croissance est l'émergence à l'échelle mondiale des systèmes distribués tels que, les systèmes de diffusion de l'information, les réseaux cellulaires, l'informatique distante, etc. L'intégration des dispositifs de détection (ou capteurs) avec les réseaux a contribué au développement de systèmes intelligents qui sont plus interactifs, plus dynamiques et adaptables à l’environnement d’exécution. Les applications futures qui sont envisagées sont entièrement décentralisées et auto-gérées. Ces systèmes à grande échelle sont difficiles à concevoir, développer et maintenir en raison de nombreuses contraintes comme l'hétérogénéité des ressources, la diversité des environnements de travail, les communications peu fiables, etc. Réseaux de capteurs sans fil (WSN) et grilles de calcul sont deux exemples importants de ces systèmes à grande échelle. Les propriétés essentielles des protocoles s’exécutant sur ces réseaux sont le passage à l’échelle, l’auto-gestion et la tolérance aux pannes. Ces trois aspects sont au centre de cette thèse. Dans cette thèse, nous contribuons à ce domaine de trois manières. D'abord, nous proposons et évaluons un protocole évolutif de gestion d’annuaire pour des systèmes distribués généraux où le temps de latence des mises à jour est indépendante de la taille du système. Dans notre deuxième contribution, nous concevons et mettons en œuvre une version évolutive et distribuée d'un simulateur de réseau sans fil existant: WSNet. Nous proposons un simulateur parallèle, XS-WSNet, et l’évaluons sur Grid5000 pour un passage à l’échelle extrême en simulation de réseaux de capteurs. Notre troisième contribution est l'élaboration d'un mécanisme d'étalonnage des performances de fiabilité des protocoles pour les WSN en présence de pannes ou d’environnements hostiles. Notre outil permet à l'utilisateur de simuler des milieux naturels dangereux pour les WSN, comme les conditions climatiques difficiles ainsi que de simuler des attaques dynamiques sur le réseau sans fil
During the last decade, computing and communication technologies observed exponential growth both in hardware and software. The direct result of this growth is the emergence of global scale distributed systems like, information diffusion systems, cellular networks, remote computing, etc. Integration of sensor devices with networks helped to develop smart systems that are more interactive, dynamic and adaptable to the running environment. Future applications are envisioned as completely decentralized self-managing massive distributed systems running in smart environments on top of Internet or grid infrastructure. Such large-scale systems are difficult to design, develop and maintain due to many constraints like heterogeneity of resources, diverse working environments, unreliable communications, etc. Wireless sensor networks and computational grids are two important examples of such large-scale systems. Most desirable properties of the protocols for these networks include scalability, self-management, and fault tolerance. These are the three main areas this thesis focuses on. In this thesis we contribute to this domain in three ways. First we propose and evaluate a scalable directory management protocol for general distributed systems where update latency time is independent of the system size. In our second contribution we design and implement a scalable distributed version of an existing wireless network simulator: WSNet. We run our parallel simulator, XS-WSNet, on Grid5000 and achieve extreme simulation scalability. Our third contribution is the development of a dependability benchmarking mechanism for testing WSN protocols against fault and adversarial environments. Our tool allows the user to simulate natural faulty environments for WSN, like harsh weather conditions as well as to simulate dynamic attacks to the wireless network
APA, Harvard, Vancouver, ISO, and other styles
42

Bouache, Mourad. "Outils d’analyse et d’évaluation des performances." Perpignan, 2010. http://www.theses.fr/2010PERP1008.

Full text
Abstract:
La simulation est largement utilisée dans de nombreux domaines de la science et de l’ingénierie. Du côté de l’industrie, les constructeurs emploient la simulation d’une part en amont de la fabrication, pour explorer l’espace de conception et d’autre part en aval, pour observer, évaluer et, à des fins commerciales, comparer leurs produits avec ceux de la concurrence. Le monde de la recherche a aussi recours à la simulation pour explorer un espace de conception plus vaste et évaluer quantitativement les innovations proposées. En informatique, l’architecture des ordinateurs et des processeurs est depuis longtemps grande utilisatrice de simulateurs. L’évaluation quantitative des futurs processeurs est difficile, si ce n’est impossible aujourd’hui, sans simulation. Les industriels consacrent plusieurs mois, voire plusieurs années selon la complexité du produit à élaborer, de conception, de simulation et d’analyse de différents aspects comme la consommation d’énergie, la performance, la vitesse de fonctionnement avant toute réalisation dans le silicium. La simulation permet ainsi un gain de temps et de coûts essentiels pour permettre aux fabricants de suivre un rythme de production correspondant à la fois aux attentes des clients et aux contraintes imposées par les progrès de la concurrence. Un simulateur est nettement plus lent et moins précis que le système qu’il simule. Il offre néanmoins toutes les informations que l’on souhaite, dont certaines qui sont difficile à récupérer du système simulé lui-même. Compte tenu de la grande évolutivité des produits dans le monde des composants numériques, les simulateurs se doivent d’être rapidement adaptables. L’objectif de cette thèse est de présenter, au sein de l’environnement de simulation UNISIM développé par le consortium du même nom, le simulateur OoOSIM conçu et réalisé par notre équipe de recherche DALI. La version actuelle d’OoOSIM bénéficie d’une méthodologie de conception des composants simulés facilitant la duplication d’unités. Cette méthodologie, la vectorisation des modules, est notre contribution. Nos expériences, dont les résultats sont rapportés ici, montrent que sans application de la vectorisation, la simulation d’un processeur multi-coeur devient très gourmande en temps de calcul dès lors que le nombre de cœurs augmente, même de façon modeste. Elles montrent aussi que la vectorisation permet de simuler dans des temps raisonnables des processeurs ayant un nombre de cœurs bien au-delà de ce que proposent les produits d’aujourd’hui
The simulation is widely used in many fields of science and engineering. From the industry side, manufacturers use simulation to explore the design space and to observe, evaluate for commercial purposes, to compare their products with those of the competition. The world of research has also used simulation to explore a larger design space and quantify the proposed innovations. In computer science, computer architecture and processors has long been a major user of simulators. The quantitative assessment of future processors is difficult, if not impossible today, without simulation. Manufacturers spend several months or even years depending on the complexity of product development, design, simulation and analysis of various aspects such as energy consumption, performance, speed of operation before any implementation in silicon. The simulation thus saving time and costs essential to allow manufacturers to monitor production rate corresponding to the expectations of both the clients and the constraints imposed by the progress of the competition. A simulator is much slower and less accurate than the system it simulates. It still offers all the information you want, some of which are difficult to recover the simulated system itself. Given the high scalability of the products in the world of digital components, simulators need to be quickly adaptable. The objective of this thesis is to present, within the UNISIM simulation environment developed by the consortium of the same name, OoOSIM is a simulator designed by our research team DALI. The OoOSIM current version has a design methodology of simulated components to facilitate the duplication of units. This methodology, the vectorization of the modules, is our contribution. Our experiments, whose results are reported here, show that without the application of vectorization, the simulation of a multi-core processor becomes very time consuming to load when the number of cores increases, even modestly. They also show that vectorization can be simulated in reasonable CPU time with number of hearts far beyond that offer products today
APA, Harvard, Vancouver, ISO, and other styles
43

Nouh, Aiman Bagdouri Mohammed el. "Contribution au développement d'un simulateur pour les véhicules électriques routiers." [S.l.] : [s.n.], 2008. http://artur.univ-fcomte.fr/ST/GENELE/these/nouh.pdf.

Full text
Abstract:
Thèse de doctoral : Sciences pour l'ingénieur - Génie électrique : Besançon : 2008. Thèse de doctoral : Sciences pour l'ingénieur - Génie électrique : Belfort-Montbéliard : 2008.
Bibliogr. p. 169-176.
APA, Harvard, Vancouver, ISO, and other styles
44

Picheny, Victor. "AMELIORATION DE LA PRECISION ET COMPENSATION DES INCERTITUDES DES METAMODELES POUR L'APPROXIMATION DE SIMULATEURS NUMERIQUES." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2009. http://tel.archives-ouvertes.fr/tel-00770844.

Full text
Abstract:
Cette thèse est consacrée à la planification et l'exploitation d'expériences numériques à l'aide de modèles de remplacement (métamodèles), et plus particulièrement à la prise en compte des incertitudes induites par l'utilisation de ces métamodèles. Dans un premier temps, différentes méthodes sont proposées pour compenser ces incertitudes en biaisant les modèles afin de limiter le risque d'erreur 'défavorable' (méthodes conservatives). Cette étude s'appuie sur des applications en mécanique des structures, et en particulier, l'optimisation d'un système soumis a des contraintes de fiabilité. Cette thèse propose également deux contributions au domaine de la planification d'expériences numériques. D'une part, une méthode a été développée pour construire des plans permettant de minimiser l'erreur du modèle dans une région cible de l'espace de conception. Enfin, nous avons proposé des résultats pour la planification optimale des calculs dans le cas de simulateurs à réponse bruitées.
APA, Harvard, Vancouver, ISO, and other styles
45

Vailleau, Benjamin. "Etude de la perception du mouvement propre 2D/3D dans les simulateurs de conduite dynamiques." Paris 6, 2010. http://www.theses.fr/2010PA066741.

Full text
Abstract:
En conduite automobile, le conducteur perçoit son mouvement propre au moyen de processus complexes mettant en jeu l’ensemble de ses organes sensoriels, et des mécanismes cognitifs basés sur l’expérience et l’apprentissage. Dans ces travaux, nous nous sommes focalisés sur la part vestibulaire de la perception du mouvement, et ses interactions avec les autres modalités sensorielles. Nous avons pour cela, mis en œuvre les techniques de stimulation galvanique. Une première partie de l’étude a permis de comprendre et de caractériser les principes de la stimulation galvanique vestibulaire. Nous avons étudié ses effets sur le maintien postural et les réflexes de stabilisation du regard sur des sujets sains, et sur des patients vestibulaires. Puis nous avons observé les processus de combinaison des informations issues des oreilles internes, pour différents types de stimuli et conditions extérieures. Dans une seconde partie, appliquée à la conduite automobile sur simulateur, nous nous sommes intéressés aux phénomènes d’interactions entre les modalités sensorielles inertielles et visuelles. Puis nous avons modulé les entrées vestibulaires au moyen de stimuli galvaniques, afin de qualifier leur importance dans la perception du mouvement, et la conduite. En présence d’informations inertielles plus riche, une perturbation vestibulaire induit moins d’effet, et les résultats tendent à indiquer que le conducteur alloue une importance plus importante aux informations visuelles et proprioceptives. Les accélérations perçues sur sa tête paraissent secondaires. Cette pondération semble dépendre du type de mouvement et de manœuvre, et du contexte perceptif dans lequel se trouve le sujet
APA, Harvard, Vancouver, ISO, and other styles
46

Flandrin, Nicolas. "Génération de maillage hybride pour les simulateurs de réservoir pétrolier de nouvelle génération : extension 3D." Troyes, 2005. http://www.theses.fr/2005TROY0009.

Full text
Abstract:
Au cours de l’exploitation d’un gisement pétrolier, il est important de prévoir la récupération des hydrocarbures et d’en optimiser la production. Aussi, pour en simuler la physique des écoulements, il est primordial de fournir aux schémas numériques un domaine d’étude correctement discrétisé. Dans cette thèse, nous nous intéressons à cette discrétisation spatiale et nous proposons d’étendre en 3D les maillages hybrides 2D proposés par l’IFP en 1998 qui permettent de prendre en compte, directement au niveau de la géométrie, le caractère radial des écoulements aux abords des puits. Dans ces maillages hybrides, les puits et leur aire de drainage sont modélisés au moyen de maillages structurés de type radial circulaire et les réservoirs par des maillages structurés de type cartésien non uniforme ou Corner Point Geometry. La liaison entre le maillage des puits et celui des réservoirs est établie au moyen des maillages de transition non structurés, basés sur l’utilisation de diagrammes de puissance 3D, admissibles au sens des volumes finis, de telle sorte que le maillage hybride global soit conforme. Deux méthodes ont été développées pour générer ces maillages de transition : une méthode basée sur l’utilisation d’une triangulation de Delaunay et une autre basée sur une approche frontale. Des critères géométriques ont par ailleurs été introduits pour mesurer la qualité de ces maillages hybrides et des procédures d’optimisation ont été proposées pour améliorer certains de ces critères sous contrôle d’admissibilité au sens des volumes finis
During the exploitation of an oil reservoir, it is important to predict the recovery of hydrocarbons and to optimize its production. A better comprehension of the physical phenomena requires to simulate 3D multiphase flows in increasingly complex geological structures. In this thesis, we are interested in this spatial discretization and we propose to extend in 3D the 2D hybrid model proposed by IFP in 1998 where the radial characteristics of the flows in the vicinity of wells are directly taken into account in the geometry. In these hybrid meshes, the wells and their drainage area are described by structured radial circular meshes and the reservoirs are represented by structured meshes that can be non uniform Cartesian or Corner Point Geometry grids. In order to generate a global conforming mesh, unstructured transition meshes based on power diagrams and satisfying finite volume properties are used to connect together the structured meshes. Two methods have been implemented to generate these transition meshes: a method using a Delaunay triangulation and another one using a frontal approach. In addition, some criteria are introduced to measure the quality or the transition meshes and optimization procedures are proposed to increase some of these criteria under finite volume properties constraints
APA, Harvard, Vancouver, ISO, and other styles
47

Suard, Frédéric. "Méthodes à noyaux pour la détection de piétons." Phd thesis, Rouen, INSA, 2006. http://www.theses.fr/2006ISAM0024.

Full text
Abstract:
La détection de piéton est un problème récurrent depuis de nombreuses années. La principale confrontation est liée à la grande variabilité du piéton en échelle, posture et apparence. Un algorithme efficace de reconnaissance de formes doit donc être capable d'affronter ces difficultés. En particulier, le choix d'une représentation pertinente et discriminante est un sujet difficile à résoudre. Dans notrre cas, nous avons envisagé deux approches. La première consiste à représenter la forme d'un objet à l'aide de graphes étiquetés. Selon les étiquettes apportées, le graphe possède en effet des propriétés intéressantes pour résoudre les problèmes de variabilité de taille et de posture. Cette méthode nécessite cependant une segmentation rigoureuse au préalable. Nous avons ensuite étudié une représentation constituée d'histogrammes locaux d'orientation de gradient. Cette méthode présente des résultats intéressants par ses capacités de généralisation. L'application de cette méthode sur des images infrarouges complètes nécessite cependant une fonction permettant d'extraire des fenêtres dans l'image afin d'analyser leur contenu et vérifier ainsi la présence ou non de piétons. La deuxième étape du processus de reconnaissance de formes concerne l'analyse de la représentation des données. Nous utilisons pour cela le classifieur Support Vector Machine bâti, entre autres, sur une fonction noyau calculant le produit scalaire entre les données support et la donnée évaluée. Dans le cas des graphes, nous utilisons une formulation de noyau de graphes calculé sur des "sacs de chemins". Le but consiste à extraire un ensemble de chemins de chaque graphe puis de comparer les chemins entre eux et combiner les comparaisons pour obtenir le noyau final. Pour analyser les histogrammes de gradient, nous avons étudié différentes formulations permettant d'obtenir les meilleures performances avec cette représentation qui peut être assimilée à une distribution de probabilités.
APA, Harvard, Vancouver, ISO, and other styles
48

Techer, Franck. "Impact de la colère sur l'attention, le traitement de l'information et les performances en conduite simulée." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT2014/document.

Full text
Abstract:
La colère est une émotion négative pouvant être à l’origine d’une conduite agressive, une sous-estimation des risques et un non-respect des règles du code de la route. Certaines de ces modifications pourraient être liées à une mauvaise perception de l’environnement ou une forme de distraction liée à la colère. L’objectif de cette thèse était d’étudier l’influence de la colère sur l’attention ainsi que sa répercussion sur les performances de conduite. La première étude de cette thèse a montré que la colère peut améliorer l’efficacité du réseau attentionnel d’alerte. Cette amélioration du réseau d’alerte ayant été observée lors d’une tâche informatisée, une seconde expérimentation a permis de tester l’existence d’un tel effet lors une tâche de conduite simulée à l’aide de mesures comportementales et éléctroencéphalographiques. Les résultats indiquent que la colère a perturbé le contrôle de la trajectoire et réduit l’attention investie dans le traitement sensoriel de l’information. Enfin, la dernière étude, également sur simulateur, a révélé que la colère pouvait perturber la réactivité lors d’une tâche de suivi de véhicule, tout en ayant un impact positif sur la détection de piétons. Les résultats de cette thèse renforcent l’intérêt de prendre en considération l’état interne du conducteur lors de la conception de véhicules ou d’aides à la conduite
Anger is an emotional state that may lead to an aggressive behavior, a reduction of risk perception and an increase of driving offences. Some of these effects may be imputable to an impaired perception or a distraction related to anger. The aim of this thesis was to study the influence of anger on attention and its impacts on driving performances. The first study revealed that anger may improve the alerting network efficiency as measured with a computer task. A second experimentation aimed at observing the presence of such effect during a simulated driving task, using behavioral and electroencephalographic data. Results indicate that anger disrupted lateral control while reducing the attentional resources invested in sensorial processing of information. Finally, the third study, also on simulator, showed that anger may alter the reactivity during a car-following situation, while positively impacting pedestrian detection. These thesis results may confirm the importance to consider driver’s internal state when designing future vehicles or assistance systems
APA, Harvard, Vancouver, ISO, and other styles
49

Lecocq, Pascal. "Simulation d'éclairage temps réel par des sources lumineuses mobiles et statiques : outils pour la simulation de conduite." Université de Marne-la-Vallée, 2001. http://www.theses.fr/2001MARN0122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Palomino, Bonaventure. "Conception d'un simulateur hybride pour l'aide à la décision en ordonnancement d'ateliers batch de l'agroalimentaire." Toulouse, INPT, 2000. http://www.theses.fr/2000INPTA19G.

Full text
Abstract:
L'objectif de ce travail est de concevoir un environnement logiciel d'aide au dimensionnement d'unités de fabrication de produits lactés frais. Leur mode de production est du type batch. Elles relèvent des systèmes dynamiques hybrides, où des aspects discrets coexistent avec des aspects continus. Leur dimensionnement implique une aptitude à résoudre des problèmes d'ordonnancement réputés complexes. La démarche proposée repose sur un simulateur hybride. La technique de modélisation combine les réseaux de Petri pour les aspects discrets et les équations algébriques pour les aspects continus. L'approche objet permet de structurer les informations. Le simulateur comporte un niveau décisionnel regroupant un ensemble de règles de pilotage permettant de lever les conflits rencontrés en cours de simulation. Cependant, l'approche par simulation exclusive ne permet pas de prendre en compte toutes les contraintes de façon explicite et une démarche par itérations successives est nécessaire afin de trouver un ensemble de décisions satisfaisantes. Un couplage avec un module de parcours de graphe est alors proposé pour accélérer le processus de prise de décision.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography