To see the other types of publications on this topic, follow the link: Surveillance en temps réel.

Dissertations / Theses on the topic 'Surveillance en temps réel'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Surveillance en temps réel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gauthier, Martin. "Surveillance des réseaux en temps réel." Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/49/1/GAUTHIER_Martin.pdf.

Full text
Abstract:
La nouvelle génération d’outils de communication destinés au travail collaboratif amène une dépendance à des caractéristiques précises des réseaux de télécommunication Internet. Synchromédia est un tel système conçu et développé pour le travail collaboratif. Les caractéristiques exigées par la plateforme Synchromédia sont (1) un débit de trafic égal ou supérieur à la vidéoconférence en haut résolution (2) une latence inférieure à celle qu’exige la voix sur IP et (3) le partage d’énorme quantité de données propres aux applications parmi plusieurs correspondants ou usagers répartis sur un vaste territoire géographique. Le développement de Synchromédia nécessite une adaptation aux caractéristiques du réseau. Afin d’adapter ces propriétés de fonctionnent, un banc d’essai a été conçu, développé et construit dans le Laboratoire de gestion des réseaux informatiques et de télécommunications (LAGRIT). Ce banc d’essai est constitué de plusieurs équipements réseautiques et équipements de perturbation ainsi qu’un générateur de trafic, mais aucun outil de mesure adéquat. Ce mémoire explore la problématique de la mesure des réseaux de télécommunication afin d’identifier les caractéristiques recherchées pour l’évaluation et la mise en place de différents logiciels de surveillance des réseaux de télécommunication pouvant effectuer la collecte d’information en temps réel de façon intègre sur plusieurs sources simultanément. Trois systèmes sont testés en exécutant sur le banc d’essai une batterie de scénarios caractéristiques des échanges de Synchromédia. Les résultats sont présentés sous forme de graphiques qui permettent d’analyser rapidement les caractéristiques résultantes.
APA, Harvard, Vancouver, ISO, and other styles
2

Gonzalez-Mendoza, Miguel. "Surveillance temps-réel des systèmes Homme-Machine. Application à l'assistance à la conduite automobile." Phd thesis, INSA de Toulouse, 2004. http://tel.archives-ouvertes.fr/tel-00336732.

Full text
Abstract:
Ce travail se situe dans le cadre de la surveillance de systèmes homme-machine, où l'opérateur humain est un élément de décision dans la boucle. Ce type de systèmes nécessite une surveillance automatisée globale temps-réel, incluant la détection d'incidents techniques et de défaillances humaines. Partant de l'hypothèse que la partie technologique travaille " correctement " et/ou qu'elle est surveillée par un système de diagnostic, nous nous centrons sur la partie opérateur humain, la plus critique à surveiller. Nous présentons un système de diagnostic appliqué à la surveillance du conducteur automobile à partir d'informations fournies par des capteurs embarqués dans le véhicule. Les travaux ont été développés dans le cadre du projet Européen AWAKE et le projet national " facteurs de dégradation de la vigilance et de la sécurité dans les transports " de PREDIT.
Nous proposons une stratégie générale de système temps-réel pour la surveillance du niveau de vigilance du conducteur (dynamique lente) et la surveillance du niveau de risque lié à la situation actuelle de conduite (dynamique instantanée), à travers :
* L'analyse temporelle et fréquentielle des signaux mécaniques (mesures de performance) par ondelettes et filtres, pour en extraire des caractéristiques dynamiques, statistiques et fréquentielles sur la dégradation de la conduite,
* L'apprentissage par SVM, méthode pour laquelle nous avons développé des stratégies d'implémentation adaptées pour un apprentissage en ligne et pour des problèmes de grande taille,
* La fusion par FIS, afin de profiter de l'expertise humaine et produire un diagnostic sur le niveau de risque lié à la sortie de la voie de circulation.
* La validation d'une telle approche à travers des EEG et EOG (mesures physiologiques) et des autoévaluations (mesures subjectives).
Nous appliquons cette méthodologie à diverses expériences des programmes AWAKE et PREDIT réalisées sur des simulateurs ou des démonstrateurs.
APA, Harvard, Vancouver, ISO, and other styles
3

Gonzalez, Mendoza Miguel. "Surveillance temps-réel des systèmes Homme-Machine : application à l'assistance à la conduite automobile." Toulouse, INSA, 2004. http://www.theses.fr/2004ISAT0026.

Full text
Abstract:
Notre travail se situe dans le cadre de la surveillance de systèmes homme-machine, où l'opérateur humain est un élément de décision dans la boucle. Ce type de systèmes nécessite une surveillance automatisée globale temps-réel, incluant la détection d'incidents techniques et de défaillances humaines. Partant de l'hypothèse que la partie technologique travaille " correctement " et/ou qu'elle est surveillée par un système de diagnostic, nous nous centrons sur la partie opérateur humain, la plus critique à surveiller. Nous présentons un système de diagnostic appliqué à la surveillance du conducteur automobile à partir d'informations fournies par des capteurs embarqués dans le véhicule. Les travaux ont été développés dans le cadre du projet Européen AWAKE et le projet national " facteurs de dégradation de la vigilance et de la sécurité dans les transports " de PREDIT. Nous proposons une stratégie générale de système temps-réel pour la surveillance du niveau de vigilance du conducteur (dynamique lente) et la surveillance du niveau de risque lié à la situation actuelle de conduite (dynamique instantanée), à travers : L'analyse temporelle et fréquentielle des signaux mécaniques (mesures de performance) par ondelettes et filtres, pour en extraire des caractéristiques dynamiques, statistiques et fréquentielles sur la dégradation de la conduite, L'apprentissage par SVM, méthode pour laquelle nous avons développé des stratégies d'implémentation adaptées pour un apprentissage en ligne et pour des problèmes de grande taille, La fusion par FIS, afin de profiter de l'expertise humaine et produire un diagnostic sur le niveau de risque lié à la sortie de la voie de circulation. La validation d'une telle approche à travers des EEG et EOG (mesures physiologiques) et des autoévaluations (mesures subjectives). Nous appliquons cette méthodologie à diverses expériences des programmes AWAKE et PREDIT réalisées sur des simulateurs ou des démonstrateurs
Our work is within the framework of human-machine systems monitoring, in which the human operator is an element of decision in the loop. This type of systems requires a global automated real-time monitoring, including the detection of technical hitches and human faults. Assuming the technological part works "correctly" and/or that it is supervised by a diagnosis system, we are centered on the human operator part, the most critical to supervise. We present a diagnosis system applied to driver's monitoring based on information provided by onboard sensors. This work has been developed in the framework of the European project AWAKE and the national project "factors of vigilance degradation and safety in transports" of PREDIT. We propose a general strategy of real-time system for monitoring the level of vigilance of the driver (slow dynamics) and the monitoring of the level of risk related to the current situation (instantaneous dynamics), through: Temporal and frequential analysis of mechanical signals (performance measures) by wavelets and filters, to extract dynamic, statistical and frequential characteristics of driving degradation, SVM learning, for which we developed adapted implementation strategies for an on-line learning and large-scale problems, FIS fusion, in order to exploit the human expertise and to produce a diagnosis of the level of risk related to lane departure. Validation of such an approach through EEG and EOG (physiological measurements) and self evaluations (subjective measurements). We apply this methodology to various experiments under the framework of AWAKE and PREDIT carried out in simulators or demonstrators
APA, Harvard, Vancouver, ISO, and other styles
4

Limane, Tahar. "Conception et réalisation d'un outil de surveillance, temps réel, d'espaces de débattements de robots." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0093.

Full text
Abstract:
Les travaux présentés dans ce mémoire concernent la conception et La réalisation d'un outil de surveillance en temps réel, de débattements de robots industriels dans le but d'améliorer La sécurité des opérateurs et des machines. Ce mémoire présente d'abord une analyse globale des conditions de risques en Robotique et la mise en évidence des différents facteurs de dépendance Liés à la spécification d'un système de protection. Les différents moyens et dispositifs de protection ainsi que les paramètres caractérisant l'arrêt d'un robot sont ensuite présentés. Les contraintes liées à la réalisation d'un nouveau système de sécurité, élaborant des contrôles d'appartenance à des espaces de surveillance en intégrant la dynamique du robot surveillé sont étudiées. Sont exposées ensuite, les spécifications fonctionnelles et structurelles ainsi que les modèles conceptuels du système de protection à réaliser. Des approches méthodologiques issues du domaine du Génie Logiciel sont utilisées, permettant ainsi de valider l'ensemble du cycle de vie du produit développe et d'en garantir le niveau de qualité et de fiabilité recherché. Ces travaux sont concrétisés par la réalisation de l'outil SAFE (Surveillance d'Ateliers Flexibles et de leur Environnement). Enfin, des perspectives d'intégration de fonctionnalités complémentaires sont proposées, concernant notamment La gestion de la commande et des espaces de surveillance autour des sites robotisés sécurisés
The study presented in this report addresses the problems of designing and implementing a real-time control system of robots movements. The top-Level objective of the study is to enhance the safety of both the human operators and the machines. We begin with a global analysis of risk conditions in Robotics and general relationship statements between the different factors which have to be taken into account when specifying protection systems. We survey the different methods as well as the different equipments used in protection systems against robots possibly undue clearances. Constraints specification of a mean safety system able to control dynamically the robot's containment within the limits allowed or forbidden spaces are studied. Afterwards, we present the functional and structural specifications a well as the conceptual models of the protection systems to be implemented. Methodological approaches of software engineering type are proposed in view of validating the overall system life-cycle, its quality and its reliability. This study results the elaboration of the software tool SAFE (Surveillance d'Ateliers Flexibles et de Leur environnement) which is described in the report. Further developments of SAFE are suggested concerning, particularly, two inter-related functionalities of safety control : - first, the robot command program itself, - second, the dynamic re-specification of safety space when any change arises in the robot's task
APA, Harvard, Vancouver, ISO, and other styles
5

Sicre, Ronan. "Analyse vidéo de comportements humains dans les points de ventes en temps-réel." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14261/document.

Full text
Abstract:
Cette thèse est effectuée en collaboration entre le LaBRI (Laboratoire bordelais de recherche en informatique) et MIRANE S.A.S., le leader français en Publicité sur Lieu de Vente (PLV) Dynamique. Notre but est d'analyser des comportements humains dans un point de vente. Le long de cette thèse, nous présentons un système d'analyse vidéo composé de plusieurs procédés de divers niveaux. Nous présentons, dans un premier temps, l'analyse vidéo de bas niveau composée de la détection de mouvement et du suivi d'objets. Puis nous analysons le comportement de ces objets suivis, lors de l'analyse de niveau moyen. Finalement, l'analyse de haut-niveau est composée d'une interprétation sémantique de ces comportements et d'une détection de scenarios de haut-niveau
Along this thesis various subjects are studied, from the lowest to the higher level of video analysis. We first present motion detection and object tracking that compose the low-level processing part of our system. Motion detection aims at detecting moving areas, which correspond to foreground, of an image. The result of motion detection is a foreground mask that is used as input for the object tracking process. Tracking matches and identifies foreground regions across frames. Then, we analyze the behavior of the tracked objects, as the mid-level analysis. At each frame, we detect the current state of action of each tracked object currently in the scene. Finally, the system generates a semantic interpretation of these behaviors and we analyze high-level scenarios as the high-level part of our system. These two processes analyze the series of states of each object. The semantic interpretation generates sentences when state changes occur. Scenario recognition detect three different scenarios by analyzing the temporal constraints between the states
APA, Harvard, Vancouver, ISO, and other styles
6

Ghorayeb, Hicham. "Conception et mise en œuvre d'algorithmes de vision temps-réel pour la vidéo surveillance intelligente." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00003064.

Full text
Abstract:
Notre objectif est d'étudier les algorithmes de vision utilisés aux différents niveaux dans une chaîne de traitement vidéo intelligente. On a prototypé une chaîne de traitement générique dédiée à l'analyse du contenu du flux vidéo. En se basant sur cette chaîne de traitement, on a développé une application de détection et de suivi de piétons. Cette application est une partie intégrante du projet PUVAME. Cette chaîne de traitement générique est composée de plusieurs étapes: détection, classification et suivi d'objets. D'autres étapes de plus haut niveau sont envisagées comme la reconnaissance d'actions, l'identification, la description sémantique ainsi que la fusion des données de plusieurs caméras. On s'est intéressé aux deux premières étapes. On a exploré des algorithmes de segmentation du fond dans un flux vidéo avec caméra fixe. On a implémenté et comparé des algorithmes basés sur la modélisation adaptative du fond. On a aussi exploré la détection visuelle d'objets basée sur l'apprentissage automatique en utilisant la technique du boosting. Cependant, On a développé une librairie intitulée LibAdaBoost qui servira comme un environnement de prototypage d'algorithmes d'apprentissage automatique. On a prototypé la technique du boosting au sein de cette librairie. On a distribué LibAdaBoost sous la licence LGPL. Cette librairie est unique avec les fonctionnalités qu'elle offre. On a exploré l'utilisation des cartes graphiques pour l'accélération des algorithmes de vision. On a effectué le portage du détecteur visuel d'objets basé sur un classifieur généré par le boosting pour qu'il s'exécute sur le processeur graphique. On était les premiers à effectuer ce portage. On a trouvé que l'architecture du processeur graphique est la mieux adaptée pour ce genre d'algorithmes. La chaîne de traitement a été implémentée et intégrée à l'environnement RTMaps. On a évalué ces algorithmes sur des scénarios bien définis. Ces scénarios ont été définis dans le cadre de PUVAME.
APA, Harvard, Vancouver, ISO, and other styles
7

Ghorayeb, Hicham. "Conception et mise en oeuvre d'algorithmes de vision temps réel pour la vidéo surveillance intelligente." Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1463.

Full text
Abstract:
Notre objectif est d'étudier les algorithmes de vision utilisés aux différents niveaux dans une chaîne de traitement vidéo intelligente. On a prototypé une chaîne de traitement générique dédiée à l'analyse du contenu du flux vidéo. En se basant sur cette chaîne de traitement, on a développé une application de détection et de suivi de piétons. Cette application est une partie intégrante du projet PUVAME. Cette chaîne de traitement générique est composée de plusieurs étapes: détection, classification et suivi d'objets. D'autres étapes de plus haut niveau sont envisagées comme la reconnaissance d'actions, l'identification, la description sémantique ainsi que la fusion des données de plusieurs caméras. On s'est intéressé aux deux premières étapes. On a exploré des algorithmes de segmentation du fond dans un flux vidéo avec caméra fixe. On a implémenté et comparé des algorithmes basés sur la modélisation adaptative du fond. On a aussi exploré la détection visuelle d'objets basée sur l'apprentissage automatique en utilisant la technique du boosting. Cependant, On a développé une librairie intitulée LibAdaBoost qui servira comme un environnement de prototypage d'algorithmes d'apprentissage automatique. On a prototypé la technique du boosting au sein de cette librairie. On a distribué LibAdaBoost sous la licence LGPL. Cette librairie est unique avec les fonctionnalités qu'elle offre. On a exploré l'utilisation des cartes graphiques pour l'accélération des algorithmes de vision. On a effectué le portage du détecteur visuel d'objets basé sur un classifieur généré par le boosting pour qu'il s'exécute sur le processeur graphique. On était les premiers à effectuer ce portage. On a trouvé que l'architecture du processeur graphique est la mieux adaptée pour ce genre d'algorithmes. La chaîne de traitement a été implémentée et intégrée à l'environnement RTMaps. On a évalué ces algorithmes sur des scénarios bien définis. Ces scénarios ont été définis dans le cadre de PUVAME
In this dissertation, we present our research work held at the Center of Robotics (CAOR) of the Ecole des Mines de Paris which tackles the problem of intelligent video analysis. The primary objective of our research is to prototype a generic framework for intelligent video analysis. We optimized this framework and configured it to cope with specific application requirements. We consider a people tracker application extracted from the PUVAME project. This application aims to improve people security in urban zones near to bus stations. Then, we have improved the generic framework for video analysis mainly for background subtraction and visual object detection. We have developed a library for machine learning specialized in boosting for visual object detection called LibAdaBoost. To the best of our knowledge LibAdaBoost is the first library in its kind. We make LibAdaBoost available for the machine learning community under the LGPL license. Finally we wanted to adapt the visual object detection algorithm based on boosting so that it could run on the graphics hardware. To the best of our knowledge we were the first to implement visual object detection with sliding technique on the graphics hardware. The results were promising and the prototype performed three to nine times better than the CPU. The framework was successfully implemented and integrated to the RTMaps environment. It was evaluated at the final session of the project PUVAME and demonstrated its fiability over various test scenarios elaborated specifically for the PUVAME project
APA, Harvard, Vancouver, ISO, and other styles
8

Lointier, Guillaume. "Vers une surveillance en temps réel des régions magnétosphériques à partir des radars cohérents HF SuperDARN." Phd thesis, Université d'Orléans, 2008. http://tel.archives-ouvertes.fr/tel-00294447.

Full text
Abstract:
L'un des enjeux dans la compréhension des relations Soleil-Terre est l'étude de la dynamique des régions internes de la magnétosphère. Dans ce contexte, l'objectif de mon travail a été de poser les bases d'un modèle opérationnel de détection et de suivi des régions frontières de la magnétosphère à partir du réseau de radars SuperDARN, qui sonde l'ionosphère à haute latitude. L'élaboration d'un tel modèle requiert une réduction de données. Pour cela, une méthode de décomposition en valeurs singulières (SVD) a été appliquée sur la mesure brute (une fonction d'autocorrélation) afin de définir trois nouveaux paramètres statistiques. L'interprétation de ces trois nouveaux paramètres montre que cette approche, bien qu'empirique, offre une description bien plus complète des échos radar que les modèles physiques habituellement utilisés. L'utilisation de ces paramètres avec une méthode de décision Bayésienne permet d'améliorer la détection de la frontière des lignes de champ géomagnétiques ouvertes/fermées. L'introduction d'un formalisme Bayésien comporte plusieurs avantages : il permet de valider le résultat en estimant une erreur sur la localisation, et de plus, il facilite l'introduction de nouvelles connaissances provenant de différents instruments. Ceci est loin d'être négligeable pour compléter les observations des radars SuperDARN. Par ailleurs, les propriétés de ce nouveau modèle ont permis l'élaboration d'un nouvel algorithme de prétraitement et d'analyse des mesures brutes.
APA, Harvard, Vancouver, ISO, and other styles
9

Meynard, Jean-Baptiste. "Réalisation et évaluation d'un système de surveillance en temps réel pour les forces armées en opérations." Aix-Marseille 2, 2007. http://www.theses.fr/2007AIX20690.

Full text
Abstract:
Les objectifs que je devais atteindre dans le cadre de cette Thèse étaient de réaliser un démonstrateur de surveillance en temps réel au sein des forces armées et de pratiquer son évaluation, afin de répondre à la question qui m’était posée de la faisabilité et de l’intérêt de ce type de surveillance en milieu militaire. A partir de ce travail, je devais fournir des propositions pour la généralisation du concept à l’ensemble des forces projetées. J’ai imaginé et participé au développement du système de surveillance spatiale des épidémies au sein des forces armées en Guyane « 2SE FAG », avec l’IMTSSA et différents partenaires depuis 2002, ce qui permettait de répondre à un nouvel objectif de l’Etat-Major des Armées, fixé après un sommet de Défense de l’OTAN. J’ai pris en compte des aspects médicaux, technologiques, humains et organisationnels pour développer ce prototype. 2SE FAG a été conçu comme un procédé de surveillance épidémiologique mis en oeuvre à l’aide d’une communauté de services réseaux basés en Guyane et en métropole. Son développement s’inscrivait dans le cadre d’un arrangement technique franco-britannique, auquel j’ai participé en effectuant entre autres un séjour de 6 mois dans les armées britanniques. J’ai réalisé le déploiement de 2SE FAG en Guyane en octobre 2004 et le système a fonctionné sans discontinuité depuis. La juxtaposition des réseaux a permis de produire des données épidémiologiques opérationnelles qui ont fait la preuve de leur utilité, en particulier au moment de l’épidémie de dengue du premier semestre 2006. L’alerte précoce déclenchée à cette occasion plusieurs semaines avant le système de surveillance réglementaire des forces armées a certainement joué un rôle dans le contrôle de l’épidémie en milieu militaire alors que celle-ci explosait en milieu civil. L’évaluation représentait un travail fondamental pour fournir un retour d’expérience utile et j’ai réalisé différentes études en collaboration avec des organismes extérieurs (SACT de Norfolk, ISPED de Bordeaux, LSTM de Liverpool, Cire Antilles Guyane). Cette démarche permettait à la fois d’apporter des modifications à 2SE FAG mais aussi de faire évoluer positivement l’ensemble des projets du type 2SE du système ASTER. A partir de ces travaux, j’ai pu développer et proposer une nouvelle méthode d’évaluation des systèmes de surveillance militaires destinés à l’alerte précoce pour les forces en opérations extérieures. J’ai identifié des améliorations qui sont encore à apporter au système, mais les différents objectifs ont été considérés comme atteints, à savoir la preuve de la faisabilité de la surveillance en temps réel dans les armées, du bénéfice apporté par un tel système et de son caractère interopérable. L’intérêt de ces travaux a déjà été souligné par des hautes instances nationales et internationales. J’ai réalisé avec les autres co-inventeurs du système une demande de dépôt de brevet au niveau de l’INPI le 25 août 2006. La surveillance épidémiologique en temps réel reste un défi d’avenir pour les armées modernes. Les enseignements acquis grâce à 2SE FAG constituent déjà un retour d’expérience unique au sein des armées de l’OTAN. Mais je pense que l’effort de recherche et de développement doit rester important, dans une dynamique internationale maîtrisée afin de déboucher sur la production d’un système opérationnel et interopérable, adapté aux contraintes actuelles de déploiement des forces et en particulier aux missions multinationales. C’est à ce prix que la surveillance en temps réel pourra participer activement en tous temps et en tous lieux à la préservation de la capacité opérationnelle des forces armées.
APA, Harvard, Vancouver, ISO, and other styles
10

Fathallah, Houssem Eddine. "Conception d'un système temps-réel de surveillance de l'exposition aux polluants de l'air intérieur : application au formaldéhyde." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0100.

Full text
Abstract:
Le formaldéhyde est un polluant classé comme « hautement prioritaire » dans l’air intérieur. En raison de ses effets sur la santé, la réglementation française émergente (action 7 du PNSE2) impose de mesurer le formaldéhyde dans les lieux publics (écoles, crèches etc.) à partir de 2017. Or, aucun appareil sur le marché n’est capable de fournir des mesures précises, en temps réel et à faible coût. Cette thèse s’inscrit dans le cadre du projet ANR CAPFEIN (réseau de CAPteurs de FormaldEhyde intelligents pour la surveillance de l'air Intérieur) dont l’objectif est de réaliser un « capteur intelligent » de Formaldéhyde. Le sujet de thèse était de concevoir un système de surveillance en temps réel de l’exposition des personnes au Formaldéhyde, et plus généralement à n’importe quel polluant de l’air intérieur. Les capteurs doivent donc être dotés d’une interface de communication pour pouvoir collecter automatiquement les mesures en différents points de l’environnement à surveiller. Deux systèmes de surveillance ont été développés. Le premier repose sur des composants sur étagère et sur une architecture centralisée en se basant sur le concept de l'Internet des objets (IoT). Le second a été entièrement conçu au CRAN et correspond au développement d'une solution basée sur une approche distribuée. Un badge intelligent a été développé. Il permet de surveiller les taux d’exposition de chaque porteur de badge. Les contraintes majeures de ce travail ont été de pouvoir localiser les personnes dans un milieu intérieur, d’optimiser les algorithmes en termes de place mémoire et de consommation d’énergie. Pour la partie optimisation, des méthodes de moyenne mobile à pondération exponentielle ont été implémentées et évaluées. Les deux prototypes ont été testés dans les bâtiments du CRAN et ont montré leur intérêt
Formaldehyde is classified as a "high priority" pollutant in the indoor air quality. Because of its health effects, the emerging French regulation (Action 7 of PNSE2) requires the measurement of formaldehyde in public places (schools, kindergartens etc.) from 2017. However, no device on the market is able to provide accurate measurements in real time and at low cost. This thesis forms part of the ANR project CAPFEIN (réseau de CAPteurs de FormaldEhyde intelligents pour la surveillance de l'air Intérieur) whose purpose is to develop a "smart Formaldehyde sensor". The thesis objective is to design a real-time monitoring system of human exposure to formaldehyde, and more generally to indoor air pollutant. The sensors must be equipped with a communication interface to automatically collect measurements at different points of the environment to be monitored. Two monitoring systems have been developed. The first is Designed with commercial off-the-shelf component and a centralized architecture based on the concept of the Internet of Things (IoT). The second was designed from the CRAN and corresponds to the development of a solution based on a distributed approach. A smart badge has been developed. It can monitor exposure levels to each cardholder. The major constraints of this work consist on the ability to locate people in an indoor environment and the ability to optimize the algorithms in terms of memory space and power consumption. For the optimization part, the moving average exponential weighting methods have been implemented and evaluated. Both prototypes were tested in buildings of CRAN and showed interest
APA, Harvard, Vancouver, ISO, and other styles
11

Subias, Audine. "Approche multi-modèles pour la commande et la surveillance en temps réel des systèmes à évènements discrets." Toulouse 3, 1995. http://www.theses.fr/1995TOU30024.

Full text
Abstract:
Le travail presente s'integre dans le domaine de la surveillance en temps reel des systemes a evenements discrets. Une approche de la commande et de la surveillance dans le contexte particulier des ateliers flexibles de production manufacturiere y est proposee. Ayant mis en evidence la necessite de la modelisation du procede surveille, l'approche dite a modele de reference a ete retenue. Cette approche repose sur une structure hierarchique et modulaire dans laquelle chaque module contient des fonctions de commande et de surveillance. Notre travail montre qu'une telle approche presente un certain manque d'informations, necessaires pour developper un systeme de surveillance en temps reel, global et efficace. En particulier, dans le cas d'une propagation de defaillance d'une activite a une autre, il est necessaire de disposer non seulement d'un mecanisme de propagation ascendante du traitement de la defaillance, de maniere a mieux apprehender la defaillance, mais aussi d'un mecanisme de propagation descendante ayant pour but d'affiner le diagnostic etabli. Aussi l'approche presentee propose la mise en place d'un systeme d'information, veritable source de renseignements sur le procede, en parallele de la hierarchie de commande surveillance existante, et d'un centre de gestion assurant les differentes communications entre les deux elements precedents. La structure et le contenu du systeme d'information sont alors decrits. Un processus d'affinement du diagnostic est defini, mettant en jeu les differentes applications offertes par le systeme d'information (recherche, verification, mise a jour, recuperation). Le role du centre de gestion est mis en evidence ainsi que ses differentes taches (determination de chemin, declenchements des applications). Un exemple de taille industrielle permet d'eclairer les propositions effectuees. Le probleme de la realisation d'une telle approche est egalement aborde
APA, Harvard, Vancouver, ISO, and other styles
12

Tanzi, Tullio. "Systeme spatial temps réel d'aide a la décision, application aux risques autoroutiers : D.E.S.T.IN : dispositif d'études et de surveillance du trafic et des incidents." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0058.

Full text
Abstract:
L'objectif de ces travaux est de concevoir un système temps réel d'analyse de risque afin de compléter les systèmes autoroutiers d'aide à l'exploitation. Plutôt que de s'attacher à la révision d'accidents, le système repose sur l'analyse de l'évolution des conditions de trafic, afin de caractériser les situations à haut risque. Cette anticipation des accidents potentiels doit permettre la mise en œuvre d'actions préventives et une meilleure gestion de la crise. Ces travaux ont permis la définition d'indicateurs de risque dans le contexte routier. Un prototype original a été développé et testé en vraie grandeur. Les indicateurs ont été testés sur un jeu de données de l'autoroute du réseau ESCOT A. Grace à notre approche, les techniques classiques d'analyses spatiales, telles que nous les connaissons dans le monde des systèmes d'information géographiques permettront à la fois de produire des informations quantitatives en temps réel, tels que des distances, des temps prévus d'arrivée, ou encore des périmètres de sécurité, mais aussi de mieux maîtriser l'événement en permettant la simulation de ses phénomènes. Cela nécessite la prise en compte de l'acheminement de l'information au sein du système d'information global. L'originalité de ces travaux peut être résumée en deux points principaux : • Un nouveau concept de système d'information temps réel pour l'analyse des risques. A ce niveau il s'agit de nouveaux indicateurs, • Un nouveau concept qui émerge : la TéléGéomatique, terme fédérateur de la géomatique et des télécommunications, dont l'importance est justifiée par ces travaux
The objective of these works is to specify a real-time system of risk analysis in order to complete systems for motorways to help the exploitation of motorways. Instead of focusing on accidents, the system relies on the analysis of the evolution of traffic conditions, in order to characterise high risk situations. The aim of this potential accident anticipation is to elaborate preventive actions and to allow a better management of the crisis. These works have permitted the definition of risk indicators in the road context. An original prototype has been developed and has been tested in real situations. Indicators have been tested on samples ofdata ofthe freeway of the ESCOT A network. Thanks to our approach, the classic techniques of spatial analyses, as we know them in the world of the geographical information systems will permit to produce sorne quantitative information in real-time, as distances, predicted times of arrivai or security perimeters, but also to better manage the event using phenomena simulations. It requires to take into ac-count the routing of information within the global information system. The originality ofthese works can be summarised in two main points: • A new concept of real-time information system for the analysis of risks (it is about new indicators) A new emerging concept: TéléGéomatique, term based on geomatics and telecommunications, whose importance is justified by these works
APA, Harvard, Vancouver, ISO, and other styles
13

Lauffenburger, Jean-Philippe. "Contribution à la surveillance temps-réel du système "Conducteur - Véhicule - Environnement" : élaboration d'un système intelligent d'aide à la conduite." Phd thesis, Université de Haute Alsace - Mulhouse, 2002. http://tel.archives-ouvertes.fr/tel-00732949.

Full text
Abstract:
Le sujet de cette thèse vise l'intégration dans une automobile de fonctions d'observation, de supervision, d'aide à la décision ou encore de commande. La problématique est le développement d'une assistance à la conduite longitudinale et latérale basée sur la localisation du véhicule. Le but est de signaler et corriger les faiblesses de conduite en considérant les paramètres du véhicule, du conducteur et la topologie de la route. Selon la localisation du véhicule, une trajectoire de référence et la vitesse associée sont déterminées en fonction du conducteur et de la phase de conduite. Ces références sont utilisées pour effectuer le contrôle du véhicule ou pour informer le conducteur de l'inadéquation de ses consignes.
Dans ce contexte, la localisation du véhicule et particulièrement les informations de l'environnement d'évolution doivent être pertinentes. Elles sont obtenues grâce à une base de données cartographique spécifiquement développée dans le cadre de ces travaux. Celle-ci est caractérisée par une précision supérieure à celle des bases de données traditionnellement employées dans des dispositifs de navigation.
APA, Harvard, Vancouver, ISO, and other styles
14

Vieren, Christophe. "Segmentation de scènes dynamiques en temps réel : application au traiyement de séquences d'images pour la surveillance de carrefours routiers." Lille 1, 1988. http://www.theses.fr/1988LIL10029.

Full text
Abstract:
Présentation d'une méthode d'analyse de séquences d'images orientée vers l'interprétation de scènes dynamiques où évoluent des objets quelconque, sur fond non uniforme et sous éclairage non contrôlé. La procédure, implanté sur une machine de vision orientée temps réel a été sur des images réelles de trafic routier urbain. Les résultats montrent l'intérêt de l'approche proposée en vue de la surveillance et du contrôle de véhicules guidés en site non protégé.
APA, Harvard, Vancouver, ISO, and other styles
15

Cotton, Julien. "Analyse et traitement de données sismiques 4D en continu et en temps réel pour la surveillance du sous-sol." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM023.

Full text
Abstract:
La sismique réflexion 3D est largement utilisée dans l'industrie pétrolière. Cette méthode d’auscultation du sous-sol fournit des informations sur les structures géologiques et peut être utilisée pour construire des modèles de réservoir. Cependant, les propriétés dérivées des données sismiques 3D (et 2D) ne sont que statiques: elles ne permettent pas d’évaluer ce qui change avec le temps. L'ajout d'une dimension temporelle aux données 3D est obtenue par la répétition des mesures à plusieurs dates séparées de plusieurs mois voire même de plusieurs années. Ainsi, la sismique4D (time-lapse) permet d’appréhender les modifications du sous-sol sur le long terme. Depuis les années 90, cette méthode est utilisée dans le monde entier en mer et à terre. Pour réaliser une surveillance beaucoup plus fréquente (quotidienne), voire continue (quelques heures) du sous-sol, CGG a développé, en collaboration avec Gaz de France (désormais ENGIE) et l’Institut Français du Pétrole (maintenant IFPEN), une solution basée sur des sources et des récepteurs enterrés: SeisMovie. SeisMovie a été initialement conçu pour suivre et cartographier en temps-réel le front de gaz lors des opérations de stockage en couche géologique. Il est aussi utilisé pour observer l’injection de vapeur nécessaire à la production d’huile lourde. Dans cette thèse, nous apportons des contributions à trois défis qui apparaissent lors du traitement des données sismiques issues de ce système. Le premier concerne l'atténuation des variations de proche surface causées par les ondes « fantômes » qui interfèrent avec les ondes primaires. Le second concerne la quantification des modifications du sous-sol en termes de variation de vitesse de propagation et d’impédance acoustique.Le troisième concerne le temps-réel : le traitement doit être au moins aussi rapide que le cycle d’acquisition (quelques heures). En effet l’analyse des données doit permettre aux ingénieurs réservoirs de prendre rapidement des décisions (arrêt de l’injection, diminution de la production). Dans un cadre plus général, il existe des similitudes conceptuelles entre la 3D et la 4D. En 4D, ce sont les acquisitions répétées qui sont comparées entre elles (ou avec une référence). En3D, pendant l’acquisition, les géophysiciens de terrain comparent les points de tir unitaires entre eux afin d’évaluer la qualité des données pour prendre des décisions (reprendre le point de tir, continuer). Dès lors, certains outils 4D temps réel développés pendant cette thèse peuvent être appliqués. Ainsi une toute nouvelle approche appelée TeraMig pour le contrôle qualité automatisé sur le terrain sera également présentée
3D seismic reflection is widely used in the oil industry. This standard subsoil auscultation method provides information on geological structures and can be used to build reservoir models. However, the properties derived from3D (and 2D) seismic data are only static: 3D does not allow to evaluate the changes with calendar time. The addition of a temporal dimension to 3D data is obtained by repeating the measurements at several dates separated by several months or even several years. Thus, 4D seismic (time-lapse) makes it possible to measure and to analyze the changes of the subsoil in the long term. Since the 90s, this method is used worldwide at sea and on land. To carry out a much more frequent monitoring (daily), even continuous (a few hours) of the subsoil, CGG developed, in collaboration with Gazde France (now ENGIE) and Institut Français du Pétrole (now IFPEN), a solution based on buried sources and receptors: SeisMovie. SeisMovie was originally designed to monitor and map the gas front in real time during geological disposal operations. It is also used to observe the steam injection required for heavy oil production. In this thesis, we bring contributions to three challenges arising in the processing of seismic data from this system. The first one concerns the attenuation of near-surface variations caused by "ghost" waves that interfere with primary waves. The second one concerns the quantification of subsurface changes in terms of propagation velocity variation and acoustic impedance.The third one concerns real-time: the data processing must be at least as fast as the acquisition cycle (a few hours). Infact, the analysis of the data must enable the reservoir engineers to make quick decisions (stop of the injection, decreaseof the production). In a more general context, there are conceptual similarities between 3D and 4D. In 4D, the repeated acquisitions are compared with each other (or with a reference). In 3D, during acquisition, field geophysicists compare unitary shot points with each other to assess the quality of the data for decision-making (reshooting, skipping orcontinuing). Therefore, some 4D real-time tools developed during this thesis can be applied. A new approach called TeraMig for automated quality control in the field will also be presented
APA, Harvard, Vancouver, ISO, and other styles
16

Abed, Hajer. "Interface électronique et logicielle pour la surveillance de la respiration en temps réel en utilisant des vêtements intelligents sans fils." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/68400.

Full text
Abstract:
Dans ce mémoire, on présente une nouvelle architecture d’un chandail intelligent pour surveiller la respiration en temps réel. Ce vêtement intelligent comporte une architecture qui offre une méthode de détection innovante assurant une suivie de l’activité respiratoire en continue. Tout d’abord le chandail détecte la déformation du haut du thorax pendant la respiration à l’aide d’une antenne intégrée dans le chandail. L’antenne a été conçue dans les laboratoires du centre d’optique, photonique et laser de l’université Laval. Un capteur Bluetooth intégré dans le même chandail détecte par la suite la variation du signal RSSI (indicateur d’intensité du signal reçu) et l’envoie à une unité de traitement et d’analyse de données sans fils (un ordinateur ou une tablette). Une interface d’analyse des données a été crée pour permettre la détermination du rythme respiratoire et le caractériser selon le signal de respiration reçu. En plus, le chandail intelligent est alimenté par une source d’énergie sans fils et hybride fonctionnant avec une batterie rechargeable ou par un lien inductif. Deux versions de chandail ont été testées. La première contient un seul capteur alors que la deuxième possède six capteurs positionnés sur la partie frontal du vêtement. En plus, différents paramètres ont été pris en considération durant les tests citant entre autres la morphologie, l’âge et le sexe des utilisateurs. Des tests ont démontré une détection réussie de plusieurs informations pertinentes comme les cycles de respiration (inspiration, expiration), la fréquence respiratoire et d’autres mesures statistiques pour les diagnostics.
In this thesis, we present a new architecture of a smart T-shirt to monitor breathing in real time. This smart garment has an architecture that offers an innovative detection method ensuring continuous monitoring of respiratory activity. First the T-shirt detects deformation of the upper chest during breathing using an antenna built into the T-shirt. The antenna was designed in the laboratories of the optics, photonics and laser center of Laval University. A Bluetooth sensor integrated in the same T-shirt subsequently detects the variation of the RSSI signal (indicator of received signal strength) and sends it to a wireless data processing and analysis unit (a computer or tablet). A data analysis interface has been created to allow determination of the respiratory rate and characterization according to the received breathing signal. In addition, the smart T-shirt is powered by a wireless, hybrid power source powered by a rechargeable battery or by an inductive link. Two versions of the T-shirt were tested. The first contains a single sensor while the second has six sensors positioned on the front of the garment. In addition, different parameters were taken into account during the tests, citing among others the morphology, age and sex of the users. Tests have demonstrated successful detection of several relevant information such as breathing cycles (inspiration, expiration),respiratory rate and other statistical measures for diagnosis.
APA, Harvard, Vancouver, ISO, and other styles
17

Noël, Guillaume. "Indexation dans les bases de données capteurs temps réel : application à la surveillance de phénomènes environnementaux et de risques naturels." Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0091/these.pdf.

Full text
Abstract:
L'objectif de cette thèse est d’offrir aux spécialistes des systèmes de surveillance de phénomènes environnementaux une méthode de structuration, de recherche et d'accès rapide aux informations spatio-temporelles en temps-réel et sur différents critères, notamment spatiaux et temporels. Plus précisément, le problème qui nous concerne est celui de l'indexation dans une base de données en mémoire vive d'une masse de données référencées spatio-temporellement avec des contraintes de temps pour la mise à jour de l'index et pour l'exécution des requêtes. Les mesures collectées par un réseau de capteurs doivent être indexées en fonction du capteur dont elles sont issues et de la date de la mesure. De plus, les données les plus récentes doivent valorisées, ce qui n'est actuellement pas le cas pour les index existants. Trois solutions d'indexations sont proposées. Elles se distinguent des solutions existantes en regroupant les données issues des capteurs dans des sous-structures dédiées. Des sous-structures d'accès permettent d'identifier les capteurs concernés par une requête. La première proposition, le PoTree, vise à indexer en mémoire vive les données spatio-temporelles issues d'un réseau de capteurs temps-réel fixes. La seconde, le PasTree, vise à indexer en mémoire vive les données spatio-temporelles issues d'un réseau de capteurs temps-réels agiles. La dernière proposition se nomme le Spatio-temporal / Heat (StH) reprend les ambitions du PasTree et y ajoute la problématique de la gestion de la saturation de la base dès la conception de l’index. Il s’agit de la majeure contribution de cette thèse
This thesis's aim is to provide the specialists in environmental phenomenon monitoring systems with a method for structuring, querying and fast accessing to spatio-temporal data in real time using various criteria, in particular spatial and temporal ones. More precisely, we focus on the indexing of an « in memory » database for masses of spatio-temporally referenced data with time constraints for the index updating and queries. The measurements collected by a sensor network must be indexed according to the source sensor and the date of measurement. Moreover, the most recent data are usually considered as more interesting, a specificity that is usually not featured in existing indexing systems. Three indexing solutions are proposed. They differ from the existing solutions by storing the data from sensors in dedicated substructures. “Access substructures” are used to link a query to a set of sensors. The first proposal, the PoTree, aims at « in-memory » indexing of spatio-temporal data issued from a network of fixed real time sensors. The second, the PasTree, aims at « in-memory » indexing of spatiotemporal data issued from a network of agile real time sensors, i. E. Of which the sensors have a restricted mobility. It allows for a multi-criterion access to the data, using spatial references or sensor identifiers. The last proposal, the Spatio-temporal Heat (StH) aims at « in-memory » indexing of spatio-temporal data issued from a network of agile real time sensors. The main innovation of this structure is the integration of a database saturation management by offering a mechanism allowing a progressive transfer of the data towards a warehouse
APA, Harvard, Vancouver, ISO, and other styles
18

Portet, Frédéric. "Monitoring continu de site pollué : mise au point d'une méthodologie de contrôle en continu d'un site pollué en phase de surveillance ou de dé pollution." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2004. http://tel.archives-ouvertes.fr/tel-00802997.

Full text
Abstract:
Le Monitoring Continu de Site Pollué (MCSP), développé au cours de ce travail, a pour but la mise au point d'un outil de gestion en temps réel et à distance de l'évolution d'une pollution HAP (Hydrocarbures Aromatiques Polycycliques) dans un aquifère superficiel issu de l'activité charbonnière. Pour l'expérimentation en vraie grandeur, une ancienne friche de cokerie a été instrumentée (capteurs, analyseurs, central d'acquisition, automate, etc..) en juin 2000. Son suivi est assuré par un pilotage à distance via une connexion télécom.Le Monitoring Continu de Site Pollué est une nécessité pour le contrôle de l'évolution des pollutions et donc des risques induits sur l'homme et l'environnement. En raison des faibles vitesses de propagation d'une contamination aux HAP, on se satisfaisait généralement d'investigations ponctuelles en fait incomplètes et non représentatives de la réalité et masquant certains aspects particulièrement intéressants comme l'activité de biodégradation. Le suivi continu en temps réel de l'évolution naturelle d'une pollution HAP dans l'aquifère superficiel ou les sols avec une confrontation avec l'évolution des paramètres généraux (météo, pluies, etc..) n'a jamais été conduit.Ce MCSP expérimental permet de mettre en évidence des corrélations entre l'évolution de la pollution et les conditions météorologiques. Pour l'activité de biodégradation naturelle déduite des mesures de biogaz en zone non saturée, une forte activité a été observée les saisons chaudes (consommation d'oxygène et dégagement de dioxyde de carbone) et une nette diminution en hiver. Pour l'analyse quotidienne des HAP dans les eaux de l'aquifère, un fluorimètre UV de terrain est utilisé. Calibré avec du naphtalène (HAP le plus soluble), la fluorescence des eaux est donnée en æg/L équivalent naphtalène, mais nécessite un postraitement afin de corriger la dérive de l'analyseur entre deux calibrations. Par la suite, les données mesurées et traitées sont restituées et exploitées au moyen d'un outil intégré, constitué d'un SIG (Système d'Information Géographique), interconnecté à une base de données et à un modèle de transport de polluant. Les résultats sont présentés sur un synoptique convivial et ergonomique servant de support d'aide à la décision. Les gestionnaires de sites pollués peuvent ainsi visualiser toutes les informations enregistrées sur l'évolution de la pollution et donc facilement identifier les indicateurs pertinents à confronter aux paramètres généraux (météo, etc..) ou aux différents scénarii de simulation de transport de polluants.
APA, Harvard, Vancouver, ISO, and other styles
19

Monnier, Thomas. "Ondes de Lamb dans les milieux stratifiés : application à la surveillance in situ et en temps réel de l'endommagement de structures composites." Phd thesis, INSA de Lyon, 2001. http://tel.archives-ouvertes.fr/tel-00573987.

Full text
Abstract:
Par la qualité et la variété de leurs propriétés mécaniques, les matériaux composites s'imposent désormais en remplacement des matériaux traditionnels. Mais nombreux sont les processus d'endommagement observés dans ces matériaux hétérogènes. Aussi, le développement de leur usage en tant qu'éléments de structure primaires reste limité par l'importance des coûts des inspections requises pour déceler l'apparition de défauts internes. Nous avons cherché à définir une méthode d'évaluation non-destructive in situ de l'état de santé des composites, afin d'offrir une meilleure sécurité opérationnelle des structures à moindre coût. Cette technique de contrôle actif s'inscrit dans la thématique des Structures et Matériaux Intelligents car elle repose sur l'intégration à la structure hôte de capteurs, pour la génération et la mesure de perturbations ultrasonores, et de systèmes de traitement de donnée associés. Vecteurs privilégiés de l'information dans les plaques minces, les ondes de Lamb ont vu dans ce travail leur concept se généraliser au cas des matériaux anisotropes stratifiés. La propagation et les caractéristiques de ces modes dispersifs ont été étudiées en relation avec les propriétés microstructurales et la conformation de divers milieux stratifiés. En particulier, nous avons étudié l'influence de la séquence d'empilement des plis sur les courbes de dispersion des ondes de Lamb. La réalisation de plaques instrumentées a permis la détection expérimentale de défauts artificiels ou plus réalistes grâce à la définition de paramètres d'endommagement, basés sur l'analyse en temps réel des signatures ultrasonores transmises à l'intérieur de la structure. L'emplacement des défauts a été estimé par des mesures échographiques en ondes de Lamb. Enfin, nous avons tenté d'apprécier la sensibilité relative des modes de Lamb fondamentaux à l'aide de simulations numériques de l'interaction entre ces ondes guidées et différents types de défauts localisés par la méthode des éléments finis à deux dimensions.
APA, Harvard, Vancouver, ISO, and other styles
20

Boulmakoul, Azedine. "Vers un système à base de connaissances distribué & temps réel pour la surveillance et le contrôle du trafic en site urbain." Lyon 1, 1990. http://www.theses.fr/1990LYO10222.

Full text
Abstract:
Dans l'ingenierie du trafic urbain, le carrefour est un element strategique tres complexe. Cette complexite est due a plusieurs facteurs: diversite des acteurs, des interactions et des conflits, strategies de commandes et integration dans le reseau. De cet ensemble de caracteristiques, il ressort que la gestion des carrefours doit respecter des imperatifs essentiels: tache de surveillance, tache de controle, mecanisme de cooperation et de communication. Ces imperatifs representent les ingredients du systeme carrefour intelligent. Dans le cadre de ce projet nous avons concu une structure d'accueil logicielle flexible dediee a la description de differentes facettes phenomenologiques des carrefours. Cette structure est implementee avec un outil de developpement de systemes a base de connaissances temps reel (frame-based) g2#t#m. Elle distingue trois niveaux de connaissances: niveau contextuel topologique, niveau fonctionnel et niveau controle. A cette structure nous avons integre une nouvelle generation d'indicateurs fondes sur l'analyse d'images de mouvement. Ce couplage constitue la base de developpement de la tache de surveillance et de diagnostic du projet europeen drive: invaid. Une version de demonstration du systeme que nous avons developpe tourne actuellement sur une sparc-machine. Sur le plan theorique, nous proposons des resultats dans le cadre des logiques non monotones au sujet de la formalisation du dignostic ainsi que dans le champ des logiques temporelles pour l'expression des connaissances temporelles
APA, Harvard, Vancouver, ISO, and other styles
21

Bégard, Julien. "Reconnaissance de formes dans des séquences vidéo : application à la vidéo-surveillance." Paris 6, 2008. http://www.theses.fr/2008PA066538.

Full text
Abstract:
Cette thèse aborde le problème de la détection de personnes dans des images. L’objectif est d’aboutir à un système performant de détection de piétons dans un contexte automobile en milieu urbain. Nous avons abordé ce sujet sur deux fronts principaux. Le premier a été de concevoir une représentation discriminante de la forme des objets. De part la grande diversité des apparences des piétons, celle-ci doit être assez riche pour capturer les caractéristiques nécessaires pour les reconnaître. Nous avons construit cette description à partir de l’information du gradient calculé dans l’image et sa magnitude: les Histogrammes d’Orientation du Gradient enrichis de la Magnitude. Calculés de façon dense dans une région de l’image, ces descripteurs forment des vecteurs définissant finement la forme des objets. Nous comparons ces descripteurs avec des règles de décision formés à partir de méthodes d’apprentissage automatique. Notre système est basé sur l’algorithme AdaBoost auquel nous avons apporté des modifications pour obtenir un algorithme utilisant plus efficacement l’information fournie. Ces modifications ont donné deux algorithmes aux les performances complémentaires. Nous avons conçu une méthode pour combiner ces algorithmes et obtenir de meilleurs résultats. Nous avons structuré notre système en une cascade de sous-détecteurs de plus en plus complexes. Le but de cette structure est d’éliminer le plus tôt possible les mauvais candidats. Ainsi, seuls les bons candidats atteignent le sommet de la cascade, constitué des règles de décisions les plus complexes et les plus coûteuses en temps. Nous avons évalué et validé cette méthodologie sur des données couleurs et infrarouges
This thesis addresses the problem of detecting people in pictures. The objective is to achieve an efficient system for detecting pedestrians in an automotive context in urban areas. We discussed this issue on two main fronts. The first was to design a discriminant representation of the form of the objects. Due to the wide variety of appearances of pedestrians, it must be rich enough to capture the characteristics necessary to recognize them. We built this description from the information of the gradient calculated in the image and its magnitude: Histograms of Orientation Gradient fortified with the Magnitude. Calculated densely in regions of the image, these descriptors forms vectors that define finely the shape of objects. We compare these descriptors with decision rules formed from machine learning methods. Our system is based on AdaBoost algorithm that we have made changes to get an algorithm using more effectively the information provided. These changes gave two algorithms with comparable performance. We have designed a method to combine these algorithms and get better results. We structured our system in a cascade of sub-detectors that are increasingly complex. The purpose of this structure is to eliminate as soon as possible wrong candidates. Thus, only the right candidates reaching the top of the cascade, consisting of the most complex and time-costly rules decisions. We evaluated and validated this methodology on color and infrared data
APA, Harvard, Vancouver, ISO, and other styles
22

Taleb, Miassa. "Exploitation des mesures électriques en vue de la surveillance et du diagnostic en temps réel des piles à combustible pour application transport automobile." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC010/document.

Full text
Abstract:
Dans le contexte énergétique mondial actuel, les piles à combustible à membrane échangeuse de protons constituent une solution prometteuse au futur développement d'une nouvelle génération de véhicules électrifiés, permettant une autonomie plus importante que celle des véhicules électrifiés à batteries. Néanmoins, le développement à grand échelle des piles à combustible reste à ce jour limité en raison de certains verrous technologiques, tel que la gestion de l'eau. Afin de permettre une production de masse des piles à combustible, de tels problèmes doivent être résolus. Plusieurs axes de travail peuvent être envisagés, tant sur les aspects matériels sur la structure de la pile, que du point de vue de la commande en développant des outils algorithmiques permettant le suivi de l'état de fonctionnement du système en vue de détecter les défaillances éventuelles, ou la dégradation des conditions de fonctionnement, et permettre ainsi d'y apporter une solution au moyen du système de commande ou de supervision.Les travaux de cette thèse s'inscrivent dans cette seconde approche et portent plus particulièrement sur la mise en évidence des phénomènes d'engorgement ou d'asséchement du cœur de pile afin de diagnostiquer les éventuels problèmes d'hydratation conduisant à la réduction du rendement, à la diminution des performances ou encore à un vieillissement prématuré.Les méthodes développées au cours de ces travaux se fondent sur des stratégies de suivi de paramètres significatifs d'un modèle de pile dont les évolutions, comparativement à des valeurs de référence, sont caractéristiques de l'état hydratation du cœur de pile. Le suivi en temps réel de ces paramètres permet ainsi de mettre en évidence les phénomènes d'engorgement ou d'asséchement du cœur de pile.Les modèles adoptés pour ces travaux font appel à une représentation de l'impédance électrique de la pile.Ainsi, en suivant cette approche, la stratégie adoptée se fonde alors sur le développement de deux modèles de type circuit électrique : un modèle d'ordre entier puis un modèle d'ordre fractionnaire. Cette deuxième formulation des modèles, plus proche de la réalité physique des phénomènes de transports se produisant au cœur de pile, permet une meilleure représentation de la pile tant du point de vue temporel que fréquentiel. En effet, les analyses effectuées en utilisant des résultats expérimentaux obtenus au moyen d'une cellule de pile (surface active de 100 cm2 conçue par la société UBzM) ont permis de valider que le modèle d'ordre fractionnaire, en contrepartie d'une augmentation de la complexité, permet de mieux reproduire d'une part les résultats temporels de la pile (suivi de tension pour un profil de courant donnée), d'autre part une meilleure approximation de l'impédance mesurée.Des méthodes d'identification paramétrique, conventionnelles et adaptées aux systèmes d'ordre fractionnaire, sont ensuite utilisées afin d’extraire les paramètres des modèles développés à partir de données expérimentales temporelles (tension/courant de la pile), ou fréquentielles (spectroscopie d'impédance). Une étude de sensibilité permet alors de définir les paramètres les plus indicatifs des phénomènes d'engorgement et d'assèchement. L'évolution de ces paramètres, associés à la tension et le spectre d'impédance de la pile, sont alors combinés afin de construire une stratégie de diagnostic de l’engorgement et de l’asséchement du cœur de pile
In the current global energy context, proton exchange membrane fuel cells represent a promising solution to the future development of a new generation of electrified vehicles, allowing greater autonomy than electrified vehicles using batteries.Nevertheless, the large-scale development of fuel cells remains limited due to some technological locks, such as water management. To enable mass production of fuel cells, such problems must be solved. Several working axes may be envisaged both on the hardware aspects of the fuel cell structure, and from the point of view of control, by developing algorithmic tools for monitoring the operating state of the system to detect any failures, or degradations that may occur.The work of this thesis falls within this second approach and focuses specifically on the identification of drying and drowning phenomena which can appear in a fuel cell, to diagnose any moisture problems leading to yield reduction.The methods developed in this work are based on the monitoring of relevant parameters of the fuel cell model which changes, compared to reference values, are characteristic of the state of the fuel cell hydration.The real-time monitoring of these parameters can highlight the drying and drowning phenomena.Adopted models for this work are based on a representation of the electrical impedance of the fuel cell.Thus, following this approach, the adopted strategy is then based on the development of two electrical models: an integer order model and a fractional order model. It appears that the second model formulation is closer to the physical reality of transport phenomena occurring in the fuel cell. It allows a better representation of the fuel cell behavior in time and frequency domain. Indeed, the analyzes based on experimental results performed using a single fuel cell (100 cm2 active area designed by UBzM company) have validated that the fractional order model, in return for an increase of complexity, allows better reproduce, in the one hand of the fuel cell time-series voltage response (voltage monitoring for a given current profile), on the other hand a better approximation of the measured impedance. Conventional and of fractional order parametric identification methods are then used to extract the model’s parameters from time-series experimental data (voltage / current from the battery) or frequency data (impedance spectroscopy).A sensitivity analysis allows then the defining of the most indicative parameters of the drowning and drying phenomena. The evolution of these parameters associated with the voltage and impedance spectrum of the fuel cell are then combined to build a diagnosis strategy of the fuel cell water management
APA, Harvard, Vancouver, ISO, and other styles
23

Abat, Cédric. "Développement de nouveaux outils informatiques de surveillance en temps réel des phénomènes anormaux basés sur les données de microbiologie clinique du laboratoire de la Timone." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5029/document.

Full text
Abstract:
Bien que considérées comme étant sous contrôle durant la seconde partie du 20ième siècle avec la découverte des antimicrobiens, les maladies infectieuses demeurent une menace bien réelle pour l’humanité. Quelque soit l’état de connaissance que nous avons sur ces maladies, toutes demeurent imprédictibles. Afin de lutter contre ce phénomène, de nombreuses stratégies de surveillance ont été développées amenant à la mise en place de divers outils informatiques de surveillance épidémiologique visant à détecter et identifier, le plus précocement possible, des événements anormaux. L’objectif initial de notre travail a consisté à mettre en place, au sein de l’Institut Hospitalo-Universitaire Méditerranée Infection et à partir du logiciel Microsoft Excel, deux nouveaux outils informatiques de surveillance épidémiologique visant à identifier, de façon hebdomadaire et automatisée, des événements anormaux sur la base des données de microbiologie clinique issues du laboratoire du Centre Hospitalo-Universitaire Timone à l’Assistance Publique- Hôpitaux de Marseille (AP-HM). Une fois cette étape achevée, nous avons par la suite travaillé au développement d’une structure de surveillance complète intégrant l’investigation et la validation des alarmes émises par les systèmes de surveillance créés, l’émission d’alertes à l’Agence Régionale de Santé (ARS) de la région Provence-Alpes Côte d’Azur (PACA), la valorisation des cas d’événements anormaux confirmés par des publications scientifiques, ainsi que la mise en place de rétro-informations et de bulletins épidémiologiques hebdomadaires visant à informer les acteurs locaux de la surveillance épidémiologique des maladies infectieuses
Although considered under control in the second half of the 20th century with the discovery of antimicrobials, infectious diseases remain a serious threat to humanity. Regardless of the state of knowledge we possess on these diseases, all remained unpredictable. To fight this phenomenon, many monitoring strategies have been developed leading to the implementation of various epidemiological surveillance computer programs to detect and identify, as soon as possible, abnormal events including epidemic phenomena. The initial objective of our work was to implement, within the Hospitalo-Universitaire Méditerranée Infection and based on the Microsoft Excel software, two new automated computer-based programs for the weekly automated epidemiological surveillance of abnormal epidemic events using clinical microbiological data from the Timone teaching hospital of of Assistance Publique- Hôpitaux de Marseille (AP-HM). Once completed, we then worked to develop a comprehensive monitoring structure incorporating the investigation and the validation of alarms emitted by the established surveillance systems, the transmission of alerts to the Regional Health Agency (ARS) of the Provence-Alpes Côte d'Azur (PACA), the public dissemination of confirmed abnormal events by publishing scientific articles, and the implementation of feedback and weekly epidemiological bulletins to inform local infectious diseases epidemiological surveillance actors
APA, Harvard, Vancouver, ISO, and other styles
24

Bechar, Hassane. "Comparaison d'images : Application à la surveillance et au suivi de trajectoire." Nancy 1, 1987. http://www.theses.fr/1987NAN10062.

Full text
Abstract:
L'étude se base sur la comparaison d'une image stockée en mémoire avec celle provenant de la caméra. L'étude s'est effectuée à l'aide d'un dispositif cablé qui donne un résultat visuel et un résultat numérique en temps réel. Un logiciel permet d'obtenir les mêmes résultats mais en temps différé
APA, Harvard, Vancouver, ISO, and other styles
25

Abdallah, Amani. "Réseaux d'eau intelligents : surveillance de la qualité de l'eau par des capteurs en ligne." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10150/document.

Full text
Abstract:
L'objectif de ce travail de thèse est d'évaluer les performances des systèmes proposés pour le contrôle en temps réel de la qualité d’eau dans le réseau d’eau potable. Il a été mené dans le cadre du projet européen SmartWater4Europeet du projet SunRise qui vise la construction d’un démonstrateur à grande échelle de la ville intelligente et durable sur le Campus de la Cité Scientifique. Le travail comporte 4 parties:La première partie présente une étude bibliographique des travaux réalisés sur le suivi en temps réel de la qualité de l’eau. Il présente les paramètres utilisés pour surveiller la qualité de l’eau et les technologies disponibles pour suivre ces paramètres.La seconde partie présente la construction d’un pilote en laboratoire pour l’analyse des performances des systèmes de contrôle de la qualité de l’eau et une description des systèmes utilisés (EventLab, s::can et Intellisonde). La troisième partie est consacrée à l’étude de l'efficacité du suivi du chlore pour la détection des contaminants microbiens. Les résultats montrent que le suivi du chlore constitue un outil efficace pour la surveillance de la qualité microbiologique de l'eau potable.La quatrième partie présente les réponses des systèmes utilisés à l’injection de contaminants. Les essais montrent une grande fiabilité d’EventLab et de S::can pour détecter les contaminants chimiques. Concernant les contaminants biologiques, s::can montre une capacité à détecter ces contaminants pour des concentrations bactériennes supérieures à 106UFC/ml.La dernière partie présente le réseau d'eau de la Cité Scientifique qui constitue le support du projet « SunRise». Les résultats des tests de contrôle de la qualité de l’eau sont présentés et analysés. On donne aussi la localisation des systèmes de contrôle de la qualité de l’eau qui seront installés sur le réseau d’eau
The objective of this thesis is to evaluate the performance of systems proposed for real-time monitoring of water quality in the drinking water network. It was conducted within the European project SmartWater4Europe and SunRise project, which aims at the construction of a demonstrator of the smart city on the campus of the“Cité Scientifique”. The work consists of 4parts:The first part presents a literature review of the work conducted on the real-time monitoring of water quality. It shows the parameters used to monitor the water quality and the technologies available to monitor these parameters.The second part presents the construction of a Lab pilot for analyzing the performance of the water quality control systems. After a description of the systems used in this thesis(EventLab, s :: can and Intellisonde), we present the procedure followed for the realization of contaminant.The third part is devoted to the study of the performance of chlorine monitoring for detection of microbial contaminants. The results show that monitoring of chlorine constitutes an effective tool for monitoring the microbiological quality of drinking water.The fourth part presents the responses of EventLab and s::can to the injection of contaminants. Tests show a high reliability of EventLab and s::can to detect chemical contaminants. Regarding biological contaminants, s::can shows an ability to detect these contaminants for bacterial concentrations exceeding 106UFC/ml.The final part presents the water network of Cité Scientifique. The results of the water quality control are presented and analyzed. It also gives the location of the water quality control systems that will be installed on the water network
APA, Harvard, Vancouver, ISO, and other styles
26

Launay, Thierry. "Prise en compte en temps réel d'événements à apparition aléatoire dans le raisonnement d'un système expert en ligne : application à la surveillance acoustique des générateurs de vapeur." Compiègne, 1989. http://www.theses.fr/1989COMPD163.

Full text
Abstract:
La prise en compte d'événements en temps réel dans le raisonnement d'un système expert en ligne peut être résolue en utilisant un système PROLOG modifié travaillant sur une base de faits temps réel. On ajoute deux mécanismes essentiels au système déductif : d'une part, le backtracking dirigé par les événements qui est chargé de corriger les preuves, quand des événements se produisent et d'autre part, la gestion en parallèle des preuves logiquement indépendantes entre elles qui structure les raisonnements et optimise la correction des preuves. La cohérence logique entre les preuves et la base de faits s'appuie sur la représentation des connaissances de l'application.
APA, Harvard, Vancouver, ISO, and other styles
27

Tahir, Djamel. "Moustiques et dirofilariose : mise au point et utilisation d'outils innovants pour la détection et la surveillance." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0406/document.

Full text
Abstract:
Dans ce travail, nous nous sommes intéressés à l’étude des dirofilarioses chez le réservoir canin « le chien » ainsi que chez les vecteurs « moustiques », en particulier, en ce qui concerne la détection, la surveillance et la prophylaxie. Le premier objectif était de développer une PCR duplex en temps réel ciblant le gène COI capable de détecter et de différencier simultanément D. immitis et D. repens. Ainsi, nous avons détecté par cet outil moléculaire, pour la première fois en France, D. immitis et D. repens chez des moustiques tigre "Aedes albopictus". Nous avons, de plus, confirmé la présence de l’infection à D. immitis chez les chiens du nord d'Algérie.Le deuxième objectif était d'évaluer l’intérêt de la spectrométrie de masse MALDI-TOF MS pour la détection de changements dans les profils protéiques d'Aedes aegypti infectés expérimentalement avec des nématodes filaires (D. immitis, Brugia malayi et B. pahangi). Les résultats obtenus montrent la capacité du MALDI-TOF MS à différencier des moustiques infectés et non infectés par les filaires. Ainsi, les meilleurs taux de classification correcte obtenus sont 94,1, 86,6, 71,4 et 68,7% pour les non infectés versus ceux infectés, respectivement, par D. immitis, B. malayi et B. pahangi.Le troisième objectif de ce travail était l’évaluation de l'efficacité anti-gorgement et insecticide d'un ectoparasiticide (Vectra® 3D) contenant trois principes actifs : le dinotéfurane, le pyriproxyfène et la perméthrine contre Ae. albopictus, l'une des principales espèces vectrices de Dirofilaria spp. Les résultats ont démontré que le DPP a une efficacité anti-gorgement et insecticide significative contre Ae. albopictus
In this work, we are interested in studying dirofilarial infections in dogs and vectors “Mosquitoes” especially detection, monitoring and prophylaxis. The first objective is to develop a real-time duplex PCR targeting the COI gene capable of simultaneously detecting and differentiating D. immitis and D. repens. Subsequently, we applied this tool to a canine dirofilariosis surveillance process in different endemic areas of Mediterranean basin (Corsica and Algeria). We have thus detected by this molecular tool for the first time in France, D. immitis and D. repens in Aedes albopictus mosquitoes. We reported, also, the presence of D. immitis in dogs from northern Algeria.The second aim was to assess whether the MALDI-TOF MS can detect changes in the protein profiles of Aedes aegypti infected experimentaly with filarial nematodes (D. immitis, Brugia malayi and B. pahangi). Obtained results showed the potential of MALDI-TOF MS as a reliable tool for differentiating non-infected and filariae-infected Ae. aegypti mosquitoes with a best correct classification rate obtained from the thorax-head part with 94.1 and 86.6, 71.4 and 68.7% for non-infected and D. immitis, B. malayi and B. pahangi infected mosquitoes respectively.The third aim of this work has focused on the evaluation of the anti-feeding and insecticidal efficacy of an ectoparasiticide (Vectra® 3D) containing three active ingredients: dinotefurane, pyriproxyfen and permethrin (DPP) against Ae. albopictus. Results demonstrated that the DPP combination has significant anti-feeding and insecticidal efficacy against Ae. albopictus for at least 4 weeks
APA, Harvard, Vancouver, ISO, and other styles
28

Fouquet, Nicolas. "Caractérisation de l’état de fonctionnement d’une pile à combustible PEM par spectroscopie d’impédance électrochimique : application a la surveillance en temps réel du contenu en eau de l’assemblage membrane électrode." Ecole Centrale de Lille, 2006. http://www.theses.fr/2006ECLI0004.

Full text
Abstract:
L’objectif de ces travaux est de développer une méthode de diagnostic non invasive capable de donner en temps réel une estimation de l’état de fonctionnement d’une pile à combustible PEM. La méthode proposée se base sur la combinaison d’une approche modèle et de l’exploitation de mesures électriques en régime dynamique. Dans un premier temps, des mesures de spectroscopie d’impédance électrochimique sont réalisées afin de valider un modèle de pile, sous forme de circuit électrique équivalent. Cette étude permet de mettre en évidence la sensibilité des différents paramètres de ce modèle vis-à-vis des deux principales défaillances que l’on cherche à surveiller : noyade et assèchement. Trois facteurs susceptibles de perturber le diagnostic de ces défaillances sont ensuite pris en compte : le vieillissement de la pile, la dilution de l’hydrogène par de l’azote et l’empoisonnement de la cathode par les dioxydes d’azote et de soufre. Au-delà de la simple détection de la noyade et de l’assèchement, cette méthode se montre douée d’une bonne capacité d’isolation des défaillances. L’objectif est ensuite de montrer que cette méthode peut s’accommoder de contraintes automobiles telles l’impossibilité de disposer d’un générateur de signaux sinusoïdaux, couramment utilisé en spectroscopie d’impédance électrochimique, et la nécessité de travailler en temps réel. L’approche consiste à reconstruire une partie du spectre d’impédance de la pile à partir d’une fenêtre temporelle suffisamment étroite pour que le diagnostic ne soit pas significativement retardé. L’identification des paramètres peut alors se faire dans le domaine fréquentiel, suivant un algorithme de Levenberg-Marquardt
The aim of this work is to develop a method allowing for non intrusive real time state-of-health monitoring of a proton exchange membrane fuel cell. To do so, a model based approach is coupled with voltage and current dynamic measurements. The model used in this study is inspired by the Randles equivalent electrical circuit. It was found that monitoring the evolution of the three resistances of this modified Randles model was an efficient and robust way of monitoring the state-of-health of the fuel cell stack, as far as flooding and drying out is concerned. Three perturbations which could potentially cause false alarm are then investigated : fuel cell aging, cathode poisoning by nitrogen and sulfur dioxyde and hydrogen dilution by nitrogen. The aim is then to show that this method is still operational in an on-board environment, in which pure sinusoidal excitation of the fuel cell is unavailable and real time performance mandatory. The impedance spectrum is thus derived from time resolved EIS measurements on a square signal. Parameters estimation is done in the frequency domain, using a Levenberg-Marquardt algorithm
APA, Harvard, Vancouver, ISO, and other styles
29

Montenegro, Martinez Davis. "Diakoptics basée en acteurs pour la simulation, la surveillance et la comande des réseaux intelligents." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT106/document.

Full text
Abstract:
La simulation de systèmes d'énergie est un outil important pour la conception, le développement et l'évaluation de nouvelles architectures et des contrôles grille dans le concept de réseau intelligent pour les dernières décennies. Cet outil a évolué pour répondre aux questions proposées par les chercheurs et les ingénieurs dans les applications de l'industrie, et pour offrant des différentes alternatives pour couvrir plusieurs scénarios réalistes.Aujourd'hui, en raison des progrès récents dans le matériel informatique, la Simulation numérique en temps réel (DRTS) est utilisée pour concevoir des systèmes de puissance, afin de soutenir les décisions prises dans les systèmes de gestion de l'énergie automatisés (SME) et de réduire le délai de commercialisation de produits, entre des autres applications.Les simulations de réseaux électriques peuvent être classées dans les catégories suivantes: (1) la simulation analogique (2) hors simulation de ligne (3) de simulation entièrement numérique (4) la simulation rapide (5) Contrôleur Hardware-In-the-Loop (CHIL) et (6) Puissance Hardware-In-the-Loop (PHIL).Les dernière 3 sont axés sur la simulation Real-Time hardware-in-the-Loop (HIL RT-). Ces catégories portent sur les questions liées à Transitoires électromagnétiques (liste EMT), la simulation de phaseurs ou mixte (phaseur et EMT). Comme mentionné ci-dessus, ces progrès sont possibles en raison de l'évolution des architectures informatiques (matériels et logiciels); Cependant, pour le cas particulier de l'analyse des flux de puissance des réseaux de distribution (DS), il y a encore des défis à résoudre.Les architectures informatiques actuelles sont composées de plusieurs noyaux, laissant derrière lui le paradigme de la programmation séquentielle et conduisant les développeurs de systèmes numériques pour examiner des concepts comme le parallélisme, la concurrence et les événements asynchrones. D'autre part, les méthodes pour résoudre le flux de puissance dynamique des systèmes de distribution considérer le système comme un seul bloc; ainsi, ils utilisent une seule base pour l'analyse des flux de puissance, indépendamment de l'existence de plusieurs cœurs disponibles pour améliorer les performances de la simulation.Répartis dans des procédés en phase et de la séquence, ces procédés ont en caractéristiques communes telles que l'examen d'une seule matrice creuse pour décrire les DS et qu'ils peuvent résoudre simultanément une seule fréquence.Ces caractéristiques font dès les méthodes mentionné sont pas appropriées pour le traitement avec multiple noyaux. En conséquence, les architectures informatiques actuelles sont sous-utilisés, et dégrade la performance des simulateurs lors de la manipulation de grandes DS échelle, changer DS topologie et y compris les modèles avancés, entre autres des activités de la vie réelle.Pour relever ces défis Cette thèse propose une approche appelée A-Diakoptics, qui combine la puissance de Diakoptics et le modèle de l'acteur; le but est de faire toute méthode classique d'analyse de flux d'énergie appropriée pour le traitement multithread. En conséquence, la nature et la complexité du système d'alimentation peuvent être modélisées sans affecter le temps de calcul, même si plusieurs parties du système d'alimentation fonctionnent à une fréquence de base différente comme dans le cas de micro-réseaux à courant continu. Par conséquent, l'analyse des flux de charge dynamique de DS peut être effectuée pour couvrir les besoins de simulation différents tels que la simulation hors ligne, simulation rapide, CHIL et PHIL. Cette méthode est une stratégie avancée pour simuler les systèmes de distribution à grande échelle dans des conditions déséquilibrées; couvrant les besoins de base pour la mise en œuvre d'applications de réseaux intelligents
Simulation of power systems is an important tool for designing, developing and assessment of new grid architectures and controls within the smart grid concept for the last decades. This tool has evolved for answering the questions proposed by academic researchers and engineers in industry applications; providing different alternatives for covering several realistic scenarios. Nowadays, due to the recent advances in computing hardware, Digital Real-Time Simulation (DRTS) is used to design power systems, to support decisions made in automated Energy Management Systems (EMS) and to reduce the Time to Market of products, among other applications.Power system simulations can be classified in the following categories: (1) Analog simulation (2) off line simulation (3) Fully digital simulation (4) Fast simulation (5) Controller Hardware-In-the-Loop (CHIL) simulation and (6) Power Hardware-In-the-Loop (PHIL) simulation. The latest 3 are focused on Real-Time Hardware-In-the-Loop (RT-HIL) simulation. These categories cover issues related to Electromagnetic Transients (EMT), phasor simulation or mixed (phasor and EMT). As mentioned above, these advances are possible due to the evolution of computing architectures (hardware and software); however, for the particular case of power flow analysis of Distribution Systems (DS) there are still challenges to be solved.The current computing architectures are composed by several cores, leaving behind the paradigm of the sequential programing and leading the digital system developers to consider concepts such as parallelism, concurrency and asynchronous events. On the other hand, the methods for solving the dynamic power flow of distribution systems consider the system as a single block; thus they only use a single core for power flow analysis, regardless of the existence of multiple cores available for improving the simulation performance.Divided into phase and sequence frame methods, these methods have in common features such as considering a single sparse matrix for describing the DS and that they can solve a single frequency simultaneously. These features make of the mentioned methods non-suitable for multithread processing. As a consequence, current computer architectures are sub-used, affecting simulator's performance when handling large scale DS, changing DS topology and including advanced models, among others real life activities.To address these challenges this thesis proposes an approach called A-Diakoptics, which combines the power of Diakoptics and the Actor model; the aim is to make any conventional power flow analysis method suitable for multithread processing. As a result, the nature and complexity of the power system can be modeled without affecting the computing time, even if several parts of the power system operate at different base frequency as in the case of DC microgrids. Therefore, the dynamic load flow analysis of DS can be performed for covering different simulation needs such as off-line simulation, fast simulation, CHIL and PHIL. This method is an advanced strategy for simulating large-scale distribution systems in unbalanced conditions; covering the basic needs for the implementation of smart grid applications
APA, Harvard, Vancouver, ISO, and other styles
30

Zein, Ismail. "Application du filtre de Kalman et de l'observateur de Luenberger à la commande et à la surveillance de la machine asynchrone." Compiègne, 2000. http://www.theses.fr/2000COMP1290.

Full text
Abstract:
La machine asynchrone peut accéder aux applications à vitesse variable et surpasser les performances de la machine à courant continu grâce aux commandes utilisées par les variateurs modernes. Cependant, les algorithmes de commande ou de surveillance de la machine sont sensibles aux paramètres électriques de la machine, qui peuvent varier sous l'effet de phénomènes tels que l’échauffement du stator et du rotor, la saturation magnétique ou encore l'effet pelliculaire. Par ailleurs, on s'intéresse, de plus en plus, à la commande de la machine sans capteur mécanique, celui-ci étant coûteux et fragile. Dans ce contexte, ce document considère l'estimation des variables mécaniques et des paramètres électriques de la machine asynchrone en temps réel, avec le souci d'alléger l'implantation des algorithmes d'estimation. Dans cet objectif, nous avons établi qu'il était beaucoup plus intéressant d'exploiter un modèle d'ordre réduit (ordre 2) de la machine. Ainsi, à partir de ce modèle nous avons proposé et comparé plusieurs estimateurs basés sur des observateurs de Luenberger et des filtres de Kalman. Les estimations à partir de données expérimentales ou de simulations montrent que le filtre de Kalman et le modèle d'ordre 2 forment un outil très performant pour les applications en temps réel, notamment pour l'identification de la machine. Cette approche permet d'utiliser des périodes de discrétisation supérieure à 10 ms tout en ayant une précision élevée des estimations. Ceci garantit une implantation économique en temps réel.
APA, Harvard, Vancouver, ISO, and other styles
31

JIMENEZ, VARGAS FERNANDO. "Specification et conception de microsystemes bases sur des circuits asynchrones - etude d'un dispositif multicapteur integre d'enregistrement de contraintes environnementales." Toulouse, INSA, 2000. http://www.theses.fr/2000ISAT0038.

Full text
Abstract:
L'introduction des systemes electroniques embarques et miniaturises dans des nouveaux dispositifs apporte des avantages qui sont ressentis essentiellement comme une reduction des couts reels et une augmentation de la performance. Les impacts les plus importants concernent la reduction de la complexite mecanique (reduction du cablage par exemple), une meilleure operation (par l'augmentation de la flexibilite des fonctionnalites) et une maintenance plus efficace (par une meilleure connaissance de l'etat de vieillissement du systeme). L'electronique etant maitrisee, la competitivite tient dans une conception, qui soit rapide, sans faute, robuste et realisable. Les efforts doivent s'orienter vers la recherche de methodologies et techniques qui puissent supporter l'integration, principal defi propose par la conception de ces nouveaux systemes repartis, communicants et pluridisciplinaires. Cette these presente les modeles et les outils developpes pour aider a la conception de micro systemes, avec des points forts tels que : la conception amont, les systemes asynchrones, la fiabilite et l'integration au systeme de conception structuree descendante. Ces modeles et outils sont bases sur sdl, sa-rt et les reseaux de petri.
APA, Harvard, Vancouver, ISO, and other styles
32

Li, Long. "Contribution au développement d'un système expert multicapteurs pour la surveillance du poinçonnage." Nancy 1, 1994. http://www.theses.fr/1994NAN10336.

Full text
Abstract:
L'usure excessive des outils de poinçonnage constitue une des plus importantes causes de dysfonctionnement de presse parmi d'autres, tels que le bris d'outil, la remontée des pastilles découpées, le défaut d'avance bande, etc ces problèmes entraine des conséquences graves sur la qualité des pièces découpées et sur la productivité. Il est donc nécessaire d'introduire des systèmes de surveillance permettant de détecter en temps réel de telles anomalies du processus afin d'améliorer la productivité et la qualité des produits en poinçonnage. Les signaux générés par l'opération de poinçonnage comme bruit audible, effort, émission acoustique, accélération, etc. , sont des effets physiques du processus de poinçonnage. Les anomalies du processus, lorsqu'elles entrainent des variations des signaux cités plus haut, peuvent être mesurées à l'aide de capteurs. Leurs identifications par observations numériques peuvent nous fournir des informations sur le processus de poinçonnage afin de le surveiller et de l'analyser. Cette étude a pour objectif de définir les spécifications d'un système expert capable d'assurer, à l'aide d'informations fournies par une acquisition multicapteurs, un suivi de l'usure et une détection des anomalies du processus. La méthodologie développée dans cette étude concerne l'acquisition des signaux issus de multicapteurs, l'analyse et l'interprétation de ces signaux à l'aide de plusieurs techniques de traitement du signal afin d'extraire les caractéristiques sensibles à l'usure d'outil, l'estimation de l'usure par un modèle adimensionnel, et enfin une décision à prendre sur l'état d'usure et l'alarme pour le changement de l'outil. Cette méthodologie doit être intégrée dans un système expert afin de développer un système de surveillance du poinçonnage efficace, fiable et convivial
APA, Harvard, Vancouver, ISO, and other styles
33

Delespierre, Tiba. "Du dossier résident informatisé à la recherche en santé publique : Application des méthodes de surveillance en temps réel à des données médico-sociales de la personne âgée et exploration de données de cohorte pour la santé publique." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV030/document.

Full text
Abstract:
La France connaît un vieillissement de sa population sans précédent. La part des séniors s’accroît et notre société se doit de repenser son organisation pour tenir compte de ce changement et mieux connaître cette population.De nombreuses cohortes de personnes âgées existent déjà à travers le monde dont quatre en France et, bien que la part de cette population vivant dans des structures d’hébergement collectif (EHPAD, cliniques de soins de suite) augmente, la connaissance de ces seniors reste lacunaire.Aujourd’hui les groupes privés de maisons de retraite et d’établissements sanitaires comme Korian ou Orpéa s’équipent de grandes bases de données relationnelles permettant d’avoir de l’information en temps réel sur leurs patients/résidents. Depuis 2010 les dossiers de tous les résidents Korian sont dématérialisés et accessibles par requêtes. Ils comprennent à la fois des données médico-sociales structurées décrivant les résidents et leurs traitements et pathologies, mais aussi des données textuelles explicitant leur prise en charge au quotidien et saisies par le personnel soignant.Au fil du temps et alors que le dossier résident informatisé (DRI) avait surtout été conçu comme une application de gestion de base de données, il est apparu comme une nécessité d’exploiter cette mine d’informations et de construire un outil d’aide à la décision destiné à améliorer l’efficacité des soins. L’Institut du Bien Vieillir IBV devenu entretemps la Fondation Korian pour le Bien Vieillir a alors choisi, dans le cadre d’un partenariat Public/Privé de financer un travail de recherche destiné à mieux comprendre le potentiel informatif de ces données, d’évaluer leur fiabilité et leur capacité à apporter des réponses en santé publique. Ce travail de recherche et plus particulièrement cette thèse a alors été pensée en plusieurs étapes.- D’abord l’analyse de contenu du data warehouse DRI, l’objectif étant de construire une base de données recherche, avec un versant social et un autre de santé. Ce fut le sujet du premier article.- Ensuite, par extraction directe des informations socio-démographiques des résidents dès leur entrée, de leurs hospitalisations et décès puis, par un processus itératif d’extractions d’informations textuelles de la table des transmissions et l’utilisation de la méthode Delphi, nous avons généré vingt-quatre syndromes, ajouté les hospitalisations et les décès et construit une base de données syndromique, la Base du Bien Vieillir (BBV) . Ce système d’informations d’un nouveau type a permis la constitution d’une cohorte de santé publique à partir de la population des résidents de la BBV et l’organisation d’un suivi longitudinal syndromique de celle-ci. La BBV a également été évaluée scientifiquement dans un cadre de surveillance et de recherche en santé publique au travers d’une analyse de l’existant : contenu, périodicité, qualité des données. La cohorte construite a ainsi permis la constitution d’un outil de surveillance. Cet échantillon de population a été suivi en temps réel au moyen des fréquences quotidiennes d’apparitions des 26 syndromes des résidents. La méthodologie d’évaluation était celle des systèmes de surveillance sanitaire proposée par le CDC d’Atlanta et a été utilisée pour les syndromes grippaux et les gastro entérites aiguës. Ce fut l’objet du second article.- Enfin la construction d’un nouvel outil de santé publique : la distribution de chacun des syndromes dans le temps (dates de transmissions) et l’espace (les EHPAD de transmissions) a ouvert le champ de la recherche à de nouvelles méthodes d’exploration des données et permis d’étudier plusieurs problématiques liées à la personne âgée : chutes répétées, cancer, vaccinations et fin de vie
French population is rapidly aging. Senior citizens ratio is increasing and our society needs to rethink its organization, taking into account this change, better knowing this fast growing population group.Even if numerous cohorts of elderly people already exist worldly with four in France and, even as they live in growing numbers in nursing homes and out-patient treatment clinics, knowledge of this population segment is still missing.Today several health and medico-social structures groups as Korian and Orpéa invest in big relational data bases enabling them to get real-time information about their patients/residents. Since 2010 all Korian residents’ files are dematerialized and accessible by requests. They contain at the same time, structured medico-social data describing the residents as well as their treatments and pathologies, but also free-textual data detailing their daily care by the medical staff.Through time and as the computerized resident file (DRI) was mainly conceived as a data base management application, it appeared essential to mine these data and build a decision-making tool intended to improve the care efficiency. The Ageing Well Institute becoming meanwhile the Korian Ageing Well Foundation chose then, working in a private/public partnership, to finance a research work intented to better understand these datas’ informative potential, to assess their reliability and response to public health threats. This research work and this thesis were then designed in several steps:- First, a content analysis of the data warehouse DRI, the objective being to build a research data base, with a social side and a health side. This was the first paper subject.- Then, by direct extraction of the residents’ socio-demographic information at nursing home (NH) entry, adding hospitalizations and deaths, and finally, by an iterative textual extraction process of the transmissions data and by using the Delphi method, we created twenty-four syndromes, added hospitalizations and deaths and built a syndromic data base, the Ageing Well data base. This information system of a new kind, allowed the constitution of a public health cohort for elderly people from the BBV residents’population and its syndromic longitudinal follow-up. The BBV was also scientifically assessed for surveillance and public health research through present situation analysis: content, periodicity and data quality. This cohort then gave us the opportunity to build a surveillance tool and follow the residents’ population in real-time by watching their 26 daily frequency syndromic distributions. The methodology for that assessment, Atlanta CDCs’ health surveillance systems method, was used for flu and acute gastro enteritis syndroms and was the second paper subject.- Finally, the building of a new public health tool: each syndrom’s distribution through time (transmissions dates) and space (transmissions NH ids) opened the research field to new data exploration methods. I used these to study different health problems afflicting senior citizens: frequent falls, cancer, vaccinations and the end of life
APA, Harvard, Vancouver, ISO, and other styles
34

Thomas, Marielle. "Biodétection en temps réel. Contribution à la réalisation d'un nouveau système de détection biologique précoce de la pollution des eaux de surface, fondé sur l'exploitation des décharges autostimulatrices d'un poisson électrique tropical : Apteronotus albifrons, Apteronotidae-Gymnotiformes." Nancy 1, 1996. http://docnum.univ-lorraine.fr/public/SCD_T_1996_0018_THOMAS.pdf.

Full text
Abstract:
Cette thèse décrit un nouveau système de détection biologique des pollutions des eaux de surface, qui exploite en temps réel des signaux électriques engendrés par un poisson tropical d'eau douce, Apteronotus albifrons (Gymnotiformes). Ce travail s'est articulé autour de quatre grands axes. La première partie est un bilan des connaissances actuelles dans le domaine des biodetecteurs et des biocapteurs. Il montre la multiplicité des systèmes, dont la diversité s'exprime aussi bien du point de vue de l'espèce utilisée que du principe développé. La seconde partie décrit le nouveau procédé de bio détection. Son principe est fondé sur une caractérisation temporelle du signal électrique d'A. Albifrons, en termes de fréquence et de forme. Ces deux caractéristiques électriques, naturellement stables dans le temps, sont affectées par un environnement toxique. La troisième partie traite de l'influence de plusieurs paramètres physico-chimiques (température, pH, conductivité et oxygène dissous) sur les caractéristiques des signaux bioélectriques. Elle révèle que la fréquence de décharge des poissons est une grandeur fortement dépendante de la température de l'eau. Dans une moindre mesure, cette caractéristique électrique est aussi fonction du pH et de la concentration en oxygène dissous. En revanche, aucune influence des paramètres physico-chimiques sur la forme du signal n'a été mise en évidence. La dernière partie dresse le profil de sensibilité toxicologique d'A. Albifrons vis-à-vis de six polluants. Ce nouveau procédé permet la détection en moins de 35 minutes de : 35 [micro]g. L-1 de cyanure, 1 mg. L-1 de phénol, 500 [micro]g. L-1 d'atrazine, 1 mg. L-1 de trichloréthylène, 2,7 mg. L-1 de chrome (VI) et une gamme de 1,9 a 18,4 mg. L-1 de gazole. Des problèmes concernant la fiabilité et la crédibilité des informations collectées ainsi que la variabilité des réponses exploitées sont aussi considérés. Enfin, des hypothèses sont proposées pour expliquer les modes d'action toxiques sur la capacité électrogène d'A. Albifrons.
APA, Harvard, Vancouver, ISO, and other styles
35

Taright, Yamina. "Contribution à l'analyse de la pollution atmosphérique chronique ou accidentelle : concept de nez électronique." Rouen, 1999. http://www.theses.fr/1999ROUES001.

Full text
Abstract:
La pollution atmosphérique constitue un problème majeur dont le suivi en temps réel est difficile. Ce travail exploratoire se propose d'apporter une solution originale a ce problème en utilisant des microcapteurs chimiques. Le premier chapitre précise le problème de la pollution, explicite les besoins de mesure et définit le cahier des charges d'un système de mesure optimal. Dans le second chapitre, on analyse les moyens de perception de l'information chimique en insistant sur les microcapteurs, tandis que le 3ème chapitre est consacré à une analyse des expérimentations antérieures menées avec de tels capteurs et des méthodes de traitement des données associées. On présente alors les circuits FPGA qui seront la base de l'électronique associée à ces capteurs et, dans les derniers chapitres, la réalisation du système de conditionnement des capteurs, ainsi que l'implantation matérielle d'un perceptron multicouche destiné à l'interprétation en temps réel des données.
APA, Harvard, Vancouver, ISO, and other styles
36

SAYED, MOUCHAWEH Moamar. "Conception d'un système de diagnostic adaptatif et prédictif basé sur la méthode Fuzzy Pattern Matching pour la surveillance en ligne des systèmes évolutifs." Phd thesis, Université de Reims - Champagne Ardenne, 2002. http://tel.archives-ouvertes.fr/tel-00002637.

Full text
Abstract:
La supervision automatique des processus industriels permet d'accroître la productivité et de diminuer le coût d'entretien. Le diagnostic est une composante principale d'un module de supervision. Il existe plusieurs approches pour réaliser le diagnostic. Les performances de chaque approche dépendent du problème posé. Nous cherchons une méthode de diagnostic capable de résoudre les problèmes suivants :
- dans une base de connaissance incomplète, tous les modes de fonctionnement ne sont pas représentés. En conséquence, un module de diagnostic doit être adaptatif afin d'inclure à sa base de connaissance les nouveaux modes dés qu'ils apparaissent,
- lorsque le système évolue vers un mode anormal ou non désiré, il est nécessaire d'anticiper cette évolution plutôt que d'attendre d'arriver à ce mode afin d'éviter ses conséquences surtout s'il est dangereux. Le module de diagnostic doit donc être prédictif,
- dans le cas d'un système évolutif, la base de connaissance doit être enrichie grâce à l'information apportée par les nouvelles observations. Cet enrichissement doit être réalisé en temps réel,
- les données sont à la fois incertaines et imprécises.
L'objectif principal de ma thèse consistait à mettre au point un module de diagnostic en temps réel adaptatif et prédictif pour des systèmes évolutifs, en utilisant les techniques de Reconnaissance des Formes, la théorie des ensembles flous et la théorie des possibilités. Ce module a été appliqué sur plusieurs applications industrielles.
APA, Harvard, Vancouver, ISO, and other styles
37

Abdennadher, Mohamed. "Étude et élaboration d'un système de surveillance et de maintenance prédictive pour les condensateurs et les batteries utilisés dans les Alimentations Sans Interruptions (ASI)." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00806065.

Full text
Abstract:
Pour assurer une énergie électrique de qualité et de façon permanente, il existe des systèmes électroniques d'alimentation spécifiques. Il s'agit des Alimentations Sans Interruptions (ASI). Une ASI comme tout autre système peut tomber en panne ce qui peut entrainer une perte de redondance. Cette perte induit une maintenance corrective donc une forme d'indisponibilité ce qui représente un coût. Nous proposons dans cette thèse de travailler sur deux composants parmi les plus sensibles dans les ASI à savoir les condensateurs électrolytiques et les batteries au plomb. Dans une première phase, nous présentons, les systèmes de surveillance existants pour ces deux composants en soulignant leurs principaux inconvénients. Ceci nous permet de proposer le cahier des charges à mettre en œuvre. Pour les condensateurs électrolytiques, nous détaillons les différentes étapes de caractérisation et de vieillissement ainsi que la procédure expérimentale de vieillissement standard accéléré et les résultats associés. D'autre part, nous présentons les résultats de simulation du système de surveillance et de prédiction de pannes retenu. Nous abordons la validation expérimentale en décrivant le système développé. Nous détaillons les cartes électroniques conçues, les algorithmes mis en œuvre et leurs contraintes d'implémentation respectifs pour une réalisation temps réel. Enfin, pour les batteries au plomb étanches, nous présentons les résultats de simulation du système de surveillance retenu permettant d'obtenir le SOC et le SOH. Nous détaillons la procédure expérimentale de vieillissement en cycles de charge et décharge de la batterie nécessaire pour avoir un modèle électrique simple et précis. Nous expliquons les résultats expérimentaux de vieillissement pour finir avec des propositions d'amélioration de notre système afin d'obtenir un SOH plus précis.
APA, Harvard, Vancouver, ISO, and other styles
38

Silva, Elise Da. "Développement d'outils analytiques innovants pour le suivi des populations de Vibrio dans les environnements aquatiques." Thesis, Perpignan, 2017. http://www.theses.fr/2017PERP0057/document.

Full text
Abstract:
Les épisodes de mortalité massive de l’huître creuse Crassostreae gigas observés sur les côtes françaises depuis 2008 ont été associés à certaines espèces appartenant au genre bactérien Vibrio. Ces mortalités, particulièrement intenses et rapides au cœur des lagunes méditerranéennes, atteignent 80 à 100% de la production ostréicole remettant ainsi en cause la pérennité de cette activité. Une surveillance environnementale de ces bactéries apparait donc essentielle et nécessite la mise au point de méthodes d’analyse innovantes, alternatives aux techniques couramment employées, afin de permettre un suivi rapide et en temps réel des Vibrio dans les milieux aquatiques côtiers.Dans ce contexte, l’objectif de cette thèse a été de concevoir des outils analytiques de type génocapteurs pour la détection et la quantification des Vibrio dans les écosystèmes aquatiques. Dans un premier temps, un système basé sur un format d’hybridation « sandwich » reposant sur l’intercalation des acides nucléiques cibles entre une sonde capture immobilisée et une sonde signal marquée, couplé à une détection optique, a été élaboré. Après optimisation des conditions expérimentales, le test développé s’est avéré très sensible avec une limite de détection de 5 ng.µL-1 d’acides nucléiques, ainsi qu’hautement spécifique du genre Vibrio. La méthode a ensuite été appliquée avec succès à la détection des Vibrio dans des échantillons environnementaux, collectés dans la lagune de Salses-Leucate. Un second format d’hybridation, basé sur la compétition entre les acides nucléiques cibles et la sonde capture pour la sonde signal, a ensuite été envisagé en utilisant aussi bien une transduction optique qu’électrochimique. En parallèle, des méthodes de PCR quantitative en temps réel ont été mises au point afin de servir de références pour la validation des génocapteurs
Mass mortality events affecting the Pacific oyster Crassostreae gigas on French coasts since 2008 have been associated to some Vibrio species. These mortalities, particularly severe and sudden in the mediterranean lagoons, can reach 80 to 100% of the oyster production threatening the sustainability of this activity. An environmental monitoring of these bacteria appears essential and, for this purpose, innovative analytical methods have to be developed as alternative to classical techniques, in order to allow the rapid and in real time monitoring of Vibrio in the coastal aquatic environments. In this context, the objective of the thesis was to design genosensors as analytical tools for Vibrio detection and quantification in aquatic ecosystems. In a first step, a system based on a « sandwich » hybridization format, in which nucleic acid targets were bound between an immobilized capture probe and a labeled signal probe, coupled with an optical detection method, was developed. After experimental condition optimization, the test showed high sensitivity with a limit of detection of 5 ng.µL-1 of nucleic acids and was highly specific to Vibrio spp. The method was then successfully applied to Vibrio detection in environmental samples collected in Salses-Leucate lagoon. A second hybridization format, based on a competition between the targeted nucleic acids and the capture probe for the signal probe has been considered using both optical and electrochemical transductions. Concurrently with the development of genosensors, quantitative real-time PCR have been designed as reference methods
APA, Harvard, Vancouver, ISO, and other styles
39

Okonkwo, Onyinye. "Enhancement of thermophilic dark fermentative hydrogen production and the use of molecular biology methods for bioprocess monitoring." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2041.

Full text
Abstract:
Le but de cette thèse était d'améliorer la production thermophile d'hydrogène noir fermenté en utilisant des stratégies microbiennes (bioaugmentation et co-cultures synthétiques) et en améliorant la compréhension de la dynamique de la communauté microbienne, particulièrement dans des conditions de stress telles que des températures fluctuantes et des concentrations élevées du substrat. Afin d'étudier les effets des fluctuations soudaines et à court terme de la température, des cultures de lots incubées initialement à 55 °C (témoin) ont été soumises à des variations de température vers le bas (de 55 °C à 35 °C ou 45 °C) ou vers le haut (de 55 °C à 65 °C ou 75 °C) pendant 48 heures, puis à nouveau incubées à 55 °C pendant deux cycles consécutifs. Les résultats ont montré que des fluctuations soudaines et temporelles de la température à la hausse et à la baisse avaient un impact direct sur le rendement en hydrogène ainsi que sur la structure de la communauté microbienne. Afin d'améliorer la stabilité de la production d'hydrogène pendant les fluctuations de température et d'accélérer la récupération, le consortium microbien mixte subissant une période de fluctuation de température à la baisse ou à la hausse a été complété par une culture de mélange synthétique contenant des producteurs d'hydrogène bien connus. L'introduction de nouvelles espèces au consortium naturel a considérablement amélioré la production d'hydrogène tant pendant les variations qu'après celles-ci. Cependant, lorsque la bioaugmentation a été appliquée pendant la fluctuation de température, les micro-organismes utilisés pour l'augmentation ont été exposés à un stress thermique, ce qui a augmenté la capacité de production d'hydrogène. Cette étude a également étudié la dynamique entre les cultures pures et les co-cultures de producteurs d'hydrogène hautement spécialisés, Caldicellulosiruptor saccharolyticus et Thermotoga neapolitana. Le rendement en hydrogène le plus élevé (2,8 ± 0,1 mol H2 mol-1 glucose) a été obtenu avec une co-culture synthétique constituée de Caldicellulosiruptor saccharolyticus et Thermotoga neapolitana, qui a entraîné une augmentation de 3,3 ou 12% du rendement en hydrogène par rapport aux cultures pures respectivement de C. saccharolyticus et T. neapolitana. En outre, une méthode quantitative basée sur l'amplification en chaîne par polymérase (qPCR) a été mise au point pour surveiller la croissance et l'apport de T. neapolitana dans les co-cultures synthétiques. Avec cette méthode, il a été vérifié que T. neapolitana était un membre actif de la co-culture synthétique. L’effet de différentes concentrations de glucose alimentaire (de 5,6 à 111,0 mmol L-1) sur la production d'hydrogène a été étudié avec et sans augmentation de la culture avec T. neapolitana. Par rapport au témoin (sans T. neapolitana), la culture bioaugmentée a donné des rendements en hydrogène plus élevés dans presque toutes les concentrations étudiées, même si le rendement en hydrogène a diminué la concentration de glucose alimentaire a augmenté. La présence de T. neapolitana a également eu un impact significatif sur la distribution des métabolites par rapport au contrôle. En résumé, cette étude a montré que la production thermophile d'hydrogène foncé fermenté peut être améliorée en utilisant des co-cultures synthétiques ou la bioaugmentation. Le rendement en hydrogène le plus élevé dans cette étude a été obtenu avec la co-culture synthétique, bien qu'il faille considérer que les conditions d'incubation diffèrent de celles utilisées pour les cultures mixtes dans cette étude. L'utilisation de méthodes moléculaires telles que le qPCR et le séquençage à haut débit a également aidé à comprendre le rôle de certaines espèces dans les consortiums microbiens et a amélioré la compréhension de la dynamique des communautés microbiennes en situation de stress
The aim of this thesis was to enhance thermophilic dark fermentative hydrogen production by using microbial strategies (bioaugmentation and synthetic co-cultures) and by increasing the understanding on the microbial community dynamics especially during stress conditions such as fluctuating temperatures and elevated substrate concentrations. To study the effects of sudden short-term temperature fluctuations, batch cultures initially incubated at 55°C (control) were subjected to downward (from 55°C to 35°C or 45°C) or upward (from 55°C to 65°C or 75°C) temperature shifts for 48 hours after which they were incubated again at 55°C for two consecutive batch cycles. The results showed that sudden, temporal upward and downward temperature fluctuations had a direct impact on the hydrogen yield as well as the microbial community structure. Cultures exposed to downward temperature fluctuation recovered more rapidly enabling almost similar hydrogen yield (92-96%) as the control culture kept at 55 °C. On the contrary, upward temperature shifts from 55 to 65 or 75 °C had more significant negative effect on dark fermentative hydrogen production as the yield remained significantly lower (54-79%) for the exposed cultures compared to the control culture. To improve the stability of hydrogen production during temperature fluctuations and to speed up the recovery, mixed microbial consortium undergoing a period of either downward or upward temperature fluctuation was augmented with a synthetic mix culture containing well-known hydrogen producers. The addition of new species into the native consortium significantly improved hydrogen production both during and after the fluctuations. However, when the bioaugmentation was applied during the temperature fluctuation, hydrogen production was enhanced. This study also investigated the dynamics between pure cultures and co-cultures of highly specialized hydrogen producers, Caldicellulosiruptor saccharolyticus and Thermotoga neapolitana. The highest hydrogen yield (2.8 ± 0.1 mol H2 mol-1 glucose) was obtained with a synthetic co-culture which resulted in a 3.3 or 12% increase in hydrogen yield when compared to pure cultures of C. saccharolyticus or T. neapolitana, respectively. Furthermore, quantitative polymerase chain reaction (qPCR) based method for monitoring the growth and contribution of T. neapolitana in synthetic co-cultures was developed. With this method, it was verified that T. neapolitana was an active member of the synthetic co-culture. The effect of different feed glucose concentrations (from 5.6 to 111.0 mmol L-1) on hydrogen production was investigated with and without augmenting the culture with T. neapolitana. Compared to the control (without T. neapolitana), bioaugmentated culture resulted in higher hydrogen yields in almost all the concentrations studied even though hydrogen yield decreased the feed glucose concentration was increased. The presence of T. neapolitana also had a significant impact on the metabolite distribution when compared to the control.In summary, this study showed that thermophilic dark fermentative hydrogen production can be enhanced by using synthetic co-cultures or bioaugmentation. The highest hydrogen yield in this study was obtained with the synthetic co-culture, although it should be considered that the incubation conditions differed from those used for the mixed cultures in this study. The use of molecular methods such as qPCR and high-throughput sequencing also helped to understand the role of certain species in the microbial consortia and improved the understanding of the microbial community dynamics during stress conditions
APA, Harvard, Vancouver, ISO, and other styles
40

Abdennadher, Mohamed Karim. "Étude et élaboration d’un système de surveillance et de maintenance prédictive pour les condensateurs et les batteries utilisés dans les Alimentations Sans Interruptions (ASI)." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10101/document.

Full text
Abstract:
Pour assurer une énergie électrique de qualité et de façon permanente, il existe des systèmes électroniques d’alimentation spécifiques. Il s’agit des Alimentations Sans Interruptions (ASI). Une ASI comme tout autre système peut tomber en panne ce qui peut entrainer une perte de redondance. Cette perte induit une maintenance corrective donc une forme d’indisponibilité ce qui représente un coût. Nous proposons dans cette thèse de travailler sur deux composants parmi les plus sensibles dans les ASI à savoir les condensateurs électrolytiques et les batteries au plomb. Dans une première phase, nous présentons, les systèmes de surveillance existants pour ces deux composants en soulignant leurs principaux inconvénients. Ceci nous permet de proposer le cahier des charges à mettre en œuvre. Pour les condensateurs électrolytiques, nous détaillons les différentes étapes de caractérisation et de vieillissement ainsi que la procédure expérimentale de vieillissement standard accéléré et les résultats associés. D’autre part, nous présentons les résultats de simulation du système de surveillance et de prédiction de pannes retenu. Nous abordons la validation expérimentale en décrivant le système développé. Nous détaillons les cartes électroniques conçues, les algorithmes mis en œuvre et leurs contraintes d’implémentation respectifs pour une réalisation temps réel. Enfin, pour les batteries au plomb étanches, nous présentons les résultats de simulation du système de surveillance retenu permettant d’obtenir le SOC et le SOH. Nous détaillons la procédure expérimentale de vieillissement en cycles de charge et décharge de la batterie nécessaire pour avoir un modèle électrique simple et précis. Nous expliquons les résultats expérimentaux de vieillissement pour finir avec des propositions d’amélioration de notre système afin d’obtenir un SOH plus précis
To ensure power quality and permanently, some electronic system supplies exist. These supplies are the Uninterrupted Power Supplies (UPS). An UPS like any other system may have some failures. This can be a cause of redundancy loss. This load loss causes a maintenance downtime which may represent a high cost. We propose in this thesis to work on two of the most sensitive components in the UPS namely electrolytic capacitors and lead acid batteries. In a first phase, we present the existing surveillance systems for these two components, highlighting their main drawbacks. This allows us to propose the specifications which have to be implemented for this system. For electrolytic capacitors, we detail different stages of characterization ; the aging accelerated standard experimental procedure and their associated results. On the other hand, we present the simulation results of monitoring and failure prediction system retained. We discuss the experimental validation, describing the developed system. We detail the electronic boards designed, implemented algorithms and their respective constraints for a real time implementation. Finally, for lead acid batteries, we present the simulation results of the monitoring system adopted to obtain the SOC and SOH. We describe the aging experimental procedure of charging and discharging cycles of the batteries needed to find a simple and accurate electric models. We explain the aging experimental results and in the end we give suggestions for improving our system to get a more accurate SOH
APA, Harvard, Vancouver, ISO, and other styles
41

Piatyszek, Éric. "Détection de dysfonctionnements en système hydrographique : application aux réseaux d'assainissement." ENSMP, 1998. http://www.theses.fr/1998ENMP0838.

Full text
Abstract:
Ce travail de recherche vise à développer des méthodes de détection et diagnostic appropriées et intégrables dans des systèmes soit d'aide à la décision dans le cadre de la gestion temps réel des réseaux d'assainissement, ou dans des procédures d'élaboration automatique de bilans quantitatifs de pollution légalement exigibles. Cette étude méthodologique débouche sur une synthèse et un approfondissement des techniques de détection et diagnostic de dysfonctionnements de réseau d'assainissement, et permet de dégager trois méthodes de détection reposant sur un modèle soit qualitatif soit analytique. L'une de ces méthodes s'applique à construire des comportements attendus du réseau synthétisés dans un modèle qualitatif dont la réponse est croisée avec les mesures. Les deux autres approches s'appuient sur un modèle hydrologique de transformation pluie-débit intégré dans un filtre de Kalman. La détection est alors réalisée soit avec un banc de filtres de Kalman complété par un test multi-hypothèses, soit avec un seul filtre de Kalman associé à un ensemble de tests d'hypothèses. Ces méthodes sont complétées par des analyses de sensibilité des procédures de détection et des exemples d'application pour des pluies de type différent. Enfin, une méthode de validation de mesures hydrauliques acquises en contexte hydrologique de temps sec est proposée. Elle s'appuie sur la création de scénarios de temps sec, comparés aux mesures hydrauliques grâce à des tests d'hypothèses. Cette approche permet alors d'identifier des contextes hydrologiques et hydrauliques caractérisant l'environnement d'un point de mesure
APA, Harvard, Vancouver, ISO, and other styles
42

Pagetti, Claire. "Extension temps réel d'AltaRica." Phd thesis, Ecole centrale de nantes - ECN, 2004. http://tel.archives-ouvertes.fr/tel-00006316.

Full text
Abstract:
Ce travail s'inscrit dans la continuité de l'étude du langage de description de systèmes AltaRica. Ce langage, développé au Labri, permet de modéliser des systèmes réels de manière hiérarchique. L'objectif de la thèse est d'introduire le temps quantitatif dans le but de concevoir des systèmes temps réel, c'est à dire des systèmes assujettis à des contraintes temporelles.
Deux extensions du langage sont proposées : une version temporisée et une hybride. Ces extensions respectent les caractéristiques du langage initial et conservent les aspects de hiérarchie, de synchronisation, de partage de variables et de priorité statique. En outre, afin d'améliorer les descriptions temps réel, de nouveaux opérateurs de modélisation, comme l'urgence et les priorités temporelles, ont été ajoutés. Nous obtenons ainsi un langage hiérarchique de haut niveau de modélisation de systèmes temps réel.
Une étude formelle complète a été menée sur la sémantique du langage, le pouvoir d'expression des langages AltaRica temps réel et des moyens de traductions automatiques vers des modèles classiques existants. Ces algorithmes reposent sur la notion de mise à plat de modèle, i.e. réécrire le modèle sans sous composant.
Enfin, le langage temporisé est implanté dans un prototype qui étant donné un modèle le met à plat puis le traduit en automate temporisé. Ainsi, certains systèmes réels ont pu être modélisés puis des propriétés ont été vérifiées à l'aide du model checker UPPAAL.
APA, Harvard, Vancouver, ISO, and other styles
43

Holländer, Matthias. "Synthèse géométrique temps réel." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0009/document.

Full text
Abstract:
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
APA, Harvard, Vancouver, ISO, and other styles
44

Muller, Steve. "Risk monitoring with intrusion detection for industrial control systems." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0082/document.

Full text
Abstract:
Les cyberattaques contre les infrastructures critiques telles que la distribution d'électricité, de gaz et d'eau ou les centrales électriques sont de plus en plus considérées comme une menace pertinente et réaliste pour la société européenne. Alors que des solutions éprouvées comme les applications antimalware, les systèmes de détection d'intrusion (IDS) et même les systèmes de prévention d'intrusion ou d'auto-cicatrisation ont été conçus pour des systèmes informatiques classiques, ces techniques n'ont été que partiellement adaptées au monde des systèmes de contrôle industriel. En conséquence, les organisations et les pays font recours à la gestion des risques pour comprendre les risques auxquels ils sont confrontés. La tendance actuelle est de combiner la gestion des risques avec la surveillance en temps réel pour permettre des réactions rapides en cas d'attaques. Cette thèse vise à fournir des techniques qui aident les responsables de la sécurité à passer d'une analyse de risque statique à une plateforme de surveillance des risques dynamique et en temps réel. La surveillance des risques comprend trois étapes, chacune étant traitée en détail dans cette thèse : la collecte d'informations sur les risques, la notification des événements de sécurité et, enfin, l'inclusion de ces informations en temps réel dans une analyse des risques. La première étape consiste à concevoir des agents qui détectent les incidents dans le système. Dans cette thèse, un système de détection d'intrusion est développé à cette fin, qui se concentre sur une menace persistante avancée (APT) qui cible particulièrement les infrastructures critiques. La deuxième étape consiste à traduire les informations techniques en notions de risque plus abstraites, qui peuvent ensuite être utilisées dans le cadre d'une analyse des risques. Dans la dernière étape, les informations collectées auprès des différentes sources sont corrélées de manière à obtenir le risque auquel l'ensemble du système est confronté. Les environnements industriels étant caractérisés par de nombreuses interdépendances, un modèle de dépendance est élaboré qui prend en compte les dépendances lors de l'estimation du risque
Cyber-attacks on critical infrastructure such as electricity, gas, and water distribution, or power plants, are more and more considered to be a relevant and realistic threat to the European society. Whereas mature solutions like anti-malwareapplications, intrusion detection systems (IDS) and even intrusion prevention or self-healing systems have been designed for classic computer systems, these techniques have only been partially adapted to the world of Industrial ControlSystems (ICS). As a consequence, organisations and nations fall back upon risk management to understand the risks that they are facing. Today's trend is to combine risk management with real-time monitoring to enable prompt reactions in case of attacks. This thesis aims at providing techniques that assist security managers in migrating from a static risk analysis to areal-time and dynamic risk monitoring platform. Risk monitoring encompasses three steps, each being addressed in detail in this thesis: the collection of risk-related information, the reporting of security events, and finally the inclusion of this real time information into a risk analysis. The first step consists in designing agents that detect incidents in the system. In this thesis, an intrusion detection system is developed to this end, which focuses on an advanced persistent threat (APT) that particularly targets critical infrastructures. The second step copes with the translation of the obtained technical information in more abstract notions of risk, which can then be used in the context of a risk analysis. In the final step, the information collected from the various sources is correlated so as to obtain the risk faced by the entire system. Since industrial environments are characterised by many interdependencies, a dependency model is elaborated which takes dependencies into account when the risk is estimated
APA, Harvard, Vancouver, ISO, and other styles
45

Benmounah, Nadir. "Rendu temps-réel d'objets translucides." Limoges, 2009. https://aurore.unilim.fr/theses/nxfile/default/e76da47c-c965-4fbf-bdb6-7a2831e78925/blobholder:0/2009LIMO4031.pdf.

Full text
Abstract:
La reproduction du réel dispose d'un intérêt croissant en synthèse d'images. La translucidité est un phénomène qui ajoute aux images reproduites, un réalisme certain. La simulation de l'absorption de la lumière par la matière a su profiter de l'abondance de la littérature scientifique, ainsi que des performances actuelles des cartes graphiques, afin de s'imposer comme une nouvelle branche de recherche en synthèse d'images. Dans cette thèse, nous décrivons deux méthodes de rendu temps-réel d'objets translucides. La première méthode autorise la déformation en temps-réel de ces objets, à l'aide d'atlas de textures flexibles. Dans la seconde, nous nous sommes intéressés à la porcelaine. Ce matériau doit sa notoriété à sa translucidité, et à sa blancheur. Le rendu de la porcelaine est effectué après une phase d'acquisition de ses propriétés optiques et l'introduction du modèle de Kubleka-Munk
The reproduction of nature in computer-added applications knows a significant revolution. Translucidity enhances the realism virtual images. Light absorption simulation has taken profits of the abundant scientific literature in physics and optics, and of the last advancements in graphics cards technologies, to establish itself as a new branch in image synthesis research. In the scope of this thesis, we describe two different methods in real-time rendering of translucent objects. The first method allows real-time deformation of these objects, by means of flexible texture atlases. In the second, we focused on porcelain. This material is famous for its translucidity and its whiteness. Porcelain rendering is achieved after the acquisition of its optical properties and the use of Kubelka-Munk model
APA, Harvard, Vancouver, ISO, and other styles
46

Ivol, Alexandre. "Le roman du temps réel." Paris 3, 2004. http://www.theses.fr/2004PA030011.

Full text
Abstract:
Notre travail se fonde sur un questionnement autour de la représentation de l'expérience temporelle dans l'œuvre de William Faulkner et de James Joyce. Pour cela, nous nous sommes concentrés exclusivement sur la technique du monologue intérieur qui permet à l'intériorité du personnage principal de s'approprier les enjeux et le déroulement du processus diégétique. Notre démonstration consiste à justifier l'idée selon laquelle l'utilisation du monologue intérieur change les données initiales du récit en imposant une temporalité qui n'est plus celle de la fiction, mais qui relève avant tout du temps réel, c'est-à-dire un temps sans ellipse, qui intègre tous les élements du réel objectif ( l'environnement du " héros " ) et subjectif ( ses pensées et ses sensations ). Cette révolution temporelle au sein du récit ( ébranlant la forme conventionnelle du roman naturaliste ) correspond selon nous à la définition la plus juste de ce que représente la modernité littéraire
Our work is based on the questionning about the way the experience of Time is represented in William Faulkner's and James Joyce's works. For this, we exclusively focused our attention on the stream of consciousness technique which allows the main character's inward thoughts to take over the narrative process as well as the issue at stake. Our demonstration consists in justifying the idea according to which the use of stream of consciousness changes the initial data of the narrative by imposing a time scale which has no longer anything to do with that of fiction, but which emanates from real Time, that is to say time without ellipsis, taking into account both elements of objective reality ( the hero's environment ) and of subjectivity ( his thoughts ans perceptions ). In our opinion, this temporal revolution in the heart of narrative ( which shakes the conventionnal form of the naturalist novel to its foundations ) corresponds to the true definition of what modernity represents in literary terms
APA, Harvard, Vancouver, ISO, and other styles
47

Cabral, Giordano. "Harmonisation automatique en temps réel." Paris 6, 2008. http://www.theses.fr/2008PA066236.

Full text
Abstract:
Le terme « système d’harmonisation automatique en temps réel » (HATR) désigne une application qui accompagne une mélodie possiblement improvisée, en trouvant une harmonie appropriée et en utilisant une rythmique fixe. Outre les contraintes de performance et de portée, le système et l’utilisateur peuvent s’influencer mutuellement. Ce type de système prend des éléments de l’accompagnement, la composition, et l’improvisation automatiques, et demeure un projet à défis par la complexité technique impliquée et par le manque de références solides dans la littérature scientifique. Dans cette thèse, nous proposons des extensions de techniques développées dans les dernières années dans le domaine de la récupération d’information musicale pour arriver à des solutions capables de travailler directement sur le signal acoustique. Une série d’expérimentations ont été réalisées et regroupées par cycle de développement afin d’identifier les principaux paramètres impliqués dans le développement d’un système de ce type. Cela nous a permis de construire plus que des applications isolées, mais un véritable framework de création de solutions pour l’HATR.
APA, Harvard, Vancouver, ISO, and other styles
48

Sarni, Toufik. "Vers une mémoire transactionnelle temps réel." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00750637.

Full text
Abstract:
Avec l'émergence des systèmes multicœurs, le concept de mémoire transactionnelle (TM) a été renouvelé à la fois dans le domaine de la recherche et dans le monde industriel. En effet, en supportant les propriétés ACI (Atomicité, Consistance et Isolation) des transactions, le concept de TM facilite la programmation parallèle et évite les problèmes liés aux verrous tels que les interblocages et l'inversion de priorité. De plus, contrairement aux méthodes basées sur les verrous, une TM permet à plusieurs transactions d'accéder en parallèle aux ressources, et augmente ainsi la bande passante du système. Enfin, une TM intègre un ordonnanceur de transactions qui, soit ré-exécute (retry) la transaction en cas de détection de conflits, soit valide (commit) la transaction en cas de succès. L'objectif de cette thèse est d'étudier l'adaptation des TMs à des systèmes temps réel soft au sein desquels les processus doivent s'exécuter le plus souvent possible dans le respect de contraintes temporelles. Jusqu'à maintenant, l'ordonnancement de transactions temps réel au sein d'une TM n'a pas été étudié. Dans un premier temps, nous proposons une étude expérimentale comparative nous permettant de statuer sur l'adéquation des TMs aux systèmes temps réel multicœurs. Il s'agit en particulier d'évaluer si la variabilité du temps d'exécution des transactions est prohibitif à une utilisation dans un contexte temps réel lors de l'accès aux ressources partagées. Dans un second temps, nous introduisons un modèle transactionnel temps réel pour les TMs et nous décrivons la conception et l'implémentation d'une mémoire transactionnelle logicielle temps réel nommée RT-STM. Celle-ci intègre de nouveaux protocoles de synchronisation qui permettent de prioriser les accès aux ressources partagées en fonction de l'urgence des processus. Enfin, nous montrons comment adapter notre RT-STM à un environnement temps réel firm en proposant quelques pistes d'adaptation permettant de garantir aux processus un certain niveau de qualité de service (QoS) vis-à-vis des accès aux ressources partagées.
APA, Harvard, Vancouver, ISO, and other styles
49

Salem, Habermehl Rym. "Répartition de programmes synchrones temps réel." Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004703.

Full text
Abstract:
La programmation synchrone est utilisée pour faciliter la description des systèmes réactifs, devant réagir de façon continue avec leur environnement physique. Ces systèmes sont souvent répartis, pour des raisons d'implantation physique ou de tolérance aux fautes. D'autre part, de tels systèmes sont aussi critiques et temps-réel. Le but de ce travail est d'étudier des méthodologies d'implantation de tels systèmes sur des réseaux de calculateurs. Nous montrons comment l'application de la programmation synchrone pose des problèmes de robustesse pour la programmation de tels systèmes en raison de la non correspondance du temps logique au temps réel. Nous étudions la robustesse dans divers cas: systèmes continus et systèmes discrets. En particulier nous fournissons des outils de simulation pour des architectures réparties quasi-synchrones et des outils de vérification de la robustesse. Nous proposons aussi un protocole de synchronisation dans les cas de systèmes non robustes. Nous proposons enfin une approche de tolérance aux fautes pour les systèmes répartis quasi-synchrones.
APA, Harvard, Vancouver, ISO, and other styles
50

Maxim, Dorin. "Analyse probabiliste des systèmes temps réel." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00923006.

Full text
Abstract:
Les systèmes embarqués temps réel critiques intègrent des architectures complexes qui évoluent constamment a n d'intégrer des nouvelles fonctionnalités requises par les utilisateurs naux des systèmes (automobile, avionique, ferroviaire, etc.). Ces nouvelles architectures ont un impact direct sur la variabilité du comportement temporel des systèmes temps réel. Cette variabilité entraîne un sur-approvisionnement important si la conception du système est uniquement basée sur le raisonnement pire cas. Approches probabilistes proposent des solutions basées sur la probabilité d'occurrence des valeurs les plus défavorables a n d'éviter le sur-approvisionnement, tout en satisfaisant les contraintes temps réel. Les principaux objectifs de ce travail sont de proposer des nouvelles techniques d'analyse des systèmes temps réel probabilistes et des moyens de diminuer la complexité de ces analyses, ainsi que de proposer des algorithmes optimaux d'ordonnancement á priorité xe pour les systèmes avec des temps d'exécution décrits par des variables aléatoires. Les résultats que nous présentons dans ce travail ont été prouvés surs et á utiliser pour les systèmes temps réel durs, qui sont l'objet principal de notre travail. Notre analyse des systèmes avec plusieurs paramètres probabilistes a été démontrée considérablement moins pessimiste que d'autres types d'analyses. Cette analyse combinée avec des algorithmes d'ordonnancement optimaux appropriées pour les systèmes temps réel probabilistes peut aider les concepteurs de systèmes á mieux apprécier la faisabilité d'un systéme, en particulier de ceux qui sont jugé irréalisable par des analyses/algorithmes d'ordonnancement déterministes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography