To see the other types of publications on this topic, follow the link: Système distribués.

Dissertations / Theses on the topic 'Système distribués'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Système distribués.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lavault, Christian. "Algorithmique et complexité distribuées : applications à quelques problèmes fondamentaux de complexité, protocoles distribués à consensus, information globale, problèmes distribués d'élection et de routage." Paris 11, 1987. http://www.theses.fr/1987PA112392.

Full text
Abstract:
Présentation d'un cadre général pour l'étude et l'analyse des algorithmes répartis et résolution de plusieurs problèmes de fond relatifs à la complexité dans les systèmes répartis. Développement de divers outils d'analyse en moyenne de la complexite en messages de protocoles généraux à consensus. Résolution par l'analyse mathématique d'un problème ouvert sur les performances comparées des anneaux uni et bidirectionnels pour la complexité en moyenne en messages d'algorithmes d'élection déterministes. Un algorithme probabiliste de construction d'un arbre couvrant sur un système distribué anonyme et quelconque est développé. Deux théorèmes sont proposés qui bornent la faille des messages en fonction de la complexite en messages des algorithmes distribués asynchrones du point de vue de la quantité d'information.
APA, Harvard, Vancouver, ISO, and other styles
2

Nazarpour, Hosein. "Surveillance de systèmes à composants multi-threads et distribués." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM027/document.

Full text
Abstract:
La conception à base de composants est le processus qui permet à partir d’exigences et un ensemble de composants prédéfinis d’aboutir à un système respectant les exigences. Les composants sont des blocs de construction encapsulant du comportement. Ils peuvent être composés afin de former des composants composites. Leur composition doit être rigoureusement définie de manière à pouvoir i) inférer le comportement des composants composites à partir de leurs constituants, ii) déduire des propriétés globales à partir des propriétés des composants individuels. Cependant, il est généralement impossible d’assurer ou de vérifier les propriétés souhaitées en utilisant des techniques de vérification statiques telles que la vérification de modèles ou l’analyse statique. Ceci est du au problème de l’explosion d’espace d’états et au fait que la propriété est souvent décidable uniquement avec de l’information disponible durant l’exécution (par exemple, provenant de l’utilisateur ou de l’environnement). La vérification à l’exécution (Runtime Verification) désigne les langages, les techniques, et les outils pour la vérification dynamique des exécutions des systèmes par rapport à des propriétés spécifiant formellement leur comportement. En vérification à l’exécution, une exécution du système vérifiée est analysée en utilisant une procédure de décision : un moniteur. Un moniteur peut être généré à partir d’une spécification écrite par l’utilisateur (par exemple une formule de logique temporelle, un automate) et a pour but de détecter les satisfactions ou les violations par rapport à la spécification. Généralement, le moniteur est une procédure de décision réalisant une analyse pas à pas de l’exécution capturée comme une séquence d’états du système, et produisant une séquence de verdicts (valeur de vérité prise dans un domaine de vérité) indiquant la satisfaction ou la violation de la spécification.Cette thèse s’intéresse au problème de la vérification de systèmes à composants multithread et distribués. Nous considérons un modèle général de la sémantique et système à composants avec interactions multi-parties: les composants intrinsèquement indépendants et leur interactions sont partitionées sur plusieurs ordonnanceurs. Dans ce contexte, il est possible d’obtenir des modèles avec différents degrés de parallelisme, des systèmes séquentiels, multi-thread, et distribués. Cependant, ni le modèle exact ni le comportement du système est connu. Ni le comportement des composants ni le comportement des ordonnanceurs est connu. Notre approche ne dépend pas du comportement exact des composants et des ordonnanceurs. En s’inspirant de la théorie du test de conformité, nous nommons cette hypothèse : l’hypothèse de monitoring. L’hypothèse de monitoring rend notre approche indépendante du comportement des composants et de la manière dont ce comportement est obtenu. Lorsque nous monitorons des composants concurrents, le problème qui se pose est celui de l’indisponibilité de l’état global à l’exécution. Une solution naïve à ce problème serait de brancher un moniteur qui forcerait le système à se synchroniser afin d’obtenir une séquence des états globaux à l’exécution. Une telle solution irait complètement à l’encontre du fait d’avoir des exécutions concurrentes et des systèmes distribués. Nous définissons deux approches pour le monitoring de système un composant multi-thread et distribués. Dans les deux approches, nous attachons des contrôleurs locaux aux ordonnanceurs pour obtenir des événements à partir des traces locales. Les événements locaux sont envoyés à un moniteur (observateur global) qui reconstruit l’ensemble des traces globale qui sont i) compatibles avec les traces locales et ii) adéquates pour le monitoring, tout en préservant la concurrence du système
Component-based design is the process leading from given requirements and a set of predefined components to a system meeting the requirements. Components are abstract building blocks encapsulating behavior. They can be composed in order to build composite components. Their composition should be rigorously defined so that it is possible to infer the behavior of composite components from the behavior of their constituents as well as global properties from the properties of individual components. It is, however, generally not possible to ensure or verify the desired property using static verification techniques such as model-checking or static analysis, either because of the state-space explosion problem or because the property can only be decided with information available at runtime (e.g., from the user or the environment). Runtime Verification (RV) is an umbrella term denoting the languages, techniques, and tools for the dynamic verification of system executions against formally-specified behavioral properties. In this context, a run of the system under scrutiny is analyzed using a decision procedure: a monitor. Generally, the monitor may be generated from a user-provided specification (e.g., a temporal-logic formula, an automaton), performs a step-by-step analysis of an execution captured as a sequence of system states, and produces a sequence of verdicts (truth-values taken from a truth-domain) indicating specification satisfaction or violation.This thesis addresses the problem of runtime monitoring multi-threaded and distributed component-based systems with multi-party interactions (CBSs). Although, neither the exact model nor the behavior of the system are known (black box system), the semantic of such CBSs can be modeled with labeled transition systems (LTSs). Inspiring from conformance testing theory, we refer to this as the monitoring hypothesis. Our monitoring hypothesis makes our approach oblivious of (i) the behavior of the CBSs, and (ii) how this behavior is obtained. We consider a general abstract semantic model of CBSs consisting of a set of intrinsically independent components whose interactions are managed by several schedulers. Using such an abstract model, one can obtain systems with different degrees of parallelism, such as sequential, multi-threaded and distributed systems. When monitoring concurrent (multi-threaded and distributed) CBSs, the problem that arises is that a global state of the system is not available at runtime, since the schedulers execute interactions even by knowing the partial state of the system. Moreover, in distributed systems the total ordering of the execution of the interaction is not observable. A naive solution to these problems would be to plug in a monitor which would however force the system to synchronize in order to obtain the sequence of global states as well as the total ordering of the executions at runtime Such a solution would defeat the whole purpose of having concurrent executions and distributed systems. We define two approaches for the monitoring of multi-threaded and distributed CBSs. In both approaches, we instrument the system to retrieve the local events of the schedulers. Local events are sent to an online monitor which reconstructs on-the-fly the set of global traces that are i) compatible with the local traces of the schedulers, and ii) suitable for monitoring purposes, in a concurrency-preserving fashion
APA, Harvard, Vancouver, ISO, and other styles
3

Morin, Christine. "Architectures et systèmes distribués tolérants aux fautes." Habilitation à diriger des recherches, Université Rennes 1, 1998. http://tel.archives-ouvertes.fr/tel-00434053.

Full text
Abstract:
Ce document présente les travaux de recherche que j'ai menés sur la problématique de la tolérance aux fautes dans les architectures et systèmes distribués entre 1987 et 1998. Comment concilier efficacité et tolérance aux fautes dans des systèmes construits à partir de composants standard tout en assurant la transparence de la tolérance aux fautes pour les applications ? Cette problématique a été abordée dans le contexte de la conception du système distribué Gothic, d'une architecture multiprocesseur à mémoire partagée tolérante aux fautes, d'une architecture multiprocesseur à mémoire partagée extensible (COMA) à haute disponibilité puis d'un système de mémoire partagée répartie. Le document présente ma démarche dans la conduite de ces travaux, les résultats obtenus et leur validation expérimentale.
APA, Harvard, Vancouver, ISO, and other styles
4

Kudireti, Abdurusul. "Clustering avec reconfigurations locales pour des systèmes distribués dynamiques." Thesis, Reims, 2011. http://www.theses.fr/2011REIMS030/document.

Full text
Abstract:
Nous proposons dans ces travaux des algorithmes distribués de clusterisation destinés à répondre à la problématique de la croissance des réseaux. Après avoir donné une spécification pour ce problème, nous fournissons un premier algorithme distribué à base de marches aléatoires pour le résoudre. Cet algorithme n’utilise que des informations locales, et utilise des marches aléatoires pour construire en parallèle des ensembles connexes de noeuds appelés les coeurs des clusters, auxquels on ajoute des noeuds adjacents. La taille de chaque coeur est comprise entre 2 et un paramètre de l’algorithme. L’algorithme garantit que si deux clusters sont adjacents, au moins l’un d’entre eux a un coeur de taille maximale. Un deuxième algorithme, adaptatif à la mobilité, garantit en plus de ces propriétés que la reconstruction consécutive à un changement topologique est locale. Cette propriété différencie notre solution des nombreuses solutions existantes : elle permet d’éviter des destructions en chaîne suite à un changement de topologie. Nous présentons enfin un algorithme de clustering auto-stabilisant qui conserve les propriétés des algorithmes précédents en y ajoutant la tolérance aux pannes. Grâce au parallélisme de la construction des clusters et au caractère local des reconstructions de clusters, ces algorithmes passent à l'échelle, ce qui est confirmé par les simulations que nous avons menées
We propose in this work distributed clustering algorithms designed to address the problem of growing networks. After giving a specification for this problem, we provide a first distributed algorithm based on random walks to solve it. This algorithm uses only local information,and uses random walks to build connected sets of nodes called cores of clusters in parallel, to which we add adjacent nodes. The size of each core is between 2 and a parameter of the algorithm. The algorithm guarantees that if two clusters are adjacent, at least one of them has a core of maximum size. A second, mobility-adaptive, algorithm ensures, besides those properties, that the reconfiguration following a topological change is local. This property differentiates our solution from many solutions : it avoids chain destruction following a topology change. Finally, we present a self-stabilizing clustering algorithm that preserves the properties of previous algorithms and adds fault tolerance. With the parallel construction of clusters and the local nature of the reconstruction of clusters, these algorithms guarantee the scabability, which is confirmed by simulations
APA, Harvard, Vancouver, ISO, and other styles
5

Ren, Xiangnan. "Traitement et raisonnement distribués des flux RDF." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1139/document.

Full text
Abstract:
Le traitement en temps réel des flux de données émanant des capteurs est devenu une tâche courante dans de nombreux scénarios industriels. Dans le contexte de l'Internet des objets (IoT), les données sont émises par des sources de flux hétérogènes, c'est-à-dire provenant de domaines et de modèles de données différents. Cela impose aux applications de l'IoT de gérer efficacement l'intégration de données à partir de ressources diverses. Le traitement des flux RDF est dès lors devenu un domaine de recherche important. Cette démarche basée sur des technologies du Web Sémantique supporte actuellement de nombreuses applications innovantes où les notions de temps réel et de raisonnement sont prépondérantes. La recherche présentée dans ce manuscrit s'attaque à ce type d'application. En particulier, elle a pour objectif de gérer efficacement les flux de données massifs entrants et à avoir des services avancés d’analyse de données, e.g., la détection d’anomalie. Cependant, un moteur de RDF Stream Processing (RSP) moderne doit prendre en compte les caractéristiques de volume et de vitesse rencontrées à l'ère du Big Data. Dans un projet industriel d'envergure, nous avons découvert qu'un moteur de traitement de flux disponible 24/7 est généralement confronté à un volume de données massives, avec des changements dynamiques de la structure des données et les caractéristiques de la charge du système. Pour résoudre ces problèmes, nous proposons Strider, un moteur de traitement de flux RDF distribué, hybride et adaptatif qui optimise le plan de requête logique selon l’état des flux de données. Strider a été conçu pour garantir d'importantes propriétés industrielles telles que l'évolutivité, la haute disponibilité, la tolérance aux pannes, le haut débit et une latence acceptable. Ces garanties sont obtenues en concevant l'architecture du moteur avec des composants actuellement incontournables du Big Data: Apache Spark et Apache Kafka. De plus, un nombre croissant de traitements exécutés sur des moteurs RSP nécessitent des mécanismes de raisonnement. Ils se traduisent généralement par un compromis entre le débit de données, la latence et le coût computationnel des inférences. Par conséquent, nous avons étendu Strider pour prendre en charge la capacité de raisonnement en temps réel avec un support d'expressivité d'ontologies en RDFS + (i.e., RDFS + owl:sameAs). Nous combinons Strider avec une approche de réécriture de requêtes pour SPARQL qui bénéficie d'un encodage intelligent pour les bases de connaissances. Le système est évalué selon différentes dimensions et sur plusieurs jeux de données, pour mettre en évidence ses performances. Enfin, nous avons exploré le raisonnement du flux RDF dans un contexte d'ontologies exprimés avec un fragment d'ASP (Answer Set Programming). La considération de cette problématique de recherche est principalement motivée par le fait que de plus en plus d'applications de streaming nécessitent des tâches de raisonnement plus expressives et complexes. Le défi principal consiste à gérer les dimensions de débit et de latence avec des méthologies efficaces. Les efforts récents dans ce domaine ne considèrent pas l'aspect de passage à l'échelle du système pour le raisonnement des flux. Ainsi, nous visons à explorer la capacité des systèmes distribuées modernes à traiter des requêtes d'inférence hautement expressive sur des flux de données volumineux. Nous considérons les requêtes exprimées dans un fragment positif de LARS (un cadre logique temporel basé sur Answer Set Programming) et proposons des solutions pour traiter ces requêtes, basées sur les deux principaux modèles d’exécution adoptés par les principaux systèmes distribuées: Bulk Synchronous Parallel (BSP) et Record-at-A-Time (RAT). Nous mettons en œuvre notre solution nommée BigSR et effectuons une série d’évaluations. Nos expériences montrent que BigSR atteint un débit élevé au-delà du million de triplets par seconde en utilisant un petit groupe de machines
Real-time processing of data streams emanating from sensors is becoming a common task in industrial scenarios. In an Internet of Things (IoT) context, data are emitted from heterogeneous stream sources, i.e., coming from different domains and data models. This requires that IoT applications efficiently handle data integration mechanisms. The processing of RDF data streams hence became an important research field. This trend enables a wide range of innovative applications where the real-time and reasoning aspects are pervasive. The key implementation goal of such application consists in efficiently handling massive incoming data streams and supporting advanced data analytics services like anomaly detection. However, a modern RSP engine has to address volume and velocity characteristics encountered in the Big Data era. In an on-going industrial project, we found out that a 24/7 available stream processing engine usually faces massive data volume, dynamically changing data structure and workload characteristics. These facts impact the engine's performance and reliability. To address these issues, we propose Strider, a hybrid adaptive distributed RDF Stream Processing engine that optimizes logical query plan according to the state of data streams. Strider has been designed to guarantee important industrial properties such as scalability, high availability, fault-tolerant, high throughput and acceptable latency. These guarantees are obtained by designing the engine's architecture with state-of-the-art Apache components such as Spark and Kafka. Moreover, an increasing number of processing jobs executed over RSP engines are requiring reasoning mechanisms. It usually comes at the cost of finding a trade-off between data throughput, latency and the computational cost of expressive inferences. Therefore, we extend Strider to support real-time RDFS+ (i.e., RDFS + owl:sameAs) reasoning capability. We combine Strider with a query rewriting approach for SPARQL that benefits from an intelligent encoding of knowledge base. The system is evaluated along different dimensions and over multiple datasets to emphasize its performance. Finally, we have stepped further to exploratory RDF stream reasoning with a fragment of Answer Set Programming. This part of our research work is mainly motivated by the fact that more and more streaming applications require more expressive and complex reasoning tasks. The main challenge is to cope with the large volume and high-velocity dimensions in a scalable and inference-enabled manner. Recent efforts in this area still missing the aspect of system scalability for stream reasoning. Thus, we aim to explore the ability of modern distributed computing frameworks to process highly expressive knowledge inference queries over Big Data streams. To do so, we consider queries expressed as a positive fragment of LARS (a temporal logic framework based on Answer Set Programming) and propose solutions to process such queries, based on the two main execution models adopted by major parallel and distributed execution frameworks: Bulk Synchronous Parallel (BSP) and Record-at-A-Time (RAT). We implement our solution named BigSR and conduct a series of evaluations. Our experiments show that BigSR achieves high throughput beyond million-triples per second using a rather small cluster of machines
APA, Harvard, Vancouver, ISO, and other styles
6

Kocik, Rémy. "Optimisation des systèmes distribués temps réel embarqués : application au prototypage rapide d'un véhicule électrique autonome." Rouen, 2000. http://www.theses.fr/2000ROUES021.

Full text
Abstract:
La méthodologie AAA (Adequation Algorithme Architecture) a été développée pour résoudre les problèmes de conception/réalisation optimisée d'applications complexes temps réel embarquées. Son but est d'implanter les algorithmes de contrôle-commande sur des architectures matérielles, qui, pour satisfaire de fortes contraintes de coût sont généralement distribuées et hétérogènes. Dans cette thèse, nous cherchons à valider et à améliorer cette méthodologie. Nous présentons dans la première partie les étapes qui, lors de la conception, permettent de transformer le modèle mathématique défini par l'automaticien en une spécification informatique permettant d'aboutir à la réalisation de l'application. Nous étudions les liens qui existent entre ces deux modèles afin de supprimer la rupture entre les phases de conception et de réalisation en vue de réduire le cycle de développement. Dans la deuxième partie nous cherchons à améliorer l'expressivité de la spécification, d'une part en fournissant la possibilité de décrire séparément les aspects contrôle (changement de modes) et les aspects commande (lois de commande, traitement du signal et des images) de l'application, et d'autre part en ajoutant la possibilité de décrire finement des contraintes temporelles multiples. La troisième partie traite de l'implantation optimisée d'une spécification comportant des contraintes temporelles multiples, alors que la méthodologie AAA ne prenait en compte qu'une seule contrainte auparavant. Dans la dernière partie, nous validons l'intérêt de la méthodologie AAA pour le prototypage rapide optimisé d'applications complexes à travers la réalisation d'un prototype de véhicule électrique autonome.
APA, Harvard, Vancouver, ISO, and other styles
7

Kharkovskaia, Tatiana. "Conception d'observateurs par intervalle pour les systèmes à paramètres distribués avec incertitudes." Thesis, Ecole centrale de Lille, 2019. http://www.theses.fr/2019ECLI0019.

Full text
Abstract:
Ce travail présente de nouveaux résultats sur l'estimation d'état par intervalle pour des systèmes distribués incertains, qui sont des systèmes de dimension infinie : leur état, fonctionnel, est régi par des équations aux dérivées partielles (EDP) ou fonctionnelles (EDF). Le principe de l'observation par intervalle est d’estimer à chaque instant un ensemble de valeurs admissibles pour l'état (un intervalle), de manière cohérente avec la sortie mesurée. Les chapitres 2 et 3 se concentrent sur la conception d'observateurs par intervalle pour une EDP parabolique avec des conditions aux limites de type Dirichlet. Dans le chapitre 2, on utilise une approximation en dimension finie (éléments finis de type Galerkin), l'intervalle d’inclusion tenant compte des erreurs de l'approximation. Le chapitre 3 présente un observateur par intervalle sous la forme d'EDP sans projection de Galerkin. Dans ces deux chapitres, les estimations par intervalle obtenues sont utilisées pour concevoir un contrôleur stabilisant par retour de sortie dynamique. Le chapitre 4 envisage le cas des systèmes différentiels fonctionnels (EDF) à retards, à travers une équation différentielle de deuxième ordre avec incertitudes. La méthode proposée contient deux observateurs par intervalle consécutifs : le premier calcule à chaque instant l'intervalle pour la position non retardée grâce à de nouvelles conditions de positivité dépendantes du retard. Le deuxième observateur calcule un intervalle pour la vitesse, grâce à une estimation de dérivée. Tous les résultats obtenus sont vérifiés par des simulations numériques. En particulier, le chapitre 2 inclut des expériences sur le modèle Black – Scholes
This work presents new results on interval state estimation for uncertain distributed systems, the state of which has an infinite dimension and is described by partial (PDEs) or (FDEs) functional differential equations. An interval observer evaluates at each time instant a set of admissible values for the state (an interval), consistently with the measured output. The design is based on the positive systems theory. Chapters 2 and 3 focus on an interval observer design for a parabolic PDE with Dirichlet boundary conditions. The method in Chapter 2 is based on a finite-element Galerkin approximation, the interval inclusion of the state is calculated using the error estimates of the approximation. Chapter 3 presents an interval observer in the form of PDEs without Galerkin projection. In both chapters, the obtained interval estimates are applied to the design of a dynamic output feedback stabilizing controller. Chapter 4 deals with a second-order delay differential equation with uncertainties corresponding, for instance, to a mechanical system with delayed position measurements, which has form of an FDE. The proposed method contains two consecutive interval observers. The first one estimates, at each instant of time, the interval for the delay-free position using new delay-dependent conditions on positivity. Then, derived estimates of the position are used to design the second observer providing an interval for the velocity. All the obtained results are supported by numerical simulations. In particular, Chapter 2 includes experiments on the Black–Scholes model
APA, Harvard, Vancouver, ISO, and other styles
8

Chera, Catalin-Marian. "Contribution à l'extension de l'approche énergétique à la représentation des systèmes à paramètres distribués." Phd thesis, Ecole Centrale de Lille, 2009. http://tel.archives-ouvertes.fr/tel-00578842.

Full text
Abstract:
Tout phénomène, qu'il soit biologique, géologique ou mécanique peut être décrit à l'aide de lois de la physique en termes d'équations différentielles, algébriques ou intégrales, mettant en relation différentes variables physiques. Les objectifs de la thèse sont de montrer comment les systèmes à paramètres distribués peuvent être modélisés par un modèle bond graph, qui est par nature un modèle à paramètres localisés. Deux approches sont possibles : - utiliser une technique d'approximation qui discrétise le modèle initialement sous forme d'équations aux dérivées partielles (EDP) dans le domaine spatial, en supposant que les phénomènes physiques distribués peuvent être considérés comme homogènes dans certaines parties de l'espace, donc localisés. - déterminer la solution des EDP qui dépend du temps et de l'espace, puis à approximer cette solution avec différents outils numériques. Le premier chapitre rappelle quelques méthodes classiques utilisées pour l'approximation des EDP et les modèles bond graphs correspondants.Dans le deuxième chapitre, l'approche port-Hamiltonienne est présentée et son extension aux systèmes à paramètres distribués est proposée. Dans le troisième chapitre, les principaux modèles utilisés pour la représentation des flux de trafic routier sont rappelés et mis en œuvre en simulation. Ceci conduit à des comparaisons, d'une part entre différentes méthodes de résolution numérique et d'autre part entre différents modèles. Dans le quatrième chapitre, une approche originale propose d'étendre la représentation bond graph issue de la méthodologie Computational Fluid Dynamics au flux de trafic, en utilisant un modèle EDP à deux équations proposé par Jiang
APA, Harvard, Vancouver, ISO, and other styles
9

Adzakpa, Pelope. "MAINTENANCE DES SYSTÈMES DISTRIBUÉS : MÉTHODES D'AIDE À LA DÉCISION TEMPS-RÉEL." Phd thesis, Université de Technologie de Troyes, 2004. http://tel.archives-ouvertes.fr/tel-00371543.

Full text
Abstract:
Au cours de ces dernières décennies, les systèmes technologiques ont beaucoup évolué. Dans le même temps, leurs installations sont de plus en plus distribuées sur plusieurs sites. Ceci conduit à la résolution de problèmes logistiques lors des prises de décision en vue d'actions de maintenance qui exigent par ailleurs des approches coopératives dans un contexte de gestion à distance. Dans ce travail, nous étudions des méthodes d'aides à la décision temps-réel pour la maintenance des systèmes multi-sites distribués dans un environnement à ressources partagées, avec des contraintes logistiques non négligeables entre les différents sites. Les exigences sont de planifier et d'ordonnancer les tâches de maintenance, de les affecter en temps-réel aux ressources de maintenance disponibles, tout en minimisant les coûts inhérents au fonctionnement et en maîtrisant les délais d'intervention des ressources. Les coûts sont relatifs notamment au fonctionnement en état dégradé (état critique), aux fréquences trop élevées ou au déficit de maintenance. Ils dépendent aussi de combinaisons linéaires ou convexes d'ensemble de paramètres tels que les temps de réponse (temps de séjour), les retards et avances ainsi que des facteurs de pondération des tâches de maintenance. Les coûts sont également fonction de la disponibilité, cette dernière étant révélatrice des dégradations des entités constituant le système. Pour satisfaire ces exigences, différents problèmes doivent être résolus dans le but de maintenir la disponibilité du système au dessus d'une limite minimale, de minimiser le coût des opérations de maintenance et d'affecter en temps-réel les tâches aux ressources de maintenance, le tout dans un processus optimal de décision. Ce processus doit tenir compte de différentes contraintes : dates d'arrivée inégales des tâches, temps logistiques non négligeables entre les sites, séquences optimales des tâches d'une intervention, précédences entre les tâches d'une même entité et critères de priorité et d'urgence de chaque tâche. Dans cette démarche, les caractéristiques et lois de comportement en fiabilité et en maintenabilité, et les sollicitations d'intervention sur les entités sont connues. Pour résoudre ces problèmes, nous proposons une approche mettant en oeuvre des méthodes d'ordonnancement d'activités (tâches ou actions) de maintenance basées sur des règles de priorité dont nous montrons l'optimalité locale (par rapport au temps) dans ce document. Partant d'une ressource de maintenance, ces règles de décision s'inspirent des principes d'ordonnancement sur une seule machine. Elles sont utilisées dans des algorithmes d'aide à la décision en temps-réel pour la planification dynamique des tâches de maintenance des systèmes distribués. Aux solutions fournies par la plupart de ces règles nous avons déterminé des bornes inférieures. Nous avons structuré ce document en six chapitres dont le premier introduit de façon générale la maintenance et ses différentes pratiques dans les entreprises. Le chapitre 2 propose une analyse de l'état de l'art des travaux de recherche scientifique dans le domaine de la gestion des activités de maintenance. Ensuite, dans le chapitre 3, des approches de résolution des problèmes relatifs aux coûts des états critiques du système sont proposées. Le chapitre 4 traite alors les différents problèmes relatifs aux contraintes de délais sur les opérations de maintenance induisant notamment des coûts combinés liés aux états critiques et aux retards d'intervention d'une part, et des coûts dus aux avances ou retards des tâches d'autre part. Il apparut alors nécessaire d'étudier la robustesse des performances des approches proposées dans les chapitres 3 et 4 en environnements incertains. Cette étude fût donc réalisée dans le chapitre 5 par des simulations Monte Carlo de la maintenance à partir des données d'un système réel soumis à des aléas de défaillance appelant des actions correctives. Enfin, de l'ensemble des investigations menées dans ce travail furent tirées les principales conclusions et les perspectives proposées dans le chapitre 6.
APA, Harvard, Vancouver, ISO, and other styles
10

Li, Xiaodong. "Observation et commande de quelques systèmes à paramètres distribués." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00456850.

Full text
Abstract:
L'objectif principal de cette thèse consiste à étudier plusieurs thématiques : l'étude de l'observation et la commande d'un système de structure flexible et l'étude de la stabilité asymptotique d'un système d'échangeurs thermiques. Ce travail s'inscrit dans le domaine du contrôle des systèmes décrits par des équations aux dérivées partielles (EDP). On s'intéresse au système du corps-poutre en rotation dont la dynamique est physiquement non mesurable. On présente un observateur du type Luenberger de dimension infinie exponentiellement convergent afin d'estimer les variables d'état. L'observateur est valable pour une vitesse angulaire en temps variant autour d'une constante. La vitesse de convergence de l'observateur peut être accélérée en tenant compte d'une seconde étape de conception. La contribution principale de ce travail consiste à construire un simulateur fiable basé sur la méthode des éléments finis. Une étude numérique est effectuée pour le système avec la vitesse angulaire constante ou variante en fonction du temps. L'influence du choix de gain est examinée sur la vitesse de convergence de l'observateur. La robustesse de l'observateur est testée face à la mesure corrompue par du bruit. En mettant en cascade notre observateur et une loi de commande stabilisante par retour d'état, on souhaite obtenir une stabilisation globale du système. Des résultats numériques pertinents permettent de conjecturer la stabilité asymptotique du système en boucle fermée. Dans la seconde partie, l'étude est effectuée sur la stabilité exponentielle des systèmes d'échangeurs thermiques avec diffusion et sans diffusion. On établit la stabilité exponentielle du modèle avec diffusion dans un espace de Banach. Le taux de décroissance optimal du système est calculé pour le modèle avec diffusion. On prouve la stabilité exponentielle dans l'espace Lp pour le modèle sans diffusion. Le taux de décroissance n'est pas encore explicité dans ce dernier cas.
APA, Harvard, Vancouver, ISO, and other styles
11

Réveillère, Laurent. "Développement de systèmes distribués efficaces: une approche fondée sur les langages métiers." Habilitation à diriger des recherches, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00814406.

Full text
Abstract:
Au cours des dernières années, de nombreux systèmes distribués ont évolué pour faire face à la convergence de leur domaine et des réseaux informatiques. À titre d'exemple, la téléphonie sur Internet a révolutionné le domaine des télécommunications par l'introduction de nombreux nouveaux services basés sur des services Web et bases de données. Les systèmes distribués qui fournissent des services avancés doivent être efficaces pour être en mesure de traiter un grand nombre d'utilisateurs et doivent être robustes pour faire face à diverses attaques ciblant le service lui-même ou la plate-forme sous-jacente. Cependant, le développement de systèmes distribués efficace et robuste exige une connaissance approfondie des protocoles utilisés et une certaine maîtrise de la programmation réseau et système bas niveau, ce qui peut être un défi pour de nombreux développeurs. Néanmoins, le processus de développement des systèmes distribués demeure rudimentaire et requiert un haut niveau d'expertise bas niveau. Dans cette thèse, nous montrons que les langages métiers (DSL) peuvent réduire avec succès le niveau d'expertise nécessaire pour construire des systèmes distribués efficace et robuste, ce qui rend la programmation de service à portée de développeurs moyens. Nous présentons trois contributions dans ce domaine. Notre première contribution vise la création de services de téléphonie basés sur le protocole SIP. Nous avons défini une machine virtuelle spécifique au domaine SIP et un DSL nommé SPL, offrant au programmeur des notations de haut niveau et des abstractions dédiées pour le développement de services de téléphonie. La robustesse de SPL a été un facteur clé dans l'accélération du déploiement de service. Une variété de services ont été écrits en SPL, ce qui démontre l'utilité et la facilité de programmation du langage. Notre deuxième contribution est Zébu, une approche basée sur les DSL pour le développement des couches de traitement protocolaires des applications réseau. Nous avons démontré, à travers diverses expériences, que cette approche est une alternative fiable pour le développement manuel des couches de traitement protocolaires. Le code généré par Zébu a de bonnes performances et a une empreinte mémoire nettement inférieur à des solutions existantes codées manuellement, tout en garantissant les propriétés de robustesse et de performance. La troisième contribution de cette thèse est z2z, une approche générative à la construction de passerelles qui permet la communication entre des appareils qui utilisent des protocoles incompatibles. Z2z inclus un compilateur qui vérifie des propriétés de correction et un support d'exécution qui masque les détails bas niveau au développeur de la passerelle. Nous avons utilisé z2z pour générer automatiquement des passerelles entre différents protocoles incompatibles. Les passerelles générées fonctionnent avec une faible empreinte mémoire et pratiquement sans aucun surcoût à l'exécution.
APA, Harvard, Vancouver, ISO, and other styles
12

Terrand-Jeanne, Alexandre. "Régulation des systèmes à paramètres distribués : application au forage." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1283/document.

Full text
Abstract:
Ce travail porte sur la régulation de la sortie des systèmes aux paramètres distribués. Pour ce faire, un simple contrôleur proportionnel intégral est utilisé, puis la stabilité du système en boucle fermée est démontrée à l'aide d'une fonction de Lyapunov. La principale contribution de ce travail est la construction d'un nouveau type de fonction de Lyapunov qui s'inspire d'une méthode bien connue dans le cadre des systèmes non-linéaires : le forwarding.Dans une première partie, le système est établi avec des opérateurs dont les propriétés sont données dans le cadre des semigroupes, puis la problématique de la régulation par contrôleur P-I est posé. Grâce à cette construction de Lyapunov, on peut répondre à cette problématique sous certaines hypothèses. Le lien est alors fait avec les résultats existants dans ce contexte. Dans la seconde partie, la problématique de la régulation est posée pour un système composé de n × n équations hyperboliques linéaires où l'entrée et la sortie se situent sur les conditions aux frontières des EDPs. Sous certaines hypothèses, le résultat permet de réguler n'importe quel vecteur de sortie composé linéairement des conditions aux frontières du système. Cela généralise de nombreux travaux portant sur les systèmes composés d'équations hyperboliques et l'utilisation de contrôleur P-I. Enfin dans le dernier chapitre, les vibrations mécaniques dans les tiges de forage sont étudiées comme cas d'application. Dans un premier temps, le comportement de solutions issues de différents modèles utilisés pour l'étude de ces déformations est détaillé. Dans un second temps, il est montré que la nouvelle fonctionnelle de Lyapunov permet de prendre en compte des modèles plus complexes et d'obtenir la régulation de la vitesse de la tige au fond du forage en ne mesurant que la vitesse en haut du puits. A la fin du chapitre, de nombreuses simulations numériques viennent illustrer nos résultats théoriques
This monograph is devoted to the output regulation of some distributed parameters systems. To reach this objective, a simply proportional integral controller is implemented. Then the stability of the closed loop is proved using a Lyapunov functional that can be built given a Lyapunov functional for the open-loop system. The main contribution of this work is the method to build the Lyapunov functional, it is inspired by a well-known method in non-linear system theory : the forwarding. In a first part, the system studied is an abstract Cauchy problem and the problematic is stated using semigroup theory. Thanks to the Lyapunov employed, the regulation can be guaranteed providing some assumption on the systems operators. The second part detailed how the output regulation can be obtain for all linear outputs when the system is a n × n systems of linear balance laws in one space dimension. The result is given in the case where inputs and outputs act on the PDE’s boundary conditions and for open-loop stabilizable system. It generalize many contribution in the topic of output regulation for systems of linear balance laws. Last but not least, a part is devoted to the study of mechanicals vibrations in a drill pipe. In a first time, the behavior of the solutions for different kind of models use to model the drill pipe is detailed. Then, it is shown that the new Lyapunov functional allow to take into account complex, infinite dimensional model and to regulate the drill pipe velocity at the bottom of the wellbore by only measuring the surface velocity and with a P-I controller. At the end, some simulations are given that illustrate the result
APA, Harvard, Vancouver, ISO, and other styles
13

Occello, Michel. "Blackboards distribués et parallèles : application au contrôle de systèmes dynamiques en robotique et en informatique musicale." Nice, 1993. http://www.theses.fr/1993NICE4627.

Full text
Abstract:
Le problème aborde dans cette thèse consiste en l'élaboration d'outils informatiques pour le contrôle intelligent de processus dynamiques, c'est-à-dire des systèmes intelligents temps réel. Ces outils doivent posséder des capacités de décision et d'assistance aux opérateurs, ils mettent en jeu de nombreux types d'expertise travaillant souvent en coopération. Dans le cadre de l'intelligence artificielle distribuée, le concept de blackboard peut être vu comme un cadre organisationnel basé sur le partage d'informations pour un système multi-agents. L'adéquation du concept de blackboard à la réalisation d'outils pour le contrôle est étudiée afin d'en dégager les avantages et les limites, de façon à construire un modèle satisfaisant aux contraintes du domaine. Une synthèse des études sur les systèmes blackboard dans le contrôle et sur le parallélisme dans ces systèmes montre que le problème est la construction d'une architecture répondant au besoin du temps réel. L'étude des opportunités de l'utilisation des blackboards pour le temps réel permet de dégager quelques recommandations. Ensuite, un modèle original de système blackboard parallèle temps réel pour le contrôle est présenté. Une représentation ensembliste du concept tel qu'il est interprète dans un contexte multi-agents a été choisie. La description des agents et des données partagées suffit à la spécification d'un tel système. La transparence d'un mécanisme de contrôle artificiel conduit à la généricité du contrôle. L'absence de modélisation formelle dans la théorie des blackboards et la généricité souhaitée pour l'architecture, motivent un essai de description des différents composants (agents et contrôle) à l'aide de réseaux de Petri. Un outil de développement base sur ce modèle est proposé. Enfin, cette thèse propose une décomposition des grandes fonctions du contrôle de processus dynamiques à l'aide de systèmes blackboards spécifiques. Trois applications valident le modèle et la décomposition basée sur des blackboards. Elles sont issues de l'informatique musicale, de la téléopération et de la robotique mobile
This thesis deals with the design of software tools for « intelligent » process control, i. E. Real time intelligent software. These tools need decision making and operator assistance capabilities. They involve many types of cooperating knowledge. In Distributed Artificial Intelligence, the blackboard concept can be viewed as a orgnisational framework for multi agent systems. The adaptation of the blackboard concept to the design of control tools is studied in order to show advantages and limits and to build a model according to the constraints of the domain. A synthesis of the studies on blackboard in existing control systems and on the use of parallelism in this system shows that the problem is the specification of an architecture able to meet real time constraints. Then, an original model of real time parallel blackboard is presented. A representation of the concept in this framework using mathematical sets is chosen. The specification of agents and shared data is sufficient to describe the system. A generic control unit is proposed. The components of the model are described using Petri nets. A development tool based on this model is presented. Finally, this thesis proposes a decomposition of the problem of process control based on specialized blackboards. Three applications valid the model and the decomposition. They deal with computer music robotics and teleoperation
APA, Harvard, Vancouver, ISO, and other styles
14

Benammar, Nassima. "Modélisation, évaluation et validation des systèmes temps réel distribués." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2282/document.

Full text
Abstract:
Dans cette thèse, nous analysons les réseaux des systèmes temps-réel distribués et plus particulièrement ceux des domaines de l’avionique et de l’automobile. Nous nous sommes focalisés sur deux protocoles : « Avionic Full DupleX Switched Ethernet » (AFDX), « Audio Vidéo Bridging Ethernet » (AVB). Dans ces domaines critiques, le déterminisme du réseau doit être garanti. Il consiste, notamment, en la détermination d’une borne garantie du délai de bout en bout de traversée du réseau pour chaque trame ; et un dimensionnement des files d’attente des trames suffisamment grand pour garantir qu’aucune d’entre elle ne débordera et ainsi, éviter toute perte de trame.Il existe plusieurs méthodes pour l’évaluation des délais et nous avons, principalement, travaillé sur la méthode « Forward end-to-end delay Analysis » (FA). FA avait déjà été définie avec la politique d’ordonnancement « First-In-First-Out » dans le contexte de l’AFDX. Nous sommes repartis de cette approche, nous l’avons reformulé et généralisé à n’importe quel réseau Ethernet commuté. Nous l’avons aussi étendu aux priorités statiques et au protocole AVB et sa politique de service « Credit Based Shaper ». Pour chaque contribution, des démonstrations formelles ont été présentées et une expérimentation incluant une comparaison de FA avec les principales approches d’évaluation sur un exemple industriel. Finalement, nous avons développé et démontré formellement une approche pour le dimensionnement des files d’attente en termes de nombre de trames. Cette approche a été expérimentée également sur une configuration industrielle
In this thesis, we analyze networks in the context of distributed real-time systems, especially in the fields of avionics, with “Avionics Full DupleX Switched Ethernet” (AFDX), and automobile, with “Audio Video Bridging Ethernet” (AVB). For such applications, network determinism needs to be guaranteed. It involves, in particular, assessing a guaranteed bound on the end-to-end traversal time across the network fr each frame; and dimensioning the buffers in order to avoid any loss of frame because of a buffer overflow.There are several methods for worst-case delay analysis, and we have mainly worked on the “Forward end-to-end Delay Analysis” (FA) method. FA had already been developed for “First-In-First-Out” scheduling policy in the AFDX context, so we generalized it to any Switched Ethernet network. We have also extended it to handle static priorities and the AVB protocol, shaping policy named “Credit Based Shaper” (CBS). Each contribution has been formaly proved and experiments have been led on industrial configurations. For our experimentations, we have compared our results with the results of competing approaches. Finally, we have developed and formally demonstrated an approach for buffer dimensioning in terms of number of frames. This approach has also been tested on an industrial configuration and has produced tight bounds
APA, Harvard, Vancouver, ISO, and other styles
15

Mechraoui, Amine. "Co-conception d'un système commandé en réseau sans fil à l'aide de réseaux bayésiens distribués." Grenoble INPG, 2010. http://www.theses.fr/2010INPG0147.

Full text
Abstract:
Cette thèse traite le problème de la co-conception des systèmes commandés à travers un réseau sans fil (WNCS). L'intégration du réseau sans fil (WN) dans la boucle de commande influence la Qualité de Contrôle (QoC) du système en terme de la Qualité de Service (QoS) du réseau sans fil. Nous présentons une approche de co-conception basée sur des réseaux bayésiens distribués. Cette approche permet de prendre des décisions pour assurer une bonne QoC pour le robot et aussi faire en sorte que la QoS soit toujours suffisante pour maintenir une bonne QoC. Maintenir une QoS suffisante dépend de la méthode d'ordonnancement utilisée et donc l'approche proposée vise également à déterminer une méthode d'ordonnancement pour maintenir les performances du système. Nous proposons dans nos travaux d'utiliser des robots unicycles mobiles (Khepera III) comme benchmark pour tester nos approches et comparer les résultats de simulation avec les résultats de l'expérimentation
This thesis deals with the problem of co-design of Wireless Networked Control systems (WNCS). The integration of the Wireless Network (WN) in the control loop influences the Quality of Control (QoC) of the system in terms of the Quality of Service (QoS) of the WN. We present a co-design approach for WNCS based on distributed Bayesian Network (BN). The proposed BN is constructed from the experimental data of the Khepera III robot. This approach allows to make decisions to ensure a good QoC for the robot and also ensure that the QoS is always sufficient to maintain a good QoC. Keeping a sufficient QoS depends on the scheduling method used and therefore the proposed approach aims also to determine the proper method of scheduling to keep the system's performance
APA, Harvard, Vancouver, ISO, and other styles
16

Azeli, Nourelhouda. "Maintenance prévisionnelle des systèmes de production géographiquement distribués sous ressources limitées." Electronic Thesis or Diss., Troyes, 2022. http://www.theses.fr/2022TROY0017.

Full text
Abstract:
Cette thèse aborde la problématique de l’aide à la décision de maintenance prévisionnelle pour des systèmes de production géographiquement dispersés (GDPS). La structure des GDPS représente un défi important pour l'établissement de stratégies de maintenance efficaces et des stratégies de maintenance prévisionnelle sont particulièrement adaptées. Cependant, la question de la disponibilité des ressources de maintenance doit être analysée et intégrée. Dans cette thèse, nous proposons trois politiques de maintenance prévisionnelles prenant en compte des ressources limitées de maintenance pour un GDPS dont les sites de production se dégradent graduellement. Les trois politiques proposées visent à optimiser un critère économique en sélectionnant l'ensemble de sites à maintenir. Les deux premières politiques s’appuient sur des données d’inspections périodiques. La première politique sélectionne pour la maintenance, la permutation des sites qui maximise la fiabilité du système après réparation, sans prise en compte des distances. La deuxième politique construit la tournée des sites à maintenir en tenant compte des ressources disponibles et des distances entre les sites. Enfin, la troisième politique est une politique dynamique. Elle se base sur des données de surveillance en temps réel des niveaux de dégradation pour adapter la tournée. Nous avons utilisé la simulation Monte Carlo pour évaluer le critère économique asymptotique. L’efficacité des politiques proposées est démontrée par comparaison avec des politiques plus classiques
This thesis addresses the problem of predictive maintenance decision making for geographically dispersed production systems (GDPS). The structure of GDPS represents an important challenge for the establishment of efficient maintenance strategies. Predictive maintenance strategies are particularly suitable. However, the issue of the availability of maintenance resources must be analyzed and integrated. In this thesis, we propose three predictive maintenance policies considering limited maintenance resources for a GDPS with gradually degrading production sites. The three proposed policies aim at optimizing an economic criterion by selecting the set of sites to be maintained. The first two policies are based on periodic inspection data. The first policy selects for maintenance, the permutation of sites that maximizes the reliability of the system after repair, without considering the distances. The second policy constructs the tour of sites to be maintained from the available resources and the distances between sites. Finally, the third policy is a dynamic policy. It relies on real-time monitoring data of degradation levels to adapt the tour. We used Monte Carlo simulation to evaluate the asymptotic economic criterion. The effectiveness of the proposed policies is demonstrated by comparison with more conventional policies
APA, Harvard, Vancouver, ISO, and other styles
17

Gallard, Pascal. "Conception d'un service de communication pour systèmes d'exploitation distribués pour grappes de calculateurs : mise en oeuvre dans le système à image unique Kerrighed." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00011152.

Full text
Abstract:
Dans la ligné des réseaux de stations de travail, les grappes de calculateurs représentent une alternative attrayante, en terme de performance et de coût, comparativement aux machines parallèles traditionnelles, pour l'exécution d'applications parallèles de calcul à haute performance. Une grappe de calculateurs est constituée d'un ensemble de noeuds interconnectés par un réseau dédié à haute performance. Les systèmes à image unique (Single System Image -- SSI) forment une classe de logiciel offrant aux utilisateurs et programmeurs d'une grappe de calculateurs, l'illusion d'une machine unique. Un SSI peut être conçu à différents niveaux (intergiciel, système d'exploitation) selon le degré d'exigence quant à la
réutilisation sans modification de modèles de programmation et d'applications existants. Dans notre contexte, les applications visées sont de type MPI ou OpenMP. Comme pour tout système distribué, le système d'interconnexion des noeuds de la grappe se trouve au coeur des performances globales de la grappe et des SSIs.

Les travaux présentés dans cette thèse portent sur la conception d'un système de communication dédié aux systèmes d'exploitation distribués pour grappes. Ces travaux s'inscrivent dans le cadre de la conception et la réalisation d'un SSI pour l'exécution d'applications haute performance sur grappe de calculateurs.

Notre première contribution se situe dans la conception d'un modèle de communication adapté aux communications internes aux services systèmes distribués qui constituent le SSI. En effet, de la performance des communications dépendent les performances globales de la grappe. Les transactions de communication permettent (i) de décrire un message lors de sa création, (ii) d'acheminer efficacement le message en
fontion des ressources disponibles, et (iii) de délivrer et traiter le
message au plus tôt sur le noeud destinataire.

Notre seconde contribution correspond à la conception d'un support au déplacement de processus communiquant par flux de données (socket, pipe, etc.). En effet, au sein d'un SSI, les processus peuvent être déplacés en cours d'exécution par un ordonnanceur global. Les flux dynamiques permettent le déplacement d'une extrémité de communication sans dégradation des performances.

Nos propositions ont été mises en oeuvre dans le prototype de SSI Kerrighed, conçu au sein du projet INRIA PARIS de l'IRISA. Ce prototype nous a permis d'évaluer le système de communication proposé. Nous avons montré une réactivité accrue des services systémes distribués ainsi qu'une absence de dégradation des performances des applications communiquant par messages (en particulier MPI) aprés déplacement d'un processus. L'ensemble de ce travail est distribué sous licence GPL en tant que partie de Kerrighed et est disponible à l'adresse: http://www.kerrighed.org.
APA, Harvard, Vancouver, ISO, and other styles
18

Caillet, Thibaut. "Contribution au Développement de Méthodologies de Modélisation des Couplages Distribués dans les Technologies de Report." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-01067427.

Full text
Abstract:
Cette thèse est une contribution au développement de méthodologies d'analyse et de modélisation des couplages distribués dans les technologies d'intégration et de report. Les méthodologies d'analyse proposées, formulées à partir de représentations en états propres des systèmes à modéliser, sont validées par application à des filtres multi-résonateurs. L'analyse de ces filtres multi-résonateurs, conçus avec les technologies BCB du LAAS, PICS de NXP et EPOXY de SUPAERO, montre l'importance d'inclure dans les modélisations électriques les effets de topologies et d'environnement souvent négligés dans les approches de synthèse conventionnelles. Par la compréhension et la paramétrisation des lois qui régissent la séparation fréquentielle des états propres d'un système, relativement aux topologies considérées, la méthodologie d'analyse proposée dans ces travaux pose des bases pour une systématisation de la synthèse des structures sélectives dans des contextes où l'influence des pertes doit être considérée dès la conception. L'analyse des distributions de champs électromagnétiques associées aux états propres des systèmes à modéliser permet une compréhension physique des réponses fréquentielles à synthétiser. La conception de structures filtrantes alliant les considérations de symétrie à la formulation en états propres a conduit à des performances de sélectivité et de rejection hors bande qui rendent attractives les technologies bas coût. Les méthodologies développées en aidant à la qualification des performances de technologies émergentes, par l'élaboration de facteurs de mérites indicateurs, conduit à des règles de conception pour des optimisations paramétrées.
APA, Harvard, Vancouver, ISO, and other styles
19

Barros, de Sales André. "Gestion de bout en bout de la qualité des services distribués : surveillance et sélection par une approche Modelware." Toulouse 3, 2004. http://www.theses.fr/2004TOU30075.

Full text
Abstract:
Nos travaux concourent à offrir une sélection de services publiés en milieu distribué basée sur des informations de qualité observées. Par une approche informationnelle, nous nous sommes donnés les moyens de modéliser les influences Réseaux et Systèmes afin d'en automatiser leur gestion (identification de dépendances, déduction automatique de changement d'état,. . . ). Notre architecture conduite par des modèles informationnels (Modelware) nous a permis d'élaborer une démarche de conception d'applications de gestion, dégageant une double indépendance : l'une vis-à-vis des domaines spécifiques à gérer et l'autre vis-à-vis des plates-formes de gestion. Nous avons conçu une surveillance intégrée et contextuelle de services couplée à un service de "sélection avancée", offrant ainsi une instrumentation en temps réel des paramètres de Qualité de Service - QS. Notre solution a été expérimentée pour l'environnement CORBA, mettant en exergue les étapes de spécialisation de notre solution " Modelware " vers un environnement spécifique à gérer. Nous avons doté le service de courtage de CORBA, d'informations de QS des services publiés
Our work contributes to offer a selection of published services in distributed systems based on monitored quality management information. From an informational approach, we had the means to model the influence of Systems and Networks so as to automate their management (identification of dependencies, automatic deduction of change of state etc. ). Our informational model driven architecture (Modelware) led us to specify a designing method for management applications, expressing a double independency: one in regard to specific managed domains and another in relation to management platforms. The integrated and contextual monitoring of service was linked to an "advanced selection of service" thus offering a real-time instrumentation of Quality of Service - QoS parameters. Our solution was tested for a CORBA environment, emphasizing our "Modelware" solution's specification steps towards a specific environment to be managed. This QoS information was added to the services published in the CORBA Trader service
APA, Harvard, Vancouver, ISO, and other styles
20

Dubus, Jérémy. "Une démarche orientée modèle pour le déploiement de systèmes en environnements ouverts distribués." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2008. http://tel.archives-ouvertes.fr/tel-00668936.

Full text
Abstract:
Le déploiement reste l'une des étapes du cycle de vie des logiciels la moins standardisée et outillée à ce jour. Dans ce travail, nous identifions quatre grands défis à relever pour dé- ployer des systèmes logiciels distribués et hétérogènes. Le premier défi est de réussir à initier le consensus manquant autour d'un langage générique de déploiement de logiciels. Le deuxième défi consiste en la vérification statique de déploiements logiciels décrits dans ce langage pour assurer un déroulement correct avant d'exécuter les opérations de déploiement. Le troisième défi est de réaliser une plate-forme intergicielle capable d'interpréter ce langage et d'effectuer le déploiement de n'importe quel système logiciel réparti. Enfin le quatrième défi est d'appli- quer ces déploiements de systèmes dans les environnements ouverts distribués, c'est-à-dire les réseaux fluctuants et à grande échelle comme les réseaux ubiquitaires ou les grilles de calcul. Notre contribution consiste à définir une démarche de déploiement de systèmes distribués cen- trée sur quatre rôles pour relever ces défis : l'expert réseau, l'expert logiciel, l'administrateur système et l'architecte métier. D'un côté, l'approche DeployWare, conforme à l'ingénierie des modèles, est définie par un méta-modèle multi-rôles pour décrire le déploiement de la couche intergicielle du système ainsi que par une machine virtuelle capable d'exécuter automatique- ment le déploiement de cette couche. L'utilisation d'un langage de méta-modélisation permet d'écrire des programmes de vérification statique des modèles de déploiement. De l'autre côté, l'approche DACAR propose un méta-modèle d'architecture générique pour exprimer et exé- cuter le déploiement d'une application métier à base de composants. Cette double approche DeployWare/DACAR permet de prendre en compte, lors de la description du déploiement, les propriétés des environnements ouverts distribués selon une approche conforme à l'informatique auto-gérée. Notre contribution est validée par plusieurs expériences pour valider la capacité de prise en charge des environnements ouverts ubiquitaires, et pour éprouver l'hétérogénéité des technologies déployables dans le monde des services d'entreprise.
APA, Harvard, Vancouver, ISO, and other styles
21

Sabbani, Imad. "Optimisation du trafic routier par des modèles distribués à base d'agents embarqués utilisant les technologies des objets connectés." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD023.

Full text
Abstract:
Dans cette thèse nous nous intéressons à l’étude et la résolution de problèmes d’optimisation dans le domaine du transport. Le problème fondamental est de déterminer le plus court chemin à effectuer à travers un ou plusieurs modes de transport d’un point A vers un point B. Au cours des deux dernières décennies, les chaines logistiques soulèvent un grand nombre de problèmes combinatoires avec des enjeux économiques et environnementaux importants à résoudre: problèmes d’ordonnancement, problèmes de tournées de véhicules, problème de routage de véhicules... Ce travail de recherche a pour objectif d’identifier et de lever certains verrous scientifiques sur la modélisation et l’optimisation de ces problèmes. Deux méthodes originales sont présentées dans ce manuscrit. Dans un premier temps, nous proposons un algorithme d’optimisation par méta-heuristiques, pour orienter les véhicules à prendre la bonne décision de choisir le parcours optimal et de favoriser la fluidité du trafic. La modélisation de notre système est basée sur une nouvelle architecture distribuée des systèmes multi-agents et un nouveau protocole de communication. Notre système se base sur une fonction multi-objective avec plusieurs paramètres (i.e. densité, vitesse, nombre de voiture, ...).Le recueil de ces données joue un rôle important afin de s’assurer de l’applicabilité et de l’efficacité de notre solution. Nous proposons un algorithme de réseaux de neurones convolutionels profonds afin d’obtenir l’état du trafic en temps réel. La deuxième partie de notre thèse s’intéresse à une nouvelle politique de mobilité exigée par la croissance de la taille des réseaux et les évolutions technologiques en transport: la plannification des chaînes d’activité quotidiennes dans un contexte multimodal. Le choix modal du transport consiste à utiliser successivement un ou plusieurs modes de transport. Nous proposons un algorithme de colonies de fourmis avec les fenêtres temporelles tout en adoptant un nouveau concept de flexibilité. L’introduction de cet aspect induit de nouveaux défis et de nouvelles contraintes auxquelles il faut répondre.Pour chaque problématique, des expériences sont réalisées afin d’évaluer la performance de nos approches de résolution sur des instances de littérature
In this thesis we present some models of optimization problems in transportation field; The fundamental problem is to define the shortest path bewteen two points through one or many modes of transport. Over the past two decades, logistics chains have raised a large number of combinatorial problems with important economic and environmental issues to be solved: scheduling problems, rooting vehicles, monitoring trafic ... Two original methods are presented in this thesis. First, we propose a meta-heuristic optimization algorithm, to guide the vehicles to make the right decision to choose the optimal route and to promote traffic fluidity. The modeling of our system is based on a new distributed architecture of multi-agent systems and a new communication protocol. Our system is based on a multi-objective function with several parameters (i.e. density, speed, number of cars, ...). The collection of this data plays an important role in ensuring the applicability and effectiveness of our solution.We propose a deep convolutional neural network algorithm to obtain real-time traffic status. The second part of our thesis focuses on a new policy of mobility required by the growth of network size and new high technological developments in transport : the planning of daily activity chains in a multimodal context. The modal choice of transport consists in successively using one or more modes of transport. We propose the ant colony algorithm with time windows involving a new concept of flexibility. The introduction of this aspect introduces new challenges and new constraints that must be resolved.For each problem, experiments are carried out in order to evaluate the performance of our approaches on literature instances. In particular, our algorithms have improved the results obtained by the best existing approaches
APA, Harvard, Vancouver, ISO, and other styles
22

Malvault, Willy. "Vers une architecture pair-à-pair pour l'informatique dans le nuage." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00633787.

Full text
Abstract:
Avec l'émergence de l'informatique dans les nuages, une nouvelle approche consiste à externaliser des tâches de calcul, de façon à réduire les coûts d'hébergement et à augmenter la flexibilité des systèmes. L'infrastructure actuelle des services permettant cette externalisation repose sur l'utilisation de centres de traitement de données centralisés, qui sont dédiés à l'approvisionnement de ressources de calcul. Dans cette thèse, nous étudions la possibilité de fournir de tels services en utilisant une infrastructure pair-à-pair, c'est-à-dire une infrastructure totalement décentralisée pouvant être déployée sur une fédération de noeuds de calcul hétérogénes et de provenances diverses. Nous nous focalisons sur le problème de l'allocation des noeuds et présentons Salute, un service d'allocation de noeuds, qui organise les noeuds en réseaux virtuels non-structurés et repose sur des mécanismes de prédiction de disponibilité pour assurer, avec une grande probabilité, que les requêtes d'allocation sont satisfaites dans le temps, malgré le dynamisme de l'environnement hôte. Pour ce faire, le service Salute repose sur la collaboration de plusieurs protocoles pair-à-pair appartenant à la catégorie des protocoles épidémiques. Afin de valider nos propositions, nous évaluons Salute en utilisant des traces provenant d'un échantillonnage de plusieurs systèmes pair-à-pair de référence.
APA, Harvard, Vancouver, ISO, and other styles
23

Chai, Anchen. "Simulation réaliste de l'exécution des applications déployées sur des systèmes distribués avec un focus sur l'amélioration de la gestion des fichiers." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI003/document.

Full text
Abstract:
La simulation est un outil puissant pour étudier les systèmes distribués. Elle permet aux chercheurs d’évaluer différents scénarios de manière reproductible, ce qui est impossible à travers des expériences réelles. Cependant, les simulations reposent souvent sur des modèles simplifiés, dont le réalisme est trop rarement étudié dans la littérature. Ceci mène à une pertinence et une applicabilité discutables des résultats obtenus. Dans ce contexte, l'objectif principal de notre travail est d'améliorer le réalisme de la simulation en mettant l'accent sur le transfert de fichiers dans un système distribué à large échelle, tel que l’infrastructure de production EGI. Le réalisme de la simulation est étudié ici au travers de deux aspects principaux : le simulateur et le modèle de plate-forme (l’infrastructure distribuée). Ensuite, à partir de simulations réalistes, nous proposons des recommandations fiables pour améliorer la gestion des fichiers à travers des portails scientifiques, tels que la plate-forme d'imagerie virtuelle (VIP). Afin de reproduire de manière réaliste les comportements du système réel en simulation, nous devons en obtenir une vue de l'intérieur. Par conséquent, nous recueillons et analysons un ensemble de traces d’exécutions d'une application particulière exécutée sur EGI via VIP. En plus des traces, nous identifions et examinons les composants du système réel à reproduire de manière réaliste en simulation. Il s’agit, par exemple, des algorithmes utilisés pour la sélection d’un réplica dans le système de production. Nous simulons ensuite ces composants en utilisant les mécanismes mis à disposition par SimGrid. Nous construisons, à partir des traces, un modèle de plate-forme réaliste essentiel à la simulation des transferts des fichiers. La précision de notre modèle de plate-forme est évaluée en confrontant les résultats de simulations avec la vérité terrain des transferts réels. Nous montrons que le modèle proposé surpasse largement le modèle issu de l’état de l’art pour reproduire la variabilité réelle des transferts de fichiers sur EGI. Ce modèle est ensuite enrichi pour permettre l’analyse de nouveaux scénarios, au-delà de la reproduction des traces d’exécution en production. Enfin, nous évaluons différentes stratégies de réplication de fichiers par simulation en utilisant deux modèles différents: un modèle issu de l’état de l’art amélioré et notre modèle de plate-forme construit à partir des traces. Les résultats de simulations montrent que les deux modèles conduisent à des décisions de réplication différentes, même s’ils reflètent une topologie de réseau hiérarchique similaire. Ceci montre que le réalisme du modèle de plateforme utilisé en simulation est essentiel pour produire des résultats pertinents et applicables aux systèmes réels
Simulation is a powerful tool to study distributed systems. It allows researchers to evaluate different scenarios in a reproducible manner, which is hardly possible in real experiments. However, the realism of simulations is rarely investigated in the literature, leading to a questionable accuracy of the simulated metrics. In this context, the main aim of our work is to improve the realism of simulations with a focus on file transfer in a large distributed production system (i.e., the EGI federated e-Infrastructure (EGI)). Then, based on the findings obtained from realistic simulations, we can propose reliable recommendations to improve file management in the Virtual Imaging Platform (VIP). In order to realistically reproduce certain behaviors of the real system in simulation, we need to obtain an inside view of it. Therefore, we collect and analyze a set of execution traces of one particular application executed on EGI via VIP. The realism of simulations is investigated with respect to two main aspects in this thesis: the simulator and the platform model. Based on the knowledge obtained from traces, we design and implement a simulator to provide a simulated environment as close as possible to the real execution conditions for file transfers on EGI. A complete description of a realistic platform model is also built by leveraging the information registered in traces. The accuracy of our platform model is evaluated by confronting the simulation results with the ground truth of real transfers. Our proposed model is shown to largely outperform the state-of-the-art model to reproduce the real-life variability of file transfers on EGI. Finally, we cross-evaluate different file replication strategies by simulations using an enhanced state-of-the-art model and our platform model built from traces. Simulation results highlight that the instantiation of the two models leads to different qualitative decisions of replication, even though they reflect a similar hierarchical network topology. Last but not least, we find that selecting sites hosting a large number of executed jobs to replicate files is a reliable recommendation to improve file management of VIP. In addition, adopting our proposed dynamic replication strategy can further reduce the duration of file transfers except for extreme cases (very poorly connected sites) that only our proposed platform model is able to capture
APA, Harvard, Vancouver, ISO, and other styles
24

Lecler, Philippe. "Une approche de la programmation des systèmes distribués fondée sur la fragmentation des données et des calculs et sa mise en oeuvre dans le système GOTHIC." Rennes 1, 1989. http://www.theses.fr/1989REN10103.

Full text
Abstract:
Presentation du langage polygoth. Les concepts d'objet fragmente et de multiprocedure, qui permettent d'exprimer la repartition des donnees et des calculs, sont etudies. Une partie est consacree a l'expression du paprallelisme dans les langages et plus particulierement dans les langages orientes objet. La dualite objet-processus est abordee. La semantique operationnelle de l'appel de multiprocedure est presentee
APA, Harvard, Vancouver, ISO, and other styles
25

Bresch-Pietri, Delphine. "Commande robuste de systèmes à retard variable : Contributions théoriques et applications au contrôle moteur." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00803271.

Full text
Abstract:
Cette thèse étudie la compensation robuste d'un retard de commande affectant un système dynamique. Pour répondre aux besoins du domaine applicatif du contrôle moteur, nous étudions d'un point de vue théorique des lois de contrôle par prédiction, dans les cas de retards incertains et de retards variables, et présentons des résultats de convergence asymptotique. Dans une première partie, nous proposons une méthodologie générale d'adaptation du retard, à même de traiter également d'autres incertitudes par une analyse de Lyapunov-Krasovskii. Cette analyse est obtenue grâce à une technique d'ajout de dérivateur récemment proposée dans la littérature et exploitant une modélisation du retard sous forme d'une équation à paramètres distribués. Dans une seconde partie, nous établissons des conditions sur les variations admissibles du retard assurant la stabilité du système boucle fermée. Nous nous intéressons tout particulièrement à une famille de retards dépendant de la commande (retard de transport). Des résultats de stabilité inspirés de l'ingalité Halanay sont utilisés pour formuler une condition de petit gain permettant une compensation robuste. Des exemples illustratifs ainsi que des résultats expérimentaux au banc moteur soulignent la compatibilité de ces lois de contrôle avec les impératifs du temps réel ainsi que les mérites de cette approche.
APA, Harvard, Vancouver, ISO, and other styles
26

Roche, Thomas. "Dimensionnement et intégration d'un chiffre symétrique dans le contexte d'un système d'information distribué de grande taille." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00452399.

Full text
Abstract:
L'évolution des architectures de systèmes d'information n'a de cesse depuis l'avènement des télécommunications. Pour s'adapter aux nouvelles dimensions en nombre d'utilisateurs et taille des données, les systèmes d'information modernes sont répartis et hétérogènes. Ce constat ouvre de nouveaux enjeux de sûreté de fonctionnement pour les systèmes d'information, il s'agit de garantir disponibilité, fiabilité, innocuité, confidentialité, intégrité et maintenabilité tout au long du cycle de vie du système. C'est dans ce contexte que cette thèse a été conduite, les fruits des travaux de recherche gravitent autour de plusieurs notions de la sûreté de fonctionnement : – La confidentialité et l'intégrité avec le design, l'implémentation et l'étude de robustesse des chiffres symétriques par bloc. Les chiffres DES, AES et CS-Cipher ont été étudiés dans un spectre large rassemblant les implémentations logicielles et matérielles et leurs performances, la maléabilité des structures de diffusion, la cryptographie conventionnelle et les attaques par canaux auxiliaires. – La fiabilité avec le développement d'algorithmes auto-tolérants aux fautes et la certification de résultats. Cette étude est dédiée aux systèmes distribués de calcul tels que les clusters, les grilles ou encore les réseaux pair-à-pairs utilisés pour des calculs d'algèbre linéaires.
APA, Harvard, Vancouver, ISO, and other styles
27

Ventresque, Anthony. "Espaces vectoriels sémantiques : enrichissement et interprétation de requêtes dans un système d'information distribué et hétérogène." Phd thesis, Université de Nantes, 2008. http://tel.archives-ouvertes.fr/tel-00457820.

Full text
Abstract:
Les systèmes d'information font face à un problème de pertinence dans les recherches dû à l'augmentation considérable des données accessibles. De plus, le nombre d'appareils communicants ne cesse de croître et de menacer le modèle client/serveur. Une nouvelle architecture distribuée tend donc à s'imposer : les réseaux pair-à-pair (P2P). Mais ils sont peu économes en ressource réseau (une requête inonde le réseau) et offrent des fonctionnalités limitées (recherche par mots-clés). Dans les deux communautés, RI et systèmes P2P, les recherches penchent vers l'utilisation de sémantique. En informatique, les approches basées sur la sémantique nécessitent souvent de définir des ontologies. Le développement important et distribué des ontologies génère une hétérogénéité sémantique. La solution classique est d'utiliser des correspondances entre parties de deux ontologies. Mais c'est une solution qui est difficile à obtenir et qui n'est pas toujours complète. Souvent les parties non-partagées de deux ontologies ne sont pas gérées, ce qui entraîne une perte d'information. Notre solution : EXSI2D, utilise une expansion particulière, appelée expansion structurante, du côté de l'initiateur de requêtes. Cela lui permet de préciser les dimensions de sa requête sans modifier la requête elle-même. EXSI2D offre aussi la possibilité au fournisseur d'information d'interpréter l'expansion structurante dans sa propre ontologie. Ainsi, il est possible à chaque participant d'un système d'information sémantiquement hétérogène d'utiliser toute son ontologie, y compris les parties non partagées. Nous montrons aussi l'utilisation d'EXSI2D dans un système P2P, grâce à SPARTANBFS, un protocole « frugal » pour systèmes P2P non structurés.
APA, Harvard, Vancouver, ISO, and other styles
28

Malvaut-Martiarena, Willy. "Vers une architecture pair-à-pair pour l'informatique dans le nuage." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENM044/document.

Full text
Abstract:
Avec l'émergence de l'informatique dans les nuages, une nouvelle approche consiste à externaliser des tâches de calcul, de façon à réduire les coûts d'hébergement et à augmenter la flexibilité des systèmes. L'infrastructure actuelle des services permettant cette externalisation repose sur l'utilisation de centres de traitement de données centralisés, qui sont dédiés à l'approvisionnement de ressources de calcul. Dans cette thèse, nous étudions la possibilité de fournir de tels services en utilisant une infrastructure pair-à-pair, c'est-à-dire une infrastructure totalement décentralisée pouvant être déployée sur une fédération de noeuds de calcul hétérogénes et de provenances diverses. Nous nous focalisons sur le problème de l'allocation des noeuds et présentons Salute, un service d'allocation de noeuds, qui organise les noeuds en réseaux virtuels non-structurés et repose sur des mécanismes de prédiction de disponibilité pour assurer, avec une grande probabilité, que les requêtes d'allocation sont satisfaites dans le temps, malgré le dynamisme de l'environnement hôte. Pour ce faire, le service Salute repose sur la collaboration de plusieurs protocoles pair-à-pair appartenant à la catégorie des protocoles épidémiques. Afin de valider nos propositions, nous évaluons Salute en utilisant des traces provenant d'un échantillonnage de plusieurs systèmes pair-à-pair de référence
With the emergence of Cloud computing, a new trend is to externalize computing tasks in order to decrease costs and increase flexibility. Current Cloud infrastructures rely on the usage of large-scale centralized data centers, for computing resources provisioning. In this thesis, we study the possibility to provide a peer-to-peer based Cloud infrastructure, which is totally decentralized and can be deployed on any computing nodes federation. We focus on the nodes allocation problem and present Salute, a nodes allocation service that organizes nodes in unstructured overlay networks and relies on mechanisms to predict node availability in order to ensure, with high probability, that allocation requests will be satisfied over time, and this despite churn. Salute's implementation relies on the collaboration of several peer-to-peer protocols belonging to the category of epidemic protocols. To convey our claims, we evaluate Salute using real traces
APA, Harvard, Vancouver, ISO, and other styles
29

Lemp, Sandra. "Médiation flexible dans un système pair-à-pair." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00464469.

Full text
Abstract:
Nous nous intéressons aux systèmes distribués d'information ouverts, mettant en oeuvre un grand nombre de sources d'informations autonomes et hétérogènes, tels que les systèmes pairs à pairs. Dans un tel contexte, un pair peut jouer à la fois le rôle d'initiateur de requêtes et celui de fournisseur d'informations. Le rôle du médiateur consiste à faire le lien entre initiateurs et fournisseurs, en allouant les requêtes qui lui sont confiées aux fournisseurs qui lui paraissent les plus pertinents. Les attentes des initiateurs et celles des fournisseurs peuvent être antagonistes : les premiers préférant des réponses pertinentes, les seconds privilégiant de traiter certains types de requêtes. Souvent, les médiateurs permettent de prendre en compte qu'un seul des deux points de vue. Cette thèse propose un mécanisme de médiation flexible qui permet de considérer les deux points de vue en même temps, de façon à assurer la satisfaction de tous les acteurs du système. D'un côté, les fournisseurs font des offres monétaires représentant leur intérêt pour la requête. De l'autre, les préférences des initiateurs pour les fournisseurs sont prises en compte au travers de la notion de qualité. Ces deux critères sont la base de la phase de sélection des fournisseurs de notre médiation. De plus, la médiation flexible propose la réquisition de fournisseurs lorsqu'ils ne veulent pas traiter une requête. Nous étudions notre médiation d'un point de vue théorique tout d'abord, en considérant des propriétés usuelles de microéconomie et en proposant une nouvelle définition pour prendre en compte la satisfaction à long terme des participants (initiateurs et fournisseurs). L'étude théorique est complétée par un ensemble de simulations dans différents contextes qui permettent de la comparer à d'autres mécanismes d'allocation de requêtes. Les résultats montrent que la médiation flexible assure généralement la satisfaction sur le long terme des participants et permettent de déterminer les conditions dans lesquelles il est préférable de l'utiliser.
APA, Harvard, Vancouver, ISO, and other styles
30

Petit, Mathieu. "Approche spatiale pour la caractérisation du contexte d'exécution d'un système d'information ubiquitaire." Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00511919.

Full text
Abstract:
Les nouvelles technologies en matière d'accès à l'information, de communication sans-fil et de localisation d'informations ouvrent la voie à des innovations majeures dans l'utilisation des systèmes informatiques. Ces avancées permettent d'imaginer de nouveaux usages informatiques dont la mise en œuvre motive le développement de méthodes de conception appropriées. Plus particulièrement, l'informatique mobile combine désormais des enjeux conceptuels tels que l'accès à des services par un utilisateur en mobilité, la généralisation d'outils de localisation, la compréhension de systèmes complexes par un public non-expert ou l'importante variabilité des situations d'exécution. Cette thèse propose un cadre de conception qui adresse certains des enjeux pour la mobilité des systèmes d'information. Dans cette perspective, les attentes des utilisateurs et les contraintes technologiques inhérentes à la mobilité des constituants du système définissent un espace contextuel dont les dimensions sont prises en compte dès les premières étapes de la conception. Le modèle proposé établit comme point d'entrée une description de l'espace géographique du système pour différencier un ensemble de contextes d'exécution. L'énoncé de ces contextes permet de corréler les attentes des utilisateurs avec les capacités techniques de la plate-forme et d'offrir le niveau fonctionnel le plus acceptable dans une situation donnée. Dans un second temps, les différentes fonctionnalités et les données mises en œuvre dans chaque contexte d'exécution peuvent être ordonnées ou filtrées afin d'optimiser la présentation des informations aux utilisateurs. Ces recommandations sont produites par l'analyse conjointe des préférences d'utilisateurs selon leurs interactions et leurs comportements spatiaux. Deux cadres expérimentaux viennent illustrer les propositions du modèle. La conception d'un système mobile de suivi de compétition nautique prend en compte différents contextes d'exécution et adapte un niveau de service à des situations dégradées. Un système de documentation et de visite de campus illustre les algorithmes de recommandation et affine la présentation d'informations localement à chaque contexte d'exécution.
APA, Harvard, Vancouver, ISO, and other styles
31

Nguyen, Gia Hien. "Fiabilité des réponses fournies par un réseau logique pair-à-pair." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10233.

Full text
Abstract:
Cette thèse contribue à l'amélioration de la fiabilité des réponses fournies par les systèmes pair-à-pair sémantiques de plusieurs façons. La première partie de la thèse a pour but de garantir de ne produire que des réponses bien-fondées quand le réseau global d'un tel système est inconsistant. Deux algorithmes ont été proposés. Le premier détecte des causes d'inconsistances. Il termine, est décentralisé, complet, correct. Le deuxième profite des résultats du premier pour garantir de ne raisonner que de manière bien-fondée. Il termine, est décentralisé, correct. Des résultats prometteurs ont été obtenus à partir des expérimentations. La seconde partie de la thèse considère le problème de modéliser la confiance des pairs en des réponses obtenues. Basé sur un modèle probabiliste, le modèle de confiance proposé a une sémantique claire et permet aux pairs d'estimer la confiance en des réponses obtenues avec une bonne précision même avec peu observations
This thesis improves the reliability of answers in semantic peer-to-peer networks in different ways. The first part of the thesis focuses on the problem of returning only well-founded answers of a query when the global network of such a system is inconsistent. Two algorithms have been proposed. The first one detects causes of inconsistencies. It terminates, is decentralized, complete and correct. The second algorithm uses the results of the first one in order to make only well-founded reasoning. It terminates, is decentralized and correct. Promising results have been obtained from experimentations. The second part of the thesis considers the problem of modeling and handling peers’ trust into returned answers. Based on a probabilistic setting, the proposed model of trust has a clear semantics and trust towards answers can be estimated by peers with a good precision using few observations
APA, Harvard, Vancouver, ISO, and other styles
32

Nguyen, Gia Hien. "Fiabilité des réponses fournies par un réseau logique pair-à-pair." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00342652.

Full text
Abstract:
Cette thèse contribue à l'amélioration de la fiabilité des réponses fournies par les systèmes pair-à-pair sémantiques de plusieurs façons. La première partie de la thèse a pour but de garantir de ne produire que des réponses bien-fondées quand le réseau global d'un tel système est inconsistant. Deux algorithmes ont été proposés. Le premier détecte des causes d'inconsistances. Il termine, est décentralisé, complet, correct. Le deuxième profite des résultats du premier pour garantir de ne raisonner que de manière bien-fondée. Il termine, est décentralisé, correct. Des résultats prometteurs ont été obtenus à partir des expérimentations. La seconde partie de la thèse considère le problème de modéliser la confiance des pairs en des réponses obtenues. Basé sur un modèle probabiliste, le modèle de confiance proposé a une sémantique claire et permet aux pairs d'estimer la confiance en des réponses obtenues avec une bonne précision même avec peu observations.
APA, Harvard, Vancouver, ISO, and other styles
33

Salhi, Miyassa. "Étude d’un système de surveillance de structure par fibre optique reposant sur l’effet Brillouin." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2031.

Full text
Abstract:
L’utilisation de capteurs distribués à fibres optiques délivrant une information en chaque point de la fibre constitue un outil majeur des stratégies de surveillance de structures à grande échelle en génie civil. Le phénomène de diffusion Brillouin spontanée (ou stimulée), dans le domaine des capteurs à fibres optiques, fait l’objet d’une forte investigation scientifique depuis les années 1990. Les solutions industrielles proposées reposent sur l’analyse spectrale de l’onde Stokes rétrodiffusée tout le long de la fibre. Ainsi, un dispositif B-OTDR (Brillouin Optical Time-Domain Reflectometer) peut réaliser une mesure du décalage de la fréquence Brillouin (de l’ordre de 11 GHz autour de 1.55 µm) avec une résolution spatiale métrique et une sensibilité des mesures de déformation et de température respectivement de l’ordre de 10 µm/m et 0.5°C, mais pour un coût élevé (de l’ordre de 100 k€), ce qui limite leur utilisation.Les travaux de cette thèse sont orientés vers l’étude d’un système de surveillance reposant sur l’utilisation d’une source optique bi-fréquence bi-polarisation, qui permettrait de remédier aux inconvénients des systèmes conventionnels et ayant des performances équivalentes avec les solutions à l’état de l’art
The use of distributed sensors fiber optic delivering information in each point of the fiber is an important tool for large-scale structures surveillance strategies in civil engineering. The spontaneous Brillouin scattering phenomenon (or stimulated) in the field of sensors optical fiber is subject to strong scientific inquiry since the 1990s. The proposed industrial solutions are based on the spectral analysis of the Stokes wavelength backscattered along the length of the fiber. Thus, a B-OTDR device (Brillouin Optical Time-Domain Reflectometer) can perform a measurement of the shift of the Brillouin frequency (of the order of 11GHz around 1.55 µm) with a metric spatial resolution and sensitivity of the strain measurements and temperature respectively of about 10 µm/m and 0.5 °C, but at a high cost (about 100k€) which limits their use. This thesis is oriented towards the study of a monitoring system based on the use of a bi-frequency bi-polarization source, which would make it possible to remedy the drawbacks of conventional systems and have equivalent performances with state of the art solutions
APA, Harvard, Vancouver, ISO, and other styles
34

Klein, Gilles. "Systèmes multiagents distribués et systèmes distribués multiagents." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090033.

Full text
Abstract:
Le domaine des Systèmes Multiagents (SMA) se place à l'intersection entre l'intelligence artificielle (IA), l'informatique distribuée et la programmation objet. Pour des raisons historiques, ils ne sont souvent considérés que du point de vue de l'IA, pourtant les concepteurs de SMA mettent souvent en avant la facilité avec laquelle le niveau d'encapsulation et l'autonomie des agents les rendent facilement distribuables. Nous montrons au cours de cette thèse que l'autonomie et l'encapsulation ne suffisent pas à rendre les SMA aisément distribuables, il faut aussi que les agents soient construits en suivant des règles et en représentant leurs différentes tâches de façon formelle. Nous tentons donc de répondre à la question : " comment faire d'un système multiagent un véritable système distribué ? " Considérer les SMA du point de vue de l'informatique distribuée permet de plus d'envisager d'autres applications pour les systèmes multiagents. L'encapsulation et l'autonomie des agents permet de construire des applications partagées entre plusieurs utilisateurs n'ayant pas nécessairement les mêmes buts, comme par exemple est outils de partage de ressources peer-to-peer. Nous avons donc proposé une architecture agent permettant le partage de ressources génériques entre des utilisateurs diversifiés. En cela, nous avons construit un système distribué multiagent
Multiagent Systems (MAS) are born from the convergence of Artificial Intelligence, distributed computing and object-oriented programming. For several historical reasons, they are mostly considered as a subpart of AI, even then, MAS designers continuously assure that the agents' high level of encapsulation and autonomy offer easy physical distribution. We have shown that they are not enough. To be efficiently distributed, a MAS must be designed and built following several rules and must be formally verified. This thesis so shows “how to distribute a Multiagent System”. Considering MAS from the distributed computing point of view offers new applications for multiagent systems: encapsulation and autonomy permit the building of software tools shared by users whose goals might be divergent. We proposed a peer-to-peer sharing tools based on agents offering generic resources sharing, in so we built a multiagent distributed system
APA, Harvard, Vancouver, ISO, and other styles
35

Rivard, Stéphane. "Algorithmes distribués pour systèmes distribués." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0007/MQ40619.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Busnel, Yann. "Systèmes d'information collaboratifs et auto-organisants pour réseaux de capteurs large-échelle : de la théorie à la pratique." Phd thesis, Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/busnel.pdf.

Full text
Abstract:
Computer systems have recently known an increasing interest. In first hand, the late-democratisation of network by the high expansion of Internet let us consider some worldwide systems, in order to share with everyone a mass of resources among the whole planet. In other hand, the continuous reduction of the computer size lets appearing several miniaturized equipments. The twinning of these both evolutions are at the origin of the wireless sensor network (WSN) emergence. The application spectrum of these networks is extremely large, both in fixed infrastructure than in embedded system. This thesis proposed a set of contribution for information management both in mobile and static networks. Build among the same properties as collaboration and self-organization, these propositions are design along a common methodology : « moving theory into practice ». Then, in the first place, this thesis aims at a priori theoretical analysis of a very classical application in static WSN : the trajectory tracking of anonymous objects. After that, we enlarge the considered application spectrum by proposing a generic structure for real implementation of static WSN. In the second place, we considered an establishment of a model for mobility pattern, which can be used to formally analyze the convergence behaviour of population protocols. Last but not least, we parallel the works made in the theoretical context of mobile WSN with the practical and empirical ones proposed on gossip-based protocols for wired networks. By proving that the both domains are equivalent, we show that we can use any result of one in the other. Then, we open an attractive way for further research in the both communities
La démocratisation des réseaux via la croissance de l'Internet et la réduction continue de la taille des équipements informatiques sont à l'origine de l'apparition des réseaux de capteurs sans fil. Le spectre des applications potentielles de ces réseaux est extrêmement large, que cela soit dans le contexte d'une infrastructure fixe autant que dans l'informatique embarquée. Cette thèse propose un ensemble de contributions pour la gestion de l'information à la fois dans le contexte mobile et statique. Edifiées autour des mêmes propriétés de collaboration et d'autoorganisation, ces propositions sont conçues selon une méthodologie de la théorie vers la pratique. Cette thèse vise ainsi, en premier lieu, une analyse théorique a priori d'une application classique des réseaux de capteurs statiques, à savoir le suivi de trajectoires d'objets mobiles non identifiés. Par la suite, nous étendons le spectre des applications visées en proposant une structure générique à toute mise en oeuvre réelle de réseaux de capteurs statiques. En second lieu, nous considérons une modélisation de la mobilité permettant d'analyser fondamentalement les impacts de celle-ci sur la convergence des protocoles dits de population. Enfin, nous établissons un parallèle entre les travaux menés théoriquement sur les réseaux de capteurs mobiles avec ceux plus pratiques et empiriques proposés dans le cadre des protocoles épidémiques sur réseaux filaires. En démontrant que ces deux domaines portent en réalité sur la màªme classe de protocoles - et donc de problèmes - nous ouvrons ainsi une voie captivante pour de futures recherches dans chacun de ces deux domaines, par l'utilisation de l'un dans l'autre
APA, Harvard, Vancouver, ISO, and other styles
37

Frain, Ivan. "Systèmes à quorums dynamiques adaptés aux grilles informatiques." Toulouse 3, 2006. http://www.theses.fr/2006TOU30282.

Full text
Abstract:
Les systèmes à quorums sont des mécanismes permettant de gérer la cohérence des répliques en univers réparti. Un système à quorums propose une organisation logique des répliques en divers sous-ensembles appelés quorums. Une opération de lecture ou une opération d'écriture se fait alors uniquement sur les copies dun seul quorum. Tout en maintenant la cohérence des répliques lors des opérations de lecture et d'écriture, les protocoles à quorums limitent le nombre de copies accédées et permettent d'améliorer la disponibilité des données. Dans des systèmes distribués de nouvelle génération, comme les grilles informatiques, les distances entre les hôtes de stockage sont importantes et l'utilisation de la réplication permet de palier les problèmes des bandes passantes faibles et des temps de latence fort. Afin que le maintien de la cohérence des répliques soit le moins coûteux possible dans ce genre d'environnement, les protocoles à quorums doivent être adaptés à la dynamicité des grilles. Cette dynamicité se retrouve au niveau de l'évolution de la charge des hôtes de stockage. De plus, le choix dun protocole à quorums parmi les différents protocoles existants peut être difficile et est généralement fait une fois pour toutes, lors du développement des mécanismes de lecture / écriture. Peu de systèmes de gestion de données pour grille proposent de choisir entre un protocole ou un autre. Une fois le protocole choisi, la construction des quorums à partir de l'ensemble des N copies est détachée de l'infrastructure physique de la grille. L'état des hôtes de stockage qui hébergent physiquement les services de gestion de données et les répliques n'est pas pris en compte lors de cette construction. Idem lorsque les hôtes changent d'état au cours du temps. Même s'il existe des protocoles à quorums dynamiques qui modifient les quorums à la volée, ces derniers ne prennent pas forcément en compte la charge des hôtes et ne sont pas forcément adaptés aux environnements de grille. La contribution de cette thèse est double. . .
APA, Harvard, Vancouver, ISO, and other styles
38

Mejri, Hinda. "Un système d'aide à la régulation d'un réseau de transport multimodal perturbé : réponse au problème de congestion." Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00803231.

Full text
Abstract:
Les réseaux de transport se sont amplifiés par l'accroissement du nombre des véhicules et des stations ainsi que l'apparition de nouvelles notions essentiellement la multimodalité et l'intermodalité. Ainsi, la tâche de gestion des réseaux de transport collectif est devenue très complexe et difficile pour les régulateurs. Pour faire face à ces difficultés, on note le développement des systèmes d'aide à la décision comme solution efficace de régulation de la circulation. Ils permettent de transmettre en temps réel les informations concernant le trafic sur les réseaux de transport.Notre travail se base sur la conception d'un système de régulation des réseaux de transport multimodal. Il peut se révéler comme un outil primordial pour apporter des solutions efficaces et en temps réel à la problématique de la congestion routière. Il peut communiquer l'information nécessaire à l'usager afin de prendre sa décision de déplacement avec ou sans sa voiture. Le système proposé est une approche hybride entre une modélisation par graphes du réseau et un système multi-agents. Ceci sera appuyé par une approche évolutionniste pour la génération d'une solution de régulation optimale. Ce choix est justifié par le caractère ouvert, distribué et complexe des réseaux de transport multimodal.
APA, Harvard, Vancouver, ISO, and other styles
39

Nurbakova, Diana. "Recommendation of activity sequences during distributed events." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI115/document.

Full text
Abstract:
Les événements distribués, se déroulant sur plusieurs jours et/ou sur plusieurs lieux, tels que les conventions, festivals ou croisières, sont de plus en plus populaires ces dernières années et attirant des milliers de participants. Les programmes de ces événements sont généralement très denses, avec un grand nombre d'activités se déroulant en parallèle. Ainsi, choisir les activités à entreprendre est devenu un véritable défi pour les participants. Les systèmes de recommandation peuvent constituer une solution privilégiée dans ce genre d'environnement. De nombreux travaux en recommandation se sont concentrés sur la recommandation personnalisée d'objets spatiaux (points d'intérêts immuables dans le temps ou événements éphémères) indépendants les uns des autres. Récemment, la communauté scientifique s'est intéressée à la recommandation de séquences de points d'intérêts, exploitant des motifs comportementaux des utilisateurs et incorporant des contraintes spatio-temporelles pour recommander un itinéraire de points d'intérêts. Néanmoins, très peu de travaux se sont intéressés à la problématique de la recommandation de séquence d'activités, problème plus difficile du fait du caractère éphémère des objets à recommander. Dans cette thèse, nous proposons tout d'abord une formalisation du problème de la recommandation de séquences d'activités. Dans ce cadre, nous proposons et discutons une classification des types d'influences pouvant avoir un impact sur l'estimation de l'intérêt des utilisateurs dans les activités. Ensuite, nous proposons ANASTASIA, une approche de recommandation personnalisée de séquences d'activités lors des événements distribués. Notre approche est basée sur trois composants clés : (1) l'estimation de l'intérêt d'un utilisateur pour une activité, prenant en compte différentes influences, (2) l'intégration de motifs comportementaux d'utilisateurs basés sur leurs historiques d'activités et (3) la construction d'un planning ou séquence d'activités prenant en compte les contraintes spatio-temporelles de l'utilisateur et des activités. Nous explorons ainsi des méthodes issus de l'apprentissage de séquences et de l'optimisation discrète pour résoudre le problème. Enfin, nous démontrons le manque de jeu de données librement accessibles pour l'évaluation des algorithmes de recommandation d'événements et de séquences d'événements. Nous pallions à ce problème en proposant deux jeux de données, librement accessibles, que nous avons construits au cours de la thèse: Fantasy_db et DEvIR. Fantasy_db comporte des données de participation à des événements lors d'une croisière, recueillies lors d'une étude utilisateur, tandis que DEvIR réunit des données de participation au Comic Con de San Diego, convention majeure dans le domaine
Multi-day events such as conventions, festivals, cruise trips, to which we refer to as distributed events, have become very popular in recent years, attracting hundreds or thousands of participants. Their programs are usually very dense, making it challenging for the attendees to make a decision which events to join. Recommender systems appear as a common solution in such an environment. While many existing solutions deal with personalised recommendation of single items, recent research focuses on the recommendation of consecutive items that exploits user's behavioural patterns and relations between entities, and handles geographical and temporal constraints. In this thesis, we first formulate the problem of recommendation of activity sequences, classify and discuss the types of influence that have an impact on the estimation of the user's interest in items. Second, we propose an approach (ANASTASIA) to solve this problem, which aims at providing an integrated support for users to create a personalised itinerary of activities. ANASTASIA brings together three components, namely: (1) estimation of the user’s interest in single items, (2) use of sequential influence on activity performance, and (3) building of an itinerary that takes into account spatio-temporal constraints. Thus, the proposed solution makes use of the methods based on sequence learning and discrete optimisation. Moreover, stating the lack of publicly available datasets that could be used for the evaluation of event and itinerary recommendation algorithms, we have created two datasets, namely: (1) event attendance on board of a cruise (Fantasy_db) based on a conducted user study, and (2) event attendance at a major comic book convention (DEvIR). This allows to perform evaluation of recommendation methods, and contributes to the reproducibility of results
APA, Harvard, Vancouver, ISO, and other styles
40

Seinturier, Lionel. "Conception d'algorithmes répartis et de protocoles réseaux en approche objet." Phd thesis, Paris, CNAM, 1997. http://tel.archives-ouvertes.fr/tel-00439136.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la conception d'algorithmes répartis, de protocoles réseaux et d'applications coopératives avec une approche objet. Cette activité, souvent complexe, nécessite la mise en \oe uvre de nombreux mécanismes systèmes et réseaux. Nous proposons donc différents outils et formalismes permettant de mener à bien cette tâche. L'originalité de notre approche est, d'une part, d'étendre le point de vue local des méthodologies de conception existantes afin d'intégrer les comportements de groupes d'objets distribués, et d'autre part, de proposer les premiers éléments d'une démarche systématique d'algorithmique répartie. Ainsi, nous proposons un processus de développement en trois niveaux méthodologiques : groupe, objet et méthode. Ce processus de type descendant permet d'introduire, par raffinements successifs, de plus en plus de détails dans les modèles de comportements. Ces trois niveaux traitent, respectivement, des aspects liés à la distribution, à la concurrence et aux traitements séquentiels. Dans cette thèse, nous nous intéressons aux deux premiers niveaux. Le niveau groupe concerne la coordination des comportements de groupes d'objets distribués. Nous modélisons les interactions au sein de tels groupes en terme d'échanges de connaissances. Ceux-ci peuvent être vus comme la conséquence d'actions globales entreprises par l'ensemble des objets du groupe. Nous avons mis en évidence quatre actions globales, ou structures de contrôle de groupe, qui apparaissent dans de nombreuses applications distribuées : le schéma de phasage, la conditionnelle distribuée, l'itération distribuée et la récursion distribuée. Elles peuvent être vues comme l'extension, à un niveau réparti, des structures algorithmiques de base que sont, respectivement, la séquence, les instructions de type \em case \em ou \em if\em , les boucles \em while \em et le parcours récursif. Nous utilisons une logique épistémique pour décrire les différents niveaux de connaissance atteints lors de l'exécution de ces structures. Nous proposons une notation appelée programme à base de connaissances de niveau groupe pour exprimer les actions globales et les prédicats épistémiques utilisés par une application. Le niveau objet s'intéresse à la coordination des comportements internes à un objet. C'est un raffinement du niveau précédent, au sens où la coordination inter-objets est implantée par des objets dont les activités concurrentes nécessitent une synchronisation. Pour mener à bien la description de cette coordination intra-objet, nous proposons le langage CAOLAC. Nous en avons réalisé une implantation au-dessus du langage objet du système distribué GUIDE. Le langage CAOLAC se présente sous la forme d'un protocole méta-objet et sépare les aspects de synchronisation des traitements effectifs. Les premiers sont définis dans des méta-classes, tandis que les seconds le sont dans des classes. L'originalité du langage CAOLAC est d'utiliser conjointement un modèle à base d'états et de transitions et du code objet habituel pour l'écriture des méta-classes. Ainsi, chaque objet est associé à un méta-objet qui intercepte les invocations de méthodes et les coordonne avant de les délivrer à l'objet. L'avantage de cette approche est de séparer clairement les différents fonctionnalités et de faciliter la réutilisation des politiques de synchronisation. La sémantique du langage CAOLAC est définie, partiellement, par une logique temporelle, la logique temporelle d'actions de Lamport. Enfin, nous illustrons notre propos par deux études de cas. Nous présentons la conception d'un algorithme réparti de calcul d'arbres couvrants et d'un protocole transactionnel de validation à deux phases.
APA, Harvard, Vancouver, ISO, and other styles
41

Boutet, Antoine. "Décentralisation des systèmes de personnalisation." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00861370.

Full text
Abstract:
L'évolution rapide du web a changé la façon dont l'information est créée, distribuée, évaluée et consommée. L'utilisateur est dorénavant mis au centre du web en devenant le générateur de contenu le plus prolifique. Pour évoluer dans le flot d'informations, les utilisateurs ont besoin de filtrer le contenu en fonction de leurs centres d'intérêts. Pour bénéficier de contenus personnalisés, les utilisateurs font appel aux réseaux sociaux ou aux systèmes de recommandations exploitant leurs informations privées. Cependant, ces systèmes posent des problèmes de passage à l'échelle, ne prennent pas en compte la nature dynamique de l'information et soulèvent de multiples questions d'un point de vue de la vie privée. Dans cette thèse, nous exploitons les architectures pair-à-pair pour implémenter des systèmes de recommandations pour la dissémination personnalisée des news. Une approche pair-à-pair permet un passage à l'échelle naturel et évite qu'une entité centrale contrôle tous les profils des utilisateurs. Cependant, l'absence de connaissance globale fait appel à des schémas de filtrage collaboratif qui doivent palier les informations partielles et dynamiques des utilisateurs. De plus, ce schéma de filtrage doit pouvoir respecter la vie privée des utilisateurs. La première contribution de cette thèse démontre la faisabilité d'un système de recommandation de news totalement distribué. Le système proposé maintient dynamiquement un réseau social implicit pour chaque utilisateur basé sur les opinions qu'il exprime à propos des news reçues. Les news sont disséminées au travers d'un protocole épidémique hétérogène qui (1) biaise l'orientation des cibles et (2) amplifie la dissémination de chaque news en fonction du niveau d'intérêt qu'elle suscite. Ensuite, pour améliorer la vie privée des utilisateurs, nous proposons des mécanismes d'offuscation permettant de cacher le profil exact des utilisateurs sans trop dégrader la qualité de la recommandation fournie. Enfin, nous explorons un nouveau modèle tirant parti des avantages des systèmes distribués tout en conservant une architecture centralisée. Cette solution hybride et générique permet de démocratiser les systèmes de recommandations en offrant aux fournisseurs de contenu un système de personnalisation à faible coût.
APA, Harvard, Vancouver, ISO, and other styles
42

Denis, Nathanaël. "For a private and secure Internet of things with usage control and distributed ledger technology." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS007.

Full text
Abstract:
Les objets connectés représentent l'une des principales cibles de la cybercriminalité. Les raisons en sont multiples : d'abord, pour limiter le coût de la sécurité, les fabricants peuvent vendre des produits vulnérables avec des failles de sécurité. Deuxièmement, de nombreux objets connectés sont soumis à des contraintes de performance et ne disposent pas de la puissance nécessaire pour exécuter des logiciels de sécurité. Enfin, l'hétérogénéité des applications, du matériel et des logiciels élargit la surface d'attaque.Pour parer à ces menaces, l'Internet des Objets (IoT) a besoin de technologies de sécurité et de préservation de la vie privée sur mesure.En ce qui concerne la protection de la vie privée, le contrôle d'usage donne aux utilisateurs la possibilité de spécifier comment leurs données peuvent être utilisées et par qui. Le contrôle d'usage étend le contrôle d'accès classique en introduisant des obligations, c'est-à-dire des actions à effectuer pour obtenir l'accès, et des conditions qui sont liées à l'état du système, comme la charge du réseau ou le temps.Cette thèse vise à apporter des réponses aux défis de l'internet des objets en termes de performance, de sécurité et de respect de la vie privée. Pour cela, les registres distribués (DLT) constituent, de par leur caractère décentralisé, une solution prometteuse aux contraintes de l'internet des objets, en particulier pour les micro-transactions. Cela se traduit par trois contributions:1. un ensemble de technologies pour des transactions sans frais préservant la vie privée, conçu pour passer à l'échelle;2. une méthode d'intégration du contrôle d'usage et des registres distribués pour permettre une protection efficace des données des utilisateurs;3. un modèle étendu pour le contrôle d'usage dans les systèmes distribués, afin d'y ajouter le contrôle de flux décentralisé et les aspects liés à l'internet des objets.Une preuve de concept de l'intégration (2) a été mise en place pour démontrer la faisabilité et effectuer des tests de performance. Elle s'appuie sur IOTA, un registre distribué qui utilise un graphe orienté acyclique pour son graphe de transactions au lieu d'une blockchain. Les résultats des tests de performance sur un réseau privé montrent une diminution d'environ 90% du temps nécessaire pour effectuer des transactions et pour évaluer des politiques de contrôle d'usage, dans le cas où ce dernier est intégré au réseau
IoT devices represent one of the major targets for malicious activities. The grounds for this are manifold: first, to reduce the cost of security, manufacturers may sell vulnerable products, leaving users with security concerns. Second, many IoT devices have performance constraints and lack the processing power to execute security software. Third, the heterogeneity of applications, hardware, and software widens the attack surface.As a result, IoT networks are subject to a variety of cyber threats. To counter such a variety of attacks, the IoT calls for security and privacy-preserving technologies.For privacy concerns, usage control grants the users the power to specify how their data can be used and by whom. Usage control extends classic access control by introducing obligations, i.e., actions to be performed to be granted access, and conditions that are related to the system state, such as the network load or the time.This thesis aims at providing answers to the challenges in the Internet of Things in terms of performance, security and privacy. To this end, distributed ledger technologies (DLTs) are a promising solution to Internet of Things constraints, in particular for micro-transactions, due to the decentralization they provide. This leads to three related contributions:1. a framework for zero-fee privacy-preserving transactions in the Internet of Things designed to be scalable;2. an integration methodology of usage control and distributed ledgers to enable efficient protection of users' data;3. an extended model for data usage control in distributed systems, to incorporate decentralized information flow control and IoT aspects.A proof of concept of the integration (2) has been designed to demonstrate feasibility and conduct performance tests. It is based on IOTA, a distributed ledger using a directed acyclic graph for its transaction graph instead of a blockchain. The results of the tests on a private networkshow an approximate 90% decrease in the time needed to push transactionsand make access decisions in the integrated setting
APA, Harvard, Vancouver, ISO, and other styles
43

Rejeb, Hejer. "Étude des problèmes d’ordonnancement sur des plates-formes hétérogènes en modèle multi-port." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14299/document.

Full text
Abstract:
Les travaux menés dans cette thèse concernent les problèmes d'ordonnancement sur des plates-formes de calcul dynamiques et hétérogènes et s'appuient sur le modèle de communication "multi-port" pour les communications. Nous avons considéré le problème de l'ordonnancement des tâches indépendantes sur des plates-formes maîtres-esclaves, dans les contextes statique et dynamique. Nous nous sommes également intéressé au problème de la redistribution de fichiers répliqués dans le cadre de l'équilibrage de charge. Enfin, nous avons étudié l'importance des mécanismes de partage de bande passante pour obtenir une meilleure efficacité du système
The results presented in this document deal with scheduling problems on dynamic and heterogeneous computing platforms under the "multiport" model for the communications. We have considered the problem of scheduling independent tasks on master-slave platforms, in both offline and online contexts. We have also proposed algorithms for replicated files redistribution to achieve load balancing. Finally, we have studied the importance of bandwidth sharing mechanisms to achieve better efficiency
APA, Harvard, Vancouver, ISO, and other styles
44

Ahmad, Kassem Ahmad. "Programming Networks with Intensional Destinations." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00908354.

Full text
Abstract:
La programmation distribuée est une tâche difficile. Elle a énormément gagné en importance avec le développement des réseaux qui supportent un nombre croissant exponentiellement d'applications. Les systèmes distribués fournissent des fonctionnalités assurées par les noeuds qui forment un réseau et échangent des données et services, éventuellement par le biais de messages. La provenance du service n'est souvent pas pertinente, alors que sa fiabilité est essentielle. Notre objectif est de fournir un nouveau modèle de communication qui permet de spécifier intentionnellement lequel service est demandé, et non les noeuds qui le fournissent. Cette spécification intentionnelle des échanges offre un potentiel pour faciliter la programmation distribuée, garantir la persistance des données dans les messages et la résilience des systèmes, qui constituent le sujet de cette thèse. Nous proposons donc un cadre qui supporte des messages avec destinations intentionnelles, qui sont évaluées uniquement à la volée au fur et à mesure du déplacement des messages. Nous introduisons un langage, Questlog, qui gère les destinations intentionnelles. Contrairement aux langages à base de règles existants pour les réseaux, comme Datalog, qui suivent le mode push, Questlog permet d'exprimer des stratégies complexes afin de récupérer de manière récursive des données distribuées en mode pull. Le langage fonctionne sur une machine virtuelle qui s'appuie sur un SGBD. Nous démontrons l'approche avec des exemples pris dans deux domaines: (i) les architectures orientées données, où une classe restreinte d'applications client-serveur sont distribuées de manière transparente sur les systèmes pair-à-pair basés sur une DHT, (ii) les réseaux de capteurs sans fil, où un protocole de groupement des noeuds en clusters virtuels est proposé pour agréger les données. Dans ce protocole, les chefs des clusters sont élus à l'aide des destinations intentionnelles. Nos simulations sur la plate-forme QuestMonitor montrent que cette approche offre une simplicité, une modularité aux protocoles, ainsi qu'une fiabilité accrue.
APA, Harvard, Vancouver, ISO, and other styles
45

Busnel, Yann. "Systèmes d'information collaboratifs et auto-organisants pour réseaux de capteurs large-échelle : "De la théorie à la pratique"." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00484822.

Full text
Abstract:
Les systèmes informatiques ont connu récemment de grandes avancées dans leur conception. D'une part, la démocratisation des réseaux via la croissance exponentielle de l'Internet a permis d'envisager des systèmes à l'échelle mondiale, visant de mettre en commun une multitude de ressources à travers la planète entière. D'autre part, la réduction continue de la taille des équipements informatiques a permis l'apparition de matériels miniatures. Le jumelage de ces deux évolutions est à l'origine de l'apparition des réseaux de capteurs sans fil. Le spectre des applications potentielles de ces réseaux est extrêmement large, que cela soit dans le contexte d'une infrastructure fixe autant que dans l'informatique embarquée. Cette thèse propose un ensemble de contributions pour la gestion de l'information à la fois dans le contexte mobile et statique. Édifiées autour des mêmes propriétés de collaboration et d'autoorganisation, ces propositions sont conçues selon une méthodologie de la théorie vers la pratique. Cette thèse vise ainsi, en premier lieu, une analyse théorique a priori d'une application classique des réseaux de capteurs statiques, à savoir le suivi de trajectoires d'objets mobiles non identifiés. Par la suite, nous étendons le spectre des applications visées en proposant une structure générique à toute mise en oeuvre réelle de réseaux de capteurs statiques. En second lieu, nous considérons une modélisation de la mobilité permettant d'analyser fondamentalement les impacts de celle-ci sur la convergence des protocoles dits de population. Enfin, nous établissons un parallèle entre les travaux menés théoriquement sur les réseaux de capteurs mobiles avec ceux plus pratiques et empiriques proposés dans le cadre des protocoles épidémiques sur réseaux filaires. En démontrant que ces deux domaines portent en réalité sur la même classe de protocoles – et donc de problèmes – nous ouvrons ainsi une voie captivante pour de futures recherches dans chacun de ces deux domaines, par l'utilisation de l'un dans l'autre.
APA, Harvard, Vancouver, ISO, and other styles
46

Torres, Zuniga Jesus Ixbalank. "Simulation and control of denitrification biofilters described by PDEs Simulation et commande d'un biofiltre de dénitrification décrit par des EDP." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00512336.

Full text
Abstract:
Cette thèse concerne la simulation et la commande d'un biofiltre de dénitrification. Selon que l'on considère ou que l'on néglige la diffusion, des modèles d'EDP paraboliques ou hyperboliques sont considérés. En plus des classiques méthodes des lignes, des approches spécifiques au type d'EDP sont évaluées pour simuler le système. La méthode des caractéristiques s'applique aux systèmes d'EDP hyperboliques. L'analyse modale utilisée pour les systèmes d'EDP paraboliques permet de manipuler un système d'ordre réduit. L'objectif de commande est alors de réduire la concentration en azote en sortie du réacteur sous une certaine limite, en dépit des perturbations externes et des incertitudes du modèle. Deux stratégies de commande sont considérées. Une approche "early lumping" permet la synthèse d'une loi de commande linéaire H2 de type retour de sortie avec observateur. Une approche "late lumping" associe une loi de commande linéarisante un observateur à paramètres distribués.
APA, Harvard, Vancouver, ISO, and other styles
47

Torres, Ixbalank. "Simulation and control of denitrification biofilters described by PDEs." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1204/.

Full text
Abstract:
Cette thèse concerne la simulation et la commande d'un biofiltre de dénitrification. Selon que l'on considère ou que l'on néglige la diffusion, des modèles d'EDP paraboliques ou hyperboliques sont considérés. En plus des classiques méthodes des lignes, des approches spécifiques au type d'EDP sont évaluées pour simuler le système. La méthode des caractéristiques s'applique aux systèmes d'EDP hyperboliques. L'analyse modale utilisée pour les systèmes d'EDP paraboliques permet de manipuler un système d'ordre réduit. L'objectif de commande est alors de réduire la concentration en azote en sortie du réacteur sous une certaine limite, en dépit des perturbations externes et des incertitudes du modèle. Deux stratégies de commande sont considérées. Une approche "early lumping" permet la synthèse d'une loi de commande linéaire H2 de type retour de sortie avec observateur. Une approche "late lumping" associe une loi de commande linéarisante à un observateur à paramètres distribués
This thesis addresses the simulation and control of a denitrification biofilter. Parabolic and hyperbolic PDE models may be considered, which depends on the fact of considering or neglecting the diffusion phenomenon. In plus of the classical methods of lines, approaches specific to the type of PDE system are evaluated to simulate the biofilter. The method of characteristics applies to hyperbolic PDE systems. The modal analysis used on the parabolic PDE system allows manipulating a reduced order model. The control objective is then the reduction of the nitrogen concentration at the output of the reactor below some pre-specified upper limit, in spite of the external disturbances and uncertainties of the model. Two control strategies are considered. An early lumping approach is used to synthesize an observer-based H2 output feedback linear controller. A late lumping approach associates a linearizing control to a distributed parameter observer
APA, Harvard, Vancouver, ISO, and other styles
48

Dedieu, Olivier. "Réplication optimiste pour les applications collaboratives asynchrones." Phd thesis, Université de Marne la Vallée, 2000. http://tel.archives-ouvertes.fr/tel-00651743.

Full text
Abstract:
Dans cette thèse, nous présentons un système de réplication optimiste pour les applications collaboratives asynchrones. Dans notre modèle, les réplicas travaillent de façon autonome et se synchronisent deux à deux afin d'assurer la propagation épidémique des écritures et la cohérence globale à terme des données. Nous avons conçu pour cela un protocole qui garantit des échanges incrémentaux. Il optimise la consommation de bande passante et simplifie la détection des mises-à-jour à intégrer. Il repose sur un mécanisme de journalisation des écritures. Ce mode de persistance offre de bonnes performances, une grande robustesse et un support simple pour l'évolution de schéma. Lorsque deux réplicas se synchronisent, des conflits peuvent apparaître. Pour y faire face, nous proposons un mécanisme d'horloge logique qui définit un ordre total sur les écritures, cohérent avec l'ordre temporel. Il permet de résoudre les mises-à-jour conflictuelles par un ordonnancement conforme à l'intuition pour les utilisateurs. D'autres types de conflits propres à l'application et à l'intégrité des données peuvent survenir. Le développeur d'applications dispose d'une interface de programmation pour définir des procédures de résolution spécifiques. Par ailleurs, nous présentons deux extensions au protocole de propagation épidémique pour le rendre exploitable à large échelle : le contrôle de la vitesse de convergence et la réplication partielle. En complément de la réplication des données, nous proposons un "framework" pour le déploiement dynamique des mises-à-jour du code et des ressources de l'application. Enfin, l'ensemble du système de réplication est illustré sur une application collaborative asynchrone, Pharos, qui permet le partage de recommandations dans des communautés d'intérêt.
APA, Harvard, Vancouver, ISO, and other styles
49

Benkiran, Mohamed Amine. "Communications dans les systemes distribues." Paris 6, 1988. http://www.theses.fr/1988PA066068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Boutet, Antoine. "Decentralizing news personalization systems." Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S023/document.

Full text
Abstract:
L'évolution rapide du web a changé la façon dont l'information est créée, distribuée, évaluée et consommée. L'utilisateur est dorénavant mis au centre du web en devenant le générateur de contenu le plus prolifique. Pour évoluer dans le flot d'informations, les utilisateurs ont besoin de filtrer le contenu en fonction de leurs centres d'intérêts. Pour bénéficier de contenus personnalisés, les utilisateurs font appel aux réseaux sociaux ou aux systèmes de recommandations exploitant leurs informations privées. Cependant, ces systèmes posent des problèmes de passage à l'échelle, ne prennent pas en compte la nature dynamique de l'information et soulèvent de multiples questions d'un point de vue de la vie privée. Dans cette thèse, nous exploitons les architectures pair-à-pair pour implémenter des systèmes de recommandations pour la dissémination personnalisée des news. Une approche pair-à-pair permet un passage à l'échelle naturel et évite qu'une entité centrale contrôle tous les profils des utilisateurs. Cependant, l'absence de connaissance globale fait appel à des schémas de filtrage collaboratif qui doivent palier les informations partielles et dynamiques des utilisateurs. De plus, ce schéma de filtrage doit pouvoir respecter la vie privée des utilisateurs. La première contribution de cette thèse démontre la faisabilité d'un système de recommandation de news totalement distribué. Le système proposé maintient dynamiquement un réseau social implicit pour chaque utilisateur basé sur les opinions qu'il exprime à propos des news reçues. Les news sont disséminées au travers d'un protocole épidémique hétérogène qui (1) biaise l'orientation des cibles et (2) amplifie la dissémination de chaque news en fonction du niveau d'intérêt qu'elle suscite. Ensuite, pour améliorer la vie privée des utilisateurs, nous proposons des mécanismes d'offuscation permettant de cacher le profil exact des utilisateurs sans trop dégrader la qualité de la recommandation fournie. Enfin, nous explorons un nouveau modèle tirant parti des avantages des systèmes distribués tout en conservant une architecture centralisée. Cette solution hybride et générique permet de démocratiser les systèmes de recommandations en offrant aux fournisseurs de contenu un système de personnalisation à faible coût
The rapid evolution of the web has changed the way information is created, distributed, evaluated and consumed. Users are now at the center of the web and becoming the most prolific content generators. To effectively navigate through the stream of available news, users require tools to efficiently filter the content according to their interests. To receive personalized content, users exploit social networks and recommendation systems using their private data. However, these systems face scalability issues, have difficulties in coping with interest dynamics, and raise a multitude of privacy challenges. In this thesis, we exploit peer-to-peer networks to propose a recommendation system to disseminate news in a personalized manner. Peer-to-peer approaches provide highly-scalable systems and are an interesting alternative to Big brother type companies. However, the absence of any global knowledge calls for collaborative filtering schemes that can cope with partial and dynamic interest profiles. Furthermore, the collaborative filtering schemes must not hurt the privacy of users. The first contribution of this thesis conveys the feasibility of a fully decentralized news recommender. The proposed system constructs an implicit social network based on user profiles that express the opinions of users about the news items they receive. News items are disseminated through a heterogeneous gossip protocol that (1) biases the orientation of the dissemination, and (2) amplifies dissemination based on the level of interest in each news item. Then, we propose obfuscation mechanisms to preserve privacy without sacrificing the quality of the recommendation. Finally, we explore a novel scheme leveraging the power of the distribution in a centralized architecture. This hybrid and generic scheme democratizes personalized systems by providing an online, cost-effective and scalable architecture for content providers at a minimal investment cost
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography