To see the other types of publications on this topic, follow the link: Applications réparties (informatique).

Dissertations / Theses on the topic 'Applications réparties (informatique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Applications réparties (informatique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Abghour, Noreddine. "Schéma d'autorisation pour applications réparties sur Internet." Toulouse, INPT, 2004. http://www.theses.fr/2004INPT014H.

Full text
Abstract:
Le développement d'Internet et la généralisation de son utilisation ont entraîné l'émergence de nouvelles applications réparties à grande échelle, le commerce électronique par exemple. Mais ces applications posent des problèmes de sécurité difficiles à résoudre, en raison du grand nombre d'utilisateurs et de machines concernés. Des solutions existent pour bien garantir la sécurité des communications point à point et pour restreindre les connexions à un sous-réseau, mais elles sont d'une efficacité limitée, et souvent intrusives vis-à-vis de la protection de la vie privée des utilisateurs. Dans le but de lever ces limitations et de contrôler de façon efficace l'exécution d'applications réparties sur un nombre plus ou moins grand de machines du réseau, nous avons développé des schémas d'autorisation à la fois souples pour permettre de contrôler des applications de tous types, et efficaces par l'application du principe du moindre privilège : seules les opérations nécessaires au fonctionnement de l'application doivent être autorisées. L'architecture que nous proposons est organisée autour de serveurs d'autorisation répartis, tolérants aux fautes accidentelles et aux intrusions, et de moniteurs de référence sur chaque site participant. Les serveurs d'autorisation vérifient si les requêtes doivent être autorisées, et, dans ce cas, génèrent des preuves d'autorisation composées de capacités et de coupons qui sont ensuite vérifiées par les moniteurs de référence. Ces coupons forment un mécanisme de délégation original qui respecte le principe du moindre privilège. Compte-tenu de l'hétérogénéité des systèmes connectés, il n'est pas envisageable d'intégrer un moniteur de référence spécifique dans le système opératoire de chaque site. C'est pourquoi les moniteurs de référence sont en partie implantés dans des cartes à puce Java.
APA, Harvard, Vancouver, ISO, and other styles
2

Rodriguez, Adolfo. "Modélisation, validation et vérification des applications réparties de commande séquentielle : cas du bus de terrain FIP." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0024.

Full text
Abstract:
La modélisation et la vérification sont des étapes essentielles dans la conception des systèmes d'automatisation complexes. Le thème principal de ces travaux de recherche aborde la modélisation et l'analyse des applications de commande séquentielle réparties. Ces applications sont composées d'un ensemble de processus parallèles communicant à travers un réseau local industriel. Pour pouvoir analyser ces systèmes distribués, il faut introduire le modèle du système de communication qui décrit les mécanismes de synchronisation entre les processus. Dans le cas d'une répartition sur le bus de terrain FIP, les mécanismes de synchronisation et le mode de fonctionnement des processus sont exprimés par des contraintes temporelles de type périodicité. Afin de prendre en considération ces aspects, nous avons défini le modèle réseaux de Pétri prédicats/transitions étiquetés temporels. Cette approche est appliquée à la modélisation et la validation d'un automatisme emprunté au domaine de la distribution de l'énergie électrique.
APA, Harvard, Vancouver, ISO, and other styles
3

Sauquet, Dominique. "Lied : un modèle de données sémantique et temporel : son intégration dans une architecture distribuée et son utilisation pour des applications médicales." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0586.

Full text
Abstract:
Le travail présenté propose une solution au traitement de l'information complexe et distribuée dans le contexte d'applications médicales. La solution repose à la fois sur un modèle de données qui facilite la représentation des données temporelles ou répétitives et des relations entre les données (le modèle LIED, langage interactif pour l'exploitation des données) et sur une architecture de communication (le HUB, HELIOS Unification Bus). Apres une rapide introduction sur le contexte médical d'expérimentation et sur une brève présentation du modèle, on y aborde en détails les aspects de modélisation. On y fait référence aux travaux de normalisation ou de recherche du domaine médical (travaux du CEN TC 251 ou de l'ODMG, projets HELIOS, GEHR, GALEN, …). On y décrit ensuite le modèle choisi pour la représentation des concepts médicaux et des items ainsi que la façon dont ces items sont agrégés pour former le modèle d'information. Les aspects temporels sont aussi abordés, à la fois d'un point de vue bibliographique portant sur les bases de données temporelles et d'un point de vue de la solution proposée dans le modèle LIED. L'auteur s'intéresse ensuite aux aspects de distribution et aux solutions en terme de logiciels pour assurer l'intégration des systèmes hétérogènes distribués. Les différentes solutions, connues sous le nom générique de middleware, sont présentées. Une proposition de classification des middlewares est aussi faite, ainsi qu'une présentation des tendances en matière d'évolution de ces logiciels. L'auteur s'intéresse ensuite à la solution middleware qu'il a mise en œuvre dans le cadre du projet HELIOS, le HUB, et à la façon dont LIED a bénéficié des apports du HUB. Les aspects d'interface homme-machine sont ensuite étudiés, avant d'aborder les résultats de l'implémentation et de la mise en production dans les différents services de l'hôpital Broussais. Le travail se termine sur une étude critique de positionnement par rapport aux « SGBD Orienté Objet » ainsi que sur les perspectives qu'il offre dans le cadre des projets de recherche européens Synapses et SynEx, références en terme de plateformes d'intégration du domaine médical. Ce travail résume l'investissement personnel de l'auteur depuis de nombreuses années (entre 12 et 15) ainsi que l'état de l'art du génie logiciel, dans le contexte des réalisations d'informatique médicale.
APA, Harvard, Vancouver, ISO, and other styles
4

Jamrozik, Hervé. "Aide à la mise au point des applications parallèles et réparties à base d'objets persistants." Phd thesis, Grenoble 1, 1993. http://tel.archives-ouvertes.fr/tel-00005129.

Full text
Abstract:
L'objectif de ce travail est d'offrir une aide a la mise au point des applications paralleles et reparties, a base dobjets persistants, permettant une mise au point cyclique et offrant une observation de l'execution dun haut niveau dabstraction. Le non-determinisme et la sensibilite a toute perturbation de ce type d'execution rendent tres difficile la correction des erreurs liees aux conditions d'execution. Les limitations de l'analyse statique des programmes et des approches dynamiques fondees sur une execution courante nous conduisent a preconiser la mise en oeuvre de methodes basees sur la reproduction d'une execution qui apportent une solution au non-determinisme en fixant une execution. La mise au point s'effectue alors dans un contexte particulier ou le comportement de l'execution a corriger est deja connu et peut etre observe a l'aide de vues de l'execution adaptees aux particularites de l'environnement dexecution. Nous definissons, dans le contexte des systemes a objets, un systeme de mise au point base sur la reproduction (dirigee par le controle) d'une execution, permettant une mise au point cyclique et une observation de l'execution au niveau des objets. Nous specifions le service de reexecution, le service d'observation, et proposons une architecture modulaire pour l'assemblage des composants logiciels realisant ces services. Nous presentons ensuite l'application concrete des propositions precedentes au systeme Guide. Nous avons realise un noyau de reexecution, structure en objets Guide, qui se charge de maniere automatique de l'enregistrement et de la reproduction dune execution Guide.
APA, Harvard, Vancouver, ISO, and other styles
5

Do, Si Hoàng. "Informatique répartie et applications à la domotique." Paris 8, 2004. http://www.theses.fr/2004PA083710.

Full text
Abstract:
La domotique encore appelée maison communicante englobe l’ensemble des services et techniques visant à intégrer dans les habitations individuelles ou immeubles collectifs des fonctions propres à l’habitat pouvant, pour certaines collaborer entre elles et utiliser des réseaux de communications. Ces domaines d’application pour la domotique sont, par exemple, la gestion d’énergie, la gestion de l’eau, l’éclairage, la sécurité, mais on y trouve également avec l’avènement des autoroutes de l’information, le divertissement, l’enseignement à distance, les visioconférences et la téléphonie internet. L’objectif de la thèse est de concevoir, d’implémenter, de tester et de valider un système de services domotiques en appliquant la technologie agents mobiles, tout en le combinant aux solutions apportées par l’environnement standard de services domotiques OSGi
Home networking includes the whole services and techniques aiming at integrating, in the individual dwellings or apartment building, of the specific functions to the habitat which can, for some cases, collaborate between them and use communication networks. The applying fields are, for example, energy management, lighting management, security, etc. But it also covers, with the advent of information highways, the entertainment, e-learning, the videoconference and telephony on Internet network. The thesis objective is to design, implement, test and validate a home services system by applying mobile agent technology combining with the brought solutions by the standard home services framework OSGi
APA, Harvard, Vancouver, ISO, and other styles
6

Khalfallah, Sofiane. "Algorithmique best-effort pour les réseaux dynamiques." Compiègne, 2010. http://www.theses.fr/2010COMP1889.

Full text
Abstract:
Les réseaux dynamiques posent de nouvelles difficultés pour la construction d'applications réparties (mobilité, absence d'infrastructure, communication sans-fil, etc. ). Les réseaux ad hoc de véhicules (VANET) représentent un des cas d'étude des réseaux dynamiques. Nous avons commencé les travaux par un état des projets européens concernant les VANETs. Ensuite, nous avons modélisé la norme IEEE 802. 11, qui s'impose comme une technologie sans-fil standard pour la communication entre noeuds mobiles. Nous avons présenté l'algorithmique best-effort qui permet de compléter le concept d'auto-stabilisation afin de gérer la dynamique du réseau. C'est pourquoi nous avons introduit le concept de convergence continue. Ce concept est à rapprocher de la super-stabilisation. L'idée d'une métrique de la dynamique nous est apparue importante (comme la notion de durée d'une ronde continue). Nous avons proposé une application de l'algorithmique best-effort, à savoir un algorithme auto-stabilisant ayant une convergence continue pour la gestion de groupe. Nous avons présenté nos contributions dans la suite logicielle Airplug pour aboutir à une plate-forme complète pour l'évaluation de performances et un prototypage rapide des protocoles best-effort. Nous avons implémenté le protocole réparti GRP qui permet la gestion de groupe dans les réseaux dynamiques et évalué ses performances dans le mode Airplug-ns. Nous avons proposé des métriques appropriées, qui décrivent la stabilité des groupes, pour évaluer les performances de notre protocole
Many problems are open in the design of distributed applications (mobility, ad hoc communication, wireless technology, etc. ). We focus our work on a specific case study of dynamic networks, which is Vehicular ad-hoc networks (VANET). We first establish a state-of-the-art for this field based on the European projects in the VANETs. Second, we model the IEEE 802. 11 standard that tends to be a standard for mobile communication. Best-effort algorithmics allowing to complete the concept of auto-stabilization in the management of dynamic networks are presented. For that aim, we introduce the concept of service continuity. This concept is close to the super-stabilization. We believe that the idea of metrics studying dynamic topologies is important (as the notion of duration of a continuous round). The proposed algorithm works in dynamic and distributed systems. It globally ensures a kind of service continuity to applications while the system is still converging, except if a huge number of topology changes happen. After that, we present our contributions in the Airplug software, as well as in the design and the implementation of a complete platform for performance evaluation and fast prototyping of best-effort protocols. An implementation is done of the distributed protocol GRP to estimate its performances in the Airplug-ns mode. Finally, we propose appropriate metrics that describe the stability of groups in order to evaluate the performance of our protocol
APA, Harvard, Vancouver, ISO, and other styles
7

Ismail, Leila. "Infrastructure système pour applications réparties à base d'agents mobiles." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Etchevers, Xavier. "Déploiement d’applications patrimoniales en environnements de type informatique dans le nuage." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM100/document.

Full text
Abstract:
L'objectif de cette thèse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing
Cloud computing aims to cut down on the outlay and operational expenses involved in setting up and running applications. To do this, an application is split into a set of virtualized hardware and software resources. This virtualized application can be autonomously managed, making it responsive to the dynamic changes affecting its running environment. This is referred to as Application Life-cycle Management (ALM). In cloud computing, ALM is a growing but immature market, with many offers claiming to significantly improve productivity. However, all these solutions are faced with a major restriction: the duality between the level of autonomy they offer and the type of applications they can handle. To address this, this thesis focuses on managing the initial deployment of an application to demonstrate that the duality is artificial. The main contributions of this work are presented in a platform named VAMP (Virtual Applications Management Platform). VAMP can deploy any legacy application distributed in the cloud, in an autonomous, generic and reliable way. It consists of: • a component-based model to describe the elements making up an application and their projection on the running infrastructure, as well as the dependencies binding them in the applicative architecture; • an asynchronous, distributed and reliable protocol for self-configuration and self-activation of the application; • mechanisms ensuring the reliability of the VAMP system itself. Beyond implementing the solution, the most critical aspects of running VAMP have been formally verified using model checking tools. A validation step was also used to demonstrate the genericity of the proposal through various real-life implementations
APA, Harvard, Vancouver, ISO, and other styles
9

Lecuivre, Jérôme. "Évaluation d'architectures temps réel réparties : application à CCE." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL093N.

Full text
Abstract:
Notre problématique de recherche au sens large consiste à fournir des outils et des modèles aidant à la conception d'applications temps réel distribuées. Dans le cadre général de la conception, il est important, primordial même, de prendre en compte le plus tôt possible, dans le cycle de vie du système, les paramètres de performance tels que temps de réponse du système ou taux d'occupation des ressources. L’évaluation de performances d'un environnement temps réel distribué est une tache délicate: bien qu'une méthodologie générale existe, chaque étude est particulière. Comment poser proprement le problème, comment le modéliser, quels sont les critères de performance les plus appropriés, quelles sont les bonnes hypothèses, comment mesurer la charge de travail, peut-on se fier aux résultats du modèle ? Le travail que nous avons entrepris fournit des éléments de réponse à ces questions. Pour mener à bien nos travaux, nous avons utilisé et illustré la méthodologie définie par Jain. Nous avons aussi appliqué à la modélisation de profils de communication les règles de modélisation orientées objet définies par Nachef. Nous confrontons les résultats fournis par le modèle aux résultats analytiques ou aux mesures réelles obtenues par expérimentation sur le système pour différents types de machines et de protocoles de communication. Nous proposons une structure d'accueil afin de faciliter la construction de modèles de profils de communication. Notre but est de déterminer si les contraintes de temps de l'application peuvent être respectées par la qualité de service fournie par le profil de communication choisi. Notre approche a été appliquée à la plate-forme temps réel distribuée Cime Computing Environment (CCE) dont nous décrivons les services et la qualité de service associée. Nous proposons plusieurs mécanismes protocolaires permettant de faciliter la gestion des contraintes de temps
APA, Harvard, Vancouver, ISO, and other styles
10

Etchevers, Xavier. "Déploiement d'applications patrimoniales en environnements de type informatique dans le nuage." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00875559.

Full text
Abstract:
L'objectif de cette thèse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing.
APA, Harvard, Vancouver, ISO, and other styles
11

Molina, Espinosa José Martin. "Modèle et services pour la coordination des sessions coopératives multi-applications : application à l'ingénierie système distribuée." Toulouse, INPT, 2003. http://www.theses.fr/2003INPT013H.

Full text
Abstract:
Les applications coopératives distribuées sont des applications qui soutiennent les activités de groupes de coopération. Ce type d'activités est caractérisé par des groupes d'utilisateurs physiquement (ou virtuellement) distribués qui coopèrent par des interactions et qui sont regroupés en sessions de travail. Ces sessions constituent les unités de base pour la coopération. Le résultat effectif de la coopération lors d'une session est le produit des actions simultanées et concurrentes effectuées pendant la définition et l'exécution de la session. Ces actions nécessitent d'être coordonnées afin d'éviter les incohérences. Pour cela nous proposons des nouveaux modèles et services pour décrire et mettre en œuvre les interactions dans les sessions de coopération. Notre travail donne lieu à un modèle de sessions de coopération qui permet de décrire la coordination des interactions entre participants et applications. Il se caractérise par la description des dépendances. Notre travail porté sur la conception et la mise en œuvre d'un service de gestion de session qui est régi par un ensemble de règles de coordination. . Ce service fournit les fonctions permettant aux participants de définir, d'initialiser, de chercher, de se joindre à, de quitter, d'ouvrir, de clore et de terminer une session. Deux niveaux de service principaux ont été développés. Le premier permet de planifier une session de coopération. Le deuxième permet de gérer le déroulement d'un session programmée en commençant par les invitations [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
12

Paraiso, Fawaz. "soCloud : une plateforme multi-nuages distribuée pour la conception, le déploiement et l'exécution d'applications distribuées à large échelle." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-01009918.

Full text
Abstract:
L'informatique multi-nuages s'est imposée comme un paradigme de choix pour créer des applications distribuées à large échelle s'exécutant à des emplacements géographiques ré- partis. L'informatique multi-nuages consiste en l'utilisation de multiples environnements de nuages indépendants qui ne nécessitent pas d'accord a priori entre les fournisseurs de nuage ou un tiers. Toutefois, ces applications conçues pour un environnement multi-nuages doivent faire face à de véritables défis en terme d'architecture, de modèle et de technologies. L'utilisation de l'informatique multi-nuages se heurte à l'hétérogénéité et à la complexité des offres de nuage. Ainsi, l'informatique multi-nuages doit faire face aux défis de la portabilité, de l'approvisionnement, de l'élasticité et de la haute disponibilité que nous identifions dans cette thèse. Dans ce travail de thèse, nous proposons un modèle d'applications nommé soCloud qui adresse ces quatre défis. C'est un modèle basé sur le standard SCA du consortium OASIS pour concevoir de manière simple et cohérente des applications distribuées à large échelle pour un environnement multi-nuages. Un nouveau langage dédié d'élasticité a été proposé pour exprimer efficacement l'élasticité d'applications multi-nuages par l'abstraction. Nous proposons aussi une plateforme multi-nuages soCloud conçue pour déployer, exécuter et gérer des applications réparties à travers plusieurs nuages. Le modèle d'applications soCloud a été utilisé pour la mise en œuvre de trois applications distribuées déployées dans un environnement multi-nuages. Quant à la plateforme soCloud, elle a été implantée, déployée et expérimentée sur dix nuages : Windows Azure, DELL KACE, Amazon EC2, CloudBees, OpenShift, dotCloud, Jelastic, Heroku, Appfog et Eucalyptus. Ces expériences sont utilisées pour valider la nouveauté des solutions approtées. Grâce à notre contribution, nous visons à offrir un moyen simple et efficace pour concevoir, déployer, exécuter et gérer des applications distribuées pour des environnements multi- nuages en proposant un modèle et une plateforme.
APA, Harvard, Vancouver, ISO, and other styles
13

Roy, Matthieu. "Synchronisation distribuée sans attente : application à la résolution des problèmes d'accord par contrainte des données." Rennes 1, 2003. http://www.theses.fr/2003REN10124.

Full text
Abstract:
Nous nous intéressons aux problèmes de décision, qui sont une généralisation de la notion de vote : N entités doivent se mettre d'accord sur un ou plusieurs valeurs communes. Ce type de problème est largement utilisé dans les systèmes répartis. Ce problème n'a pas de solution dans un système asynchrone ; nous développons ici une nouvelle approche en nous intéressant non pas au système, mais aux données. Nous montrons qu'il est possible d'écrire des protocoles qui résolvent ce type de problème lorsque les valeurs proposées par les processus satisfont certaines contraintes connues a priori. Cette classe de protocoles peut être définie par des propriétés simples, et permet des algorithmes génériques pour plusieurs problèmes d'accord. Tous les protocoles présentés sont sûrs : ils ne donnent jamais de résultat erroné. Nous présentons un algorithme à qualité de service modulable, qui montre un compromis entre la convergence et la communication nécessaire.
APA, Harvard, Vancouver, ISO, and other styles
14

Rilling, Louis. "Système d'exploitation à image unique pour une grille de composition dynamique : conception et mise en oeuvre de services fiables pour éxécuter les applications distribuées partageant des données." Rennes 1, 2005. http://www.theses.fr/2005REN1S086.

Full text
Abstract:
Les grands réseaux d'ordinateurs offrent des capacités de calcul et de stockage permettant d'envisager des applications jusqu'à présent irréalisables. Il est cependant encore très difficile d'exploiter efficacement toutes ces ressources. Nous étudions les difficultés rencontrées par les utilisateurs et les programmeurs d'applications pour des grands réseaux appelés grille de calcul. Pour diminuer l'ampleur de ces difficultés, nous identifions le besoin d'offrir un système d'exploitation à image unique de grille. Un tel système permet d'utiliser les ressources réparties dans le réseau aussi simplement que celle d'un seul ordinateur. Un tel système est auto-réparant et masque aux utilisateurs les reconfigurations (ajouts, retraits, et défaillances d'ordinateurs). Nous décrivons les services que doit offrir un tel système d'exploitation, et proposons des services pour exécuter de façon fiable des applications distribuées partageant des données malgré les fréquentes reconfigurations.
APA, Harvard, Vancouver, ISO, and other styles
15

Larabi, Mohamed-Chaker. "Codage et analyse d'images couleur : application à l'indexation de bases d'images réparties." Poitiers, 2002. http://www.theses.fr/2002POIT2308.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Luna, del Aguila Felipe. "Information flow security for asynchronous, distributed, and mobile applications." Nice, 2005. http://www.theses.fr/2005NICE4038.

Full text
Abstract:
L'objectif pour ce travail est de proposer une solution de sécurité pour contrôler des flux d'information, spécifiquement par un mécanisme de contrôle d'accès et de flux. L'objectif vise les applications réparties en utilisant les objets actifs avec des communications asynchrones. Il inclut une politique de sécurité et les mécanismes qui imposeront les règles présentes dans de telles politiques. La confidentialité des données et des flux d'information sécurisés est fournie par une vérification dynamique des communications. Tandis que les flux d'information sont généralement vérifiés statiquement {Mye,BN03,Her,HR_infoFlow,ZZN+,Sab,HVY,CBC}, notre attention est concentrée sur des vérifications dynamiques. Pour la réaliser, le modèle proposé a une politique de contrôle de l'information qui inclut des règles discrétionnaires, et comme ces règles sont dynamiquement exécutables, il est possible de tirer profit des contrôles dynamiques pour effectuer en même temps tous les contrôles obligatoires. Les autres avantages de cette approche font que: les contrôles dynamiques n'exigent pas la modification des compilateurs, ne changent pas le langage de programmation, n'exigent pas des modifications aux codes sources existants, et fournissent une flexibilité au moment d'exécution. Ainsi, les contrôles dynamiques sont bien adaptés pour être inclus dans une couche logiciel de type middleware, qui, d'une façon non-intrusive, fournit et assure des services de sécurité aux applications de niveau supérieur. Le modèle de programmation fondamental {CKV} est basé sur les objets actifs, les communications asynchrones, et les synchronisations de flux de données. Ces notions sont liées au domaine des systèmes répartis mais avec une caractéristique qui le distingue des autres: la présence d'entités mobiles, indépendants et capables d'agir l'un sur l'autre avec d'autres entités également mobiles. Par conséquent, le modèle de sécurité proposé se fonde fortement sur des règles de politique de sécurité avec des conditions obligatoires pour le contrôle des flux d'information. Des niveaux de sécurité sont employés pour étiqueter indépendamment les entités impliquées dans les événements de communication: objets actifs et données transmises. Cet étiquetage "indépendant" est sujet cependant à des règles discrétionnaires. La combinaison des règles obligatoires et discrétionnaires permet de relâcher les contrôles strictes imposés par l'utilisation unique des règles obligatoires. Le modèle final de sécurité suit une approche dont les avantages sont doubles: Une base saine. Le modèle de sécurité est fondé sur un fond théorique fort, le calcul séquentiel asynchrone des processus (ASP) {CHS_POPL04}, lié aux formalismes bien connus {HR_infoFlow,Hen,CBC,CF}. Puis, la sémantique formelle d'ASP est étendue avec de nouvelles prémisses. Ceci fournit une base formelle à notre modèle et, en même temps, permet de vérifier dynamiquement les accès non autorisés. En conclusion, afin de prouver l'exactitude du modèle de sécurité, une propriété intuitive pour la sécurisation de flux de l'information est définie et est assurée par l'application du modèle de contrôle d'accès. Extensibilité et flexibilité. Une application pratique de ce modèle est également visé, par une intégration dans des logiciels du type middleware, comme par exemple ProActive. La granularité de ce modèle de sécurité est défini afin de la rendre efficace (parce qu'il n'y a aucune sécurité à vérifier à l'intérieur d'une activité) et finement réglable: des niveaux de sécurité peuvent être définis sur des activités en raison de l'absence de la mémoire partagée, mais un niveau spécifique peut être indiqué pour les paramètres des requêtes et les activités créées. D'ailleurs, l'implémentation pratique du mécanisme de sécurité permet son utilisation par des appels de bibliothèque de haut niveau sans avoir besoin de changer le langage de programmation ou d'imposer l'existence de compilateurs spéciaux
The objective for this work is to propose a security solution to regulate information flows, specifically through an access and flow control mechanism, targeted to distributed applications using active objects with asynchronous communications. It includes a security policy and the mechanism that will enforce the rules present in such policies. Data confidentiality and secure information flows is provided through dynamic checks in communications. While information flows are generally verified statically {Mye,BN03,Her,HR_infoFlow,ZZN+,Sab,HVY,CBC}, our attention is focused on dynamic verifications. To achieve it, the proposed model has an information control policy that includes discretionary rules, and because these rules are by nature dynamically enforceable, it is possible to take advantage of the dynamic checks to carry out at the same time all mandatory checks. As another advantage of this approach, dynamic checks do not require to modify compilers, do not alter the programming language, do not require modifications to existing source codes, and provide flexibility at run-time. Thus, dynamic checks fit well in a middleware layer which, in a non-intrusive manner, provides and ensures security services to upper-level applications. The underlying programming model {CKV} is based on active objects, asynchronous communications, and data-flow synchronizations. These notions are related to the domain of distributed systems but with a characteristic that distinguishes it from others: the presence of mobile entities, independents and capables to interact with other also mobile entities. Hence, the proposed security model heavily relies on security policy rules with mandatory enforcements for the control of information flow. Security levels are used to independently tag the entities involved in the communication events: active objects and transmitted data. These "independent" tagging is however subject to discretionary rules. The combination of mandatory and discretionary rules allows to relax the strict controls imposed by the sole use of mandatory rules. The final security model follows an approach whose advantages are twofold: A sound foundation. The security model is founded on a strong theoretical background, the Asynchronous Sequential Processes (ASP) calculus {CHS_POPL04}, related to well-known formalisms {HR_infoFlow,Hen,CBC,CF}. Then, the formal semantics of ASP are extended with predicate conditions. This provides a formal basis to our model and, at the same time, makes it possible to dynamically check for unauthorized accesses. Finally, in order to prove the correctness of the security model, an intuitive secure information flow property is defined and proved to be ensured by the application of the access control model. Scalability and flexibility. A practical use of this model is also targeted, with an implementation into middlewares, e. G. ProActive. The granularity of this security model is defined in order to make it both efficient (because there are no security checks inside an activity) and finely tunable: levels can be defined on activities because of the absence of shared memory, but a specific level can be given for request parameters and created activities. Moreover, the practical implementation of the security mechanism allows its use through high level library calls with no need to change the programming language or the existence of special compilers
APA, Harvard, Vancouver, ISO, and other styles
17

Ferraris, Christine. "Acquisition des connaissances et raisonnement dans un univers multi-agents : application à la prise de décision en génie civil urbain." Nancy 1, 1992. http://docnum.univ-lorraine.fr/public/SCD_T_1992_0024_FERRARIS.pdf.

Full text
Abstract:
Cette thèse se situe dans le domaine de l'intelligence artificielle, dans le cadre plus particulier des systèmes multi-agents. Les idées, propositions et réalisations qui y sont présentées sont issues des difficultés que nous avons rencontrées en traitant le cas particulier d'un système multi-experts en maintenance de voirie urbaine, le système ROSY (road system), développé en collaboration avec la mairie de Nancy. Ce système sert à illustrer les propositions émises tout au long du manuscrit. Nous présentons tout d'abord succinctement l'outil ATOME, générateur de systèmes à multi-bases de connaissances fondé sur le modèle du blackboard réalisé dans notre laboratoire, avec lequel ROSY est développé. Nous décrivons ensuite le système multi-experts en lui-même. Cette modélisation est issue de l'analyse de la démarche experte et de l'acquisition des connaissances nécessaires au raisonnement expert. Les principales techniques utilisées lors du processus d'acquisition des connaissances avec l'expert en voirie urbaine sont détaillées et une méthode d'acquisition faisant appel à la notion de constructeurs est proposée. Le problème de la modélisation des connaissances est alors abordé. Dans un premier temps, nous nous consacrons à l'étude de la représentation de données et connaissances particulières, principalement les données visuelles et les règles graduelles. Nous voyons alors les modifications qui ont été apportées aux spécialistes de l'outil ATOME de facon à reproduire plus fidélement le raisonnement expert. De même, des propositions sont émises pour une meilleure gestion de la communication entre tâche et spécialistes et pour un contrôle plus explicite.
APA, Harvard, Vancouver, ISO, and other styles
18

Gurhem, Jérôme. "Paradigmes de programmation répartie et parallèle utilisant des graphes de tâches pour supercalculateurs post-pétascale." Thesis, Lille, 2021. http://www.theses.fr/2021LILUI005.

Full text
Abstract:
Depuis le milieu des années 1990, les bibliothèques de transmission de messages sont les technologies les plus utilisées pour développer des applications parallèles et distribuées. Des modèles de programmation basés sur des tâches peuvent être utilisés, par exemple, pour éviter les communications collectives sur toutes les ressources comme les réductions, les diffusions ou les rassemblements en les transformant en multiples opérations avec des tâches. Ensuite, ces opérations peuvent être planifiées par l'ordonnanceur pour placer les données et les calculs de manière à optimiser et réduire les communications de données.L'objectif principal de cette thèse est d'étudier ce que doit être la programmation basée sur des tâches pour des applications scientifiques et de proposer une spécification de cette programmation distribuée et parallèle, en expérimentant avec plusieurs représentations simplifiées d'applications scientifiques importantes pour TOTAL, et de méthodes linéaire classique dense et creuses. Au cours de la thèse, plusieurs langages de programmation et paradigmes sont étudiés. Des méthodes linéaires denses pour résoudre des systèmes linéaires, des séquences de produit matrice vecteur creux et la migration sismique en profondeur pré-empilement de Kirchhoff sont étudiées et implémentées en tant qu'applications basées sur des tâches.Une taxonomie, basée sur plusieurs de ces langages et paradigmes est proposée. Des logiciels ont été développés en utilisant ces modèles de programmation pour chaque application simplifiée. À la suite de ces recherches, une méthodologie pour la programmation de tâches parallèles est proposée, optimisant les mouvements de données en général et, en particulier, pour des applications scientifiques ciblées
Since the middle of the 1990s, message passing libraries are the most used technology to implement parallel and distributed applications. However, they may not be a solution efficient enough on exascale machines since scalability issues will appear due to the increase in computing resources. Task-based programming models can be used, for example, to avoid collective communications along all the resources like reductions, broadcast or gather by transforming them into multiple operations on tasks. Then, these operations can be scheduled by the scheduler to place the data and computations in a way that optimize and reduce the data communications. The main objective of this thesis is to study what must be task-based programming for scientific applications and to propose a specification of such distributed and parallel programming, by experimenting for several simplified representations of important scientific applications for TOTAL, and classical dense and sparse linear methods.During the dissertation, several programming languages and paradigms are studied. Dense linear methods to solve linear systems, sequences of sparse matrix vector product and the Kirchhoff seismic pre-stack depth migration are studied and implemented as task-based applications. A taxonomy, based on several of these languages and paradigms is proposed.Software were developed using these programming models for each simplified application. As a result of these researches, a methodology for parallel task programming is proposed, optimizing data movements, in general, and for targeted scientific applications, in particular
APA, Harvard, Vancouver, ISO, and other styles
19

Degirmenciyan, Irene. "Du paradigme essai-erreur au paradigme du choix dirigé : application à la mécanique : acteur unique, acteurs multiples." Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAP0453.

Full text
Abstract:
Bien que le concepteur d'aujourd'hui soit assisté d'outils lui permettant de dessiner, de simuler, de calculer, de modéliser, d'analyser, aucune aide n'est réellement apportée au niveau du processus général de conception. L'enrichissement de nos systèmes de CAO dépend maintenant de l'apport de techniques d'aide au raisonnement. L'objet de cette thèse est de montrer les limites du processus de conception classique et de proposer un nouveau paradigme, le paradigme du choix dirigé. Une première partie est consacrée au processus général de conception. L'analyse et la modélisation de ce processus montrent qu'il s'appuie sur une approche très itérative, en essai-erreur, ou le concepteur fait des hypothèses puis les vérifie. Un état de l'art des différentes approches et systèmes d'aide à la conception permet d'en souligner les manques. La nouvelle approche proposée repose sur l'exploitation et la vérification à priori des contraintes de conception, ce qui permet de diriger, de guider le concepteur dans ses choix de conception en vue de réduire le nombre d'itérations nécessaires à l'obtention d'une solution. De plus, la réalisation d'un ensemble technologique est bien souvent un travail morcelé. Il est constitué de sous-ensembles distincts mais néanmoins interdépendants, et leur élaboration nécessite la collaboration entre plusieurs spécialistes. La deuxième partie consiste à étendre le paradigme du choix dirigé à la conception multi-experts. Nous montrons l'adéquation des techniques de l'intelligence artificielle distribuée à modéliser le processus de conception multi-experts ainsi que la négociation entre concepteurs et la gestion des conflits
APA, Harvard, Vancouver, ISO, and other styles
20

Tran, Chi Dung. "Vers un environnement générique et configurable pour l'aide à l'évaluation des systèmes interactifs à base d'agents : application à un système d'aide à l'information voyageurs." Valenciennes, 2009. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/5d9390ed-9ec6-43ae-95c4-d85fb233aef0.

Full text
Abstract:
L’évaluation des systèmes interactifs est un domaine de recherche très actif depuis plus d’une trentaine d’années. Suite à l’apparition de systèmes interactifs à architecture dite à base d’agents, de nouvelles problématiques relatives à l’évaluation de tels systèmes apparaissent. Notre contribution réside dans la proposition d’un environnement générique et configurable baptisé EISEval (Environment for Interactive System Evaluation) pour l’aide à leur évaluation. En effet, il prend en compte leurs spécificités et étend les possibilités des mouchards électroniques traditionnels pour évaluer différents aspects d’un système : l’interface utilisateur, quelques propriétés non fonctionnelles (ex. : temps de réponse) et certaines propriétés de l’utilisateur. Cet environnement a été testé et validé dans le cadre du projet SART (Système d’Aide à la Régulation de Trafic), dans un cadre d’évaluation d’un système interactif dans le domaine des transports appelé SAI (Système d’Aide à l’Information des voyageurs). Les perspectives de recherche concernent l’évaluation et l’amélioration du système SAI, de même que l’amélioration de l’environnement d’évaluation proposé, afin d’augmenter son automatisation et l’intégrer dans un environnement d’évaluation intégré. Cet environnement permettrait de combiner des résultats d’évaluation provenant de différentes méthodes (y compris de l’environnement EISEval) pour l’aide à l’évaluation des systèmes interactifs
The evaluation of interactive systems has been a very active subject of research since more than around thirty years. The appearance of agent-based interactive systems implies new problems relative to the evaluation of such systems. Our contribution is to propose a generic and configurable environment baptized EISEval (Environment for Interactive System Evaluation) to assist the evaluation of agent-based interactive systems. Indeed, it takes into account specificities of such systems and extend the possibilities of the traditional electronic informers to evaluate different aspects of a system: the user interface, some non-functional properties (for instance: response time) and certain user’s properties. This environment has been validated by applying it in the SART project, to evaluate an interactive system in the field of transport called IAS (Information Assistance System). The research perspectives concern the evaluation and the improvement of the SAI system, and the improvement of the proposed evaluation environment to increase its automation and integrate it into an integrated environment. This environment would allow to combine evaluation results from various methods (including the proposed EISEval environment) to assist the evaluation of interactive systems
APA, Harvard, Vancouver, ISO, and other styles
21

Akazan, Justin N'Guessan. "Contribution à l'intégration de la messagerie industrielle MMS dans les systèmes et applications temps réel et répartis." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL067N.

Full text
Abstract:
Compte tenu de l'importance de la communication dans un Système Automatise (SA), le réseau MAP (Manufacturing Automation Protocol) et, en particulier, le protocole MMS (Manufacturing Message Specification) ont été développés afin de permettre la communication et la synchronisation entre des machines hétérogènes dans un SA. Bien que MMS offre des facilités de communication et de synchronisation entre taches réparties, ce protocole présente des faiblesses, notamment au niveau de la prise en compte des contraintes temporelles, alors que celles-ci sont fondamentalement importantes dans les environnements qui utilisent MMS. Par ailleurs, l'utilisation de MMS dans des environnements industriels est limitée en raison de la difficulté inhérente à l'usage de MMS. Cette thèse est une contribution à la résolution de ces problèmes. Elle est structurée en trois parties: 1. Présentation de l'importance de la communication, donc de MMS, dans les systèmes automatisés. 2. Présentation d'un outil de développement d'applications temps réel fondées sur MMS. À partir d'une spécification d'application temps réel et répartie, cet outil, baptisé MMS-Toolkit, permet de générer les services de communication MMS ainsi que les contraintes temporelles provenant de la spécification de l'application. Il permet ainsi d'automatiser, en partie, l'étape de passage d'une architecture fonctionnelle à une architecture opérationnelle. 3. Présentation d'une approche d'extension de MMS du point de vue temps réel. Il s'agit de l'intégration des contraintes de temps dans les objets, services et le protocole MMS afin de mieux prendre en compte la dimension temporelle des applications faisant appel à MMS. Les contraintes de temps exprimées sur les objets et les services n'offrent d'intérêt que si les exécutions auxquelles elles sont associées sont ordonnancées en vue de respecter ces contraintes. Ainsi l'ordonnancement temps réel de taches et de messages devient primordial pour MMS temps réel ; il est donc étudié dans cette partie. La thèse se termine par une conclusion montrant les résultats obtenus et les perspectives envisagées pour poursuivre ce travail
APA, Harvard, Vancouver, ISO, and other styles
22

Sueur, Dominique. "Algorithmes de redistribution de données : application aux systèmes de fichiers parallèles distribués." Lille 1, 1997. http://www.theses.fr/1997LIL10197.

Full text
Abstract:
L'exploitation du parallelisme necessite une distribution prealable des donnees sur les processeurs. Cette distribution de calcul n'est habituellement pas conforme a la distribution utilisee sur les disques. Chaque operation d'entrees/sorties necessite alors une operation de redistribution pour migrer les donnees des processeurs de calculs aux nuds d'entrees/sorties. En generale, une redistribution est une operation couteuse. Cependant la plupart des redistributions usuelles acceptent une modelisation simplifiee. A partir de ces modeles simples nous avons defini des algorithmes efficaces. Ces algorithmes minimisent le nombre et le volume des messages et utilisent les processeurs de calculs en parallele avec les nuds d'entrees/sorties. Pour tirer profit de toute les ressources, il faut repartir au mieux les messages sur l'ensemble des destinataires. Les redistributions qui generent de nombreux conflits ont ete identifiees. Pour ces cas precis, nous avons calcule un ordonnancement optimal des messages. Les mesures effectuees sur une ferme de processeurs alpha montrent que le gain par rapport a un algorithme enumeratif general est toujours superieur a cinq. A partir de ces algorithmes nous avons construit un systeme de fichiers adapte aux machines paralleles heterogenes et au modele de programmation a parallelisme de donnees. Notre environnement integre notamment la notion de peripherique virtuel distribue. Chaque peripherique parallele est defini par une grille de nuds d'entrees/sorties et par une fonction de distribution semblable a celles utilisees par le langage hpf. Le concept de peripherique virtuel distribue est fondamental car il permet la reutilisabilite. Le programmeur accede a des fichiers logiques, sans avoir a connaitre l'organisation des donnees dans le systeme de fichiers. Les algorithmes de redistributions sont declenches dynamiquement a chaque operation d'entrees/sorties paralleles.
APA, Harvard, Vancouver, ISO, and other styles
23

Namyst, Raymond. "Pm2 : un environnement pour une conception portable et une exécution efficace des applications parallèles irrégulières." Lille 1, 1997. http://www.theses.fr/1997LIL10028.

Full text
Abstract:
Ce travail s'inscrit dans le cadre du projet espace dont l'objectif est de définir un cadre méthodologique ainsi qu'un environnement de développement pour la conception d'applications parallèles irrégulières sur architectures distribuées. La parallélisation de ces applications, dont le comportement n'est pas. Prévisible à priori, pose problème aux niveaux de l'expression du découpage parallèle, de la prise en charge des différentes taches à l’exécution et de leur répartition sur les processus disponibles. La contribution de cette thèse se traduit par la définition et la réalisation d'un support exécutif distribué basé sur la notion de processus léger nommé PM#2 constituant la base de l'environnement espace. Dans l'optique d'une virtualisation totale de l'architecture, nous proposons un modèle de conception des applications s'articulant autour de trois axes principaux qui sont 1) un découpage des applications irrégulières à l'aide des mécanismes d'appel de procédure à distance léger et de clonage léger, 2) un ordonnancement préemptif des processus légers et 3) des mécanismes permettant la migration des processus légers (mobilité). La conjonction de ces concepts rend possible la conception d'applications indépendantes de l'architecture s’exécutant efficacement en contexte distribué, moyennant l'utilisation d'une couche logicielle définissant la stratégie d'ordonnancement des activités. La réalisation de cet environnement s'appuie principalement sur une bibliothèque de processus légers de niveau utilisateur, nommée Marcel, conçue dans le cadre de cette thèse. Notre démarche montre comment il est possible d’accéder à des fonctionnalités évoluées (telles que la migration) et à des performances élevées sans sacrifier la portabilité de l'environnement. Actuellement, MP#2 est opérationnel sur six architectures et utilisé dans plusieurs laboratoires de recherche français. Les premières conclusions issues de ces collaborations confirment la pertinence de notre approche
APA, Harvard, Vancouver, ISO, and other styles
24

Druilhe, Rémi. "L'Efficience Énergétique des Services dans les Systèmes Répartis Hétérogènes et Dynamiques : Application à la Maison Numérique." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00915321.

Full text
Abstract:
La maison est un environnement dans lequel de plus en plus d'équipements sont interconnectés. Cette multiplication des équipements informatiques et des services associés augmente la consommation d'énergie de la maison numérique. Pour limiter cette tendance, les équipements de l'électronique grand public contrôlent leur consommation d'énergie individuellement, indépendamment les uns des autres. Les environnements répartis offrent de nouvelles opportunités de gestion de la consommation d'énergie des équipements. Ce travail propose de mettre en place une coordination intelligente entre les équipements de façon à limiter la consommation énergétique de l'ensemble de ces équipements tout en délivrant les mêmes services. Notre approche consiste à déplacer des composants logiciels d'un équipement à l'autre afin de maximiser l'efficience énergétique de la maison numérique. Cependant, ces déplacements sont contraints à la fois par l'environnement, e.g., ressources matérielles disponibles, et par les besoins des composants logiciels, e.g., ressources matérielles requises, présence de l'utilisateur. Pour concevoir un tel système, il est nécessaire de considérer les propriétés intrinsèques à la maison numérique dont l'hétérogénéité, la dynamicité et la qualité de service. L'hétérogénéité nécessite une modélisation de chaque équipement et de chaque service suivant des critères différenciant, e.g., ressources matérielles, présence de l'utilisateur. La dynamicité requiert de modifier la répartition des composants logiciels lorsqu'un événement significatif survient, e.g., apparition d'un équipement, afin de conserver l'efficience énergétique. Enfin, la mise en place de solutions moins énergivores ne doit pas impacter la qualité de service, e.g., satisfaire les besoins en ressources matérielles des composants logiciels. Nous proposons une modélisation de ces propriétés. Ce modèle est ensuite considéré par un système décisionnel autonome. Sur l'observation d'événements significatifs, le système prend la décision de modifier la répartition des composants sur les équipements afin d'atteindre l'objectif d'efficience énergétique tout en satisfaisant à la qualité de service. L'implantation du système décisionnel est réalisée par une architecture elle-même conçue pour être efficiente énergétiquement. Le système décisionnel est considéré comme un service à part entière. Il est construit comme les autres services présents dans l'environnement, et est donc capable de se déplacer d'un équipement à un autre pour s'exécuter sur celui qui est le plus approprié en fonction du contexte. L'approche est validée au travers de son implémentation appelée HomeNap et le déroulé de scénarios de la vie courante. Les résultats obtenus montrent des gains énergétiques. Ces résultats montrent également que les gains sont fonctions des usages de la maison numérique. Enfin, ces gains s'accroissent lorsque le nombre d'équipements et de services augmente, ce qui correspond à la tendance actuellement observée.
APA, Harvard, Vancouver, ISO, and other styles
25

Trouilhet, Sylvie. "Représentation et traitement des connaissances sociales chez l'agent : application à l'environnement multi-agent SYNERGIC." Toulouse 3, 1993. http://www.theses.fr/1993TOU30131.

Full text
Abstract:
L'intelligence artificielle distribuee cherche a construire des systemes informatiques ou les connaissances, les traitements et les autorites sont repartis entre plusieurs agents. Ces systemes multi-agents peuvent etre destines a la resolution de problemes complexes ou a la coordination d'actions. Les principes mis en uvre dans une dizaine de systemes existants (atome, caramel, hearsay-ii, sahara,. . . ) sont analyses. L'agent est considere comme une entite autonome, capable de representer ses propres connaissances, de prendre des decisions et d'interagir avec son environnement. Concevoir un systeme multi-agent demande d'implanter un controle des activites et des mecanismes de communication qui respectent les criteres de flexibilite, de fiabilite et d'efficacite. L'interaction des agents est une problematique essentielle dans les univers multi-agents. Dans la plupart des systemes, cette interaction se traduit par la communication d'informations. L'objectif de cette these est de resoudre divers problemes souleves par la communication, et ce, dans un cadre cognitif. Nous considerons que les actes de communication sont effectues grace aux connaissances sociales des agents. Elles leur permettent de determiner l'instant de la communication, de fixer son contenu (concis et comprehensible) et de choisir les bons interlocuteurs. Ces connaissances et leurs traitements sont implantes dans les agents de synergic. . . . .
APA, Harvard, Vancouver, ISO, and other styles
26

Wargui, Mohammed. "Développement et implantation d'une architecture de commande répartie autour du bus CAN : application aux robots mobiles." Amiens, 1998. http://www.theses.fr/1998AMIE0120.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Zwolakowski, Jacub. "A formal approach to distributed application synthesis and deployment automation." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC116.

Full text
Abstract:
Des applications reparties complexes sont assemblées en connectant des composants logiciels distribués sur plusieurs machines. Concevoir et déployer tels systèmes est un problème difficile, qui nécessite un niveau important d'expertise: l'architecte système doit s'assurer que toutes les dépendances des composants sont satisfaits, éviter les composants incompatibles et ajuster la quantité de répliques du chaque composant pour tenir compte de la qualité de service et la tolérance aux pannes. Dans un environnement cloud il faut aussi minimiser les ressources virtuelles utilisées, afin de réduire le coût. Une fois l'architecture complète est conçue, il est nécessaire d'orchestrer correctement le processus de déploiement, en assurant que tous les composants sont installés, démarrés et connectés dans le bon ordre. Dans ce travail, nous décrivons le modèle formel Aeolus et l'outil Zephyrus, développés au cours du projet de recherche Aeolus, qui tente d'aborder les défis scientifiques liés à l'administration des systèmes distribués modernes et de les résoudre en pratique. Le modèle Aeolus nous permet d'exprimer une spécification de haut niveau du système souhaité, l'ensemble des composants disponibles avec leurs exigences et la quantité maximale de ressources virtuelles à engager. L'outil Zephyrus, basé sur ce modèle formel, est capable d'automatiser l'assemblage des applications distribuées complexes: il synthétise l'architecture complète du système en plaçant les composants de manière optimale sur les machines disponibles. Autres outils développés dans le projet Aeolus peuvent ensuite être utilisés pour déployer automatiquement le système complet dans un environnement cloud
Complex networked applications are assembled by connecting software components distributed across multiple machines Building and deploying such systems is a challenging problem which requires a significant amount of expertise: the system architect must ensure that ail component dependencies are satisfied, avoid conflicting components, and add the right amount of component replicas to account for quality of service and fault-tolerance. In a cloud environment, one also needs to minimize the virtual resources provisioned upfront, to reduce the cost of operation. Once the full architecture is designed, it is necessary to correctly orchestrate the deployment process, to ensure ail components are installed, started and connected in the right order. In this work, we describe the different variants of the Aeolus formai model and the Zephyrus tool developed during the Aeolus research project, which attempts to tackle the scientific challenges related to the administration of modern distributed systems and solve them in practice. The various parts of the Aeolus model allow us to express a high-level specification of the desired system, the set of available components together with their requirements, and the maximal amount of virtual resources to be committed. The associated Zephyrus tool, based on this formai model, is capable of automating the assembly of complex distributed applications: it synthesizes the full architecture of the system, placing components in an optimal mimer using the minimal number of available machines Other tools developed in the Aeolus project cari then be used to automatically deploy the complete system in a cloud environment
APA, Harvard, Vancouver, ISO, and other styles
28

Tronel, Frédéric. "Application des problèmes d'accord à la tolérance aux défaillances dans les systèmes distribués asynchrones." Rennes 1, 2003. http://www.theses.fr/2003REN10146.

Full text
Abstract:
Le but de cette thèse concernait l'application des problèmes d'accord au domaine de la tolérance aux défaillances dans les systèmes distribués asynchrones. Pour cela, nous avons tout d'abord exploré de nombreuses voies théoriques concernant le plus fondamental des problèmes d'accord, à savoir le problème du consensus. Cela nous a permis d'établir une hiérarchie des problèmes distribués reposant sur la difficulté à les résoudre en présence de pannes. Puis nous avons mis au point un algorithme probabiliste et général pour le problème du consensus. Cela nous a permis de concevoir une plateforme de tolérance aux défaillances reposant sur deux librairies. D'une part une librairie appelée Eva et conçu de façon à faciliter le développement d'applications distribuées, et d'autre part une librairie appelée Adam reposant sur la première librairie et qui fournit un ensemble de fonctionnalités pour la mise au point de services dupliqués et tolérants les pannes.
APA, Harvard, Vancouver, ISO, and other styles
29

Pouillon, Nicolas. "Modèle de programmation pour applications parallèles multitâches et outil de déploiement sur architecture multicore à mémoire partagée." Paris 6, 2011. http://www.theses.fr/2011PA066389.

Full text
Abstract:
Cette thèse présente une méthode de conception conjointe matérielle/logicielle de systèmes multiprocesseurs intégrés sur puce (MP-SoC) et l’outil DSX l'implémentant. Par la place qu’ils occupent, les systèmes sur puce nécessitent une optimisation de leur performance et leur consommation. Dans ce but, les SoC sont aujourd’hui équipés de plusieurs processeurs, généralement hétérogènes car optimisés pour une tâche donnée. Pour tirer le meilleur parti du système, la plateforme matérielle et le logiciel du système doivent être développés conjointement. Le cycle de développement d’un SoC impose de faire de nombreux choix architecturaux. Ils portent sur l'ensemble de la structure de l'application et de son déploiement. La méthode de conception proposée repose le prototypage virtuel pour modéliser le système complet. Le prototype est constitué d’une plateforme matérielle réaliste, construite à l’aide de la bibliothèque de composants SoCLib. Elle héberge une application supportée par le système d’exploitation MutekH. L’outil DSX assiste le concepteur en générant le prototype virtuel et logiciel embarqué à partir d’une description de haut niveau. Des méthodes et outils d’instrumentation et d’analyse puissants s’intègrent tant au niveau logiciel que matériel. Ils permettent au concepteur de mieux comprendre les conséquences de ses choix architecturaux. Les résultats obtenus montrent la capacité de DSX à décrire un grand nombre d’applications différentes ainsi qu’une facilité d’exploration architecturale et d’analyse des résultats obtenus. Ils confirment ainsi l’efficacité de la méthode.
APA, Harvard, Vancouver, ISO, and other styles
30

Bouzouane, Abdenour. "Un modèle multi-agents basé sur le tableau noir : Application au pilotage d'une délégation d'assurances." Ecully, Ecole centrale de Lyon, 1993. http://www.theses.fr/1993ECDL0032.

Full text
Abstract:
Les deux aspects majeurs de la resolution cooperative de problemes auxquels nous nous sommes attaques, concernent le controle de la resolution et le partage de competence entre des experts pour qu'ils cooperent. Cette these presente les resultats de l'etude ayant conduit a la proposition d'un modele de resolution et de representation de connaissances a caracteres multi-experts. Le modele multi-mondes (m3) propose s'inscrit dans la lignee des systemes a tableau noir dans lequel est introduit un controle adaptatif. Ce modele est base sur une hierarchie de paquets thematiques coherents de connaissances que l'on appelle mondes de connaissances (mcs). L'organisation des mcs correspond a une architecture multi-agents multi-niveaux permettant de construire des briques de raisonnement en allant du traitement le plus general au plus specifique. La cooperation entre le mcs s'effectue a travers un memoire locale de communication, elle est assuree par des composants de meme type appeles mondes de connaissances de controle. Le controle adapte au sein d'un groupe de mc est fonction du caractere (pluridisciplinaire, interdisciplinaire) du probleme qui lui est imparti. Afin de valider pratiquement ces mecanismes, un prototype smeig#x a ete realise. Son objectif est de fournir un support intelligent d'aide a la gestion strategique d'une delegation d'assurances. Les principes de base de smeig sont: une architecture integree a base du m3, dans laquelle toutes les donnees sont accessibles par les differents outils
APA, Harvard, Vancouver, ISO, and other styles
31

Denneulin, Yves. "Conception et ordonnancement des applications hautement irrégulières dans un contexte de parallélisme à grain fin." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-428.pdf.

Full text
Abstract:
La parallelisation des applications hautement irregulieres posent, du fait de leur comportement imprevisible, le probleme du placement des activites pour une bonne exploitation de l'architecture parallele, de leur ordonnancement. Dans cette etude, les applications visees ne sont pas a travail constant, la quantite totale de calcul qu'elles necessitent depend de l'ordonnancement des activites et de leur granularite. Dans ce travail nous avons etudie l'influence de la granularite des activites sur les performances. Nous avons mis en evidence la dualite entre granularite applicative et executive qui apparait avec des supports d'execution a gros grain comme pvm. Pour resoudre ce probleme nous proposons d'utiliser un support d'execution a grain fin, pm2, qui propose des mecanismes de decomposition en activites et un modele executif base sur la concurrence, execution simultanee de toutes les activites, et la mobilite, migration des activites entre les processeurs durant leur execution. Nous nous basons sur ces caracteristiques pour definir un ordonnanceur qui place et deplace les activites sur les processeurs. Le, ou les, critere que cet ordonnancement doit minimiser etant dependant des applications, cet ordonnanceur est generique, donc instanciable pour de nouvelles applications. Nous avons implante un tel ordonnanceur qui prend en compte la dimension speculative des applications en utilisant la concurrence pour ordonnancer l'application en tache de fond. La gestion des activites de pm2 permet d'en borner le cout. L'autre aspect, applicatif, de ce travail concerne l'utilisation des priorites dans les applications d'optimisation combinatoire de type branch&bound.
APA, Harvard, Vancouver, ISO, and other styles
32

Putrycz, Erik. "Gestion de l’utilisation de ressources pour des applications distribuées à grande échelle." Evry-Val d'Essonne, 2002. http://www.theses.fr/2002EVRY0015.

Full text
Abstract:
Le développement des applications client-serveur basées sur des middlewares tels que CORBA et. NET crée de nouveaux besoins en terme de mise à l’échelle. Dans ce contexte, malgré l’évolution des capacités du matériel (CPU, stockage et réseau), les capacités d’une seule unité d’exécution ne sont plus toujours suffisantes pour répondre aux demandes de temps réponse et de réactivité pour un utilisateur final. Une solution courante est de répliquer les serveurs sur plusieurs hôtes afin d’augmenter la capacité de traitement disponible. Nos travaux s’intéressent à proposer des mécanismes adaptatifs d’allocations de ces ressources et à les faire intervenir de façon transparente à l’utilisateur et au développeur d’une application. Il existe de nombreux travaux dans le domaine du partage de charge mais la plupart ne sont pas dédiés au middleware et ne prennent pas en compte ses spécificités. De plus, les solutions existantes pour des middlewares sont souvent des réponses "ad-hoc" à des contexte précis et ont des politiques de décisions aveugles. En considérant le partage de charge au niveau du middleware nous pouvons prendre en compte la structure de l’application et l’intégrer de façon transparente. Afin de baser les décisions de partage de charge en fonction de l’état des hôtes, nous avons besoin d’une infrastructure de monitoring mais les modèles existants ne sont pas adaptés à la grande échelle. Nous proposons une architecture de partage de charge appelée DLBS et intégrant trois composantes : une infrastructure de monitoring est responsable de collecter et distribuer la charge aux hôtes impliqués, une combinaison de stratégies de décision fait intervenir différents critères de charge et l’intégration de ces mécanismes est transparente pour le développeur et l’utilisateur. Dans un premier temps, notre infrastructure de monitoring est chargée de surveiller de façon non intrusive les hôtes et de distribuer les données de charge en minimisant les coûts réseau. Ensuite, un ensemble d’algorithmes de décisions appelés stratégies est appliqué sur plusieurs points d’exécution de l’application et guident le partage de charge. Le modèle de programmation des stratégies aide à faire intervenir aisément des critères de charge dans les décisions avec un coût d’exécution réduit. L’adaptabilité à une application est assurée par la configuration non-fonctionnelle des stratégies. La programmation par aspects est utilisée pour la portabilité et l’intégration dans un middleware existant. Nous avons réalisé un prototype de DLBS afin de valider notre conception. L’infrastructure de monitoring est développée pour Linux et DLBS a été intégré à ORBacus et à OpenORB.
APA, Harvard, Vancouver, ISO, and other styles
33

Lavault, Christian. "Algorithmique et complexité distribuées : applications à quelques problèmes fondamentaux de complexité, protocoles distribués à consensus, information globale, problèmes distribués d'élection et de routage." Paris 11, 1987. http://www.theses.fr/1987PA112392.

Full text
Abstract:
Présentation d'un cadre général pour l'étude et l'analyse des algorithmes répartis et résolution de plusieurs problèmes de fond relatifs à la complexité dans les systèmes répartis. Développement de divers outils d'analyse en moyenne de la complexite en messages de protocoles généraux à consensus. Résolution par l'analyse mathématique d'un problème ouvert sur les performances comparées des anneaux uni et bidirectionnels pour la complexité en moyenne en messages d'algorithmes d'élection déterministes. Un algorithme probabiliste de construction d'un arbre couvrant sur un système distribué anonyme et quelconque est développé. Deux théorèmes sont proposés qui bornent la faille des messages en fonction de la complexite en messages des algorithmes distribués asynchrones du point de vue de la quantité d'information.
APA, Harvard, Vancouver, ISO, and other styles
34

Ribert, Arnaud. "Structuration évolutive de données : application à la construction de classifieurs distribués." Rouen, 1998. http://www.theses.fr/1998ROUES073.

Full text
Abstract:
Les travaux présentés dans ce mémoire abordent le problème de l'enrichissement de la base d'apprentissage des systèmes de classification. L'approche retenue repose essentiellement sur la distribution du problème de classification qui permet un classifieur modulaire, donc évolutif. La méthodologie mise en place consiste a utiliser l'information non supervisée fournie par une hiérarchie indicée en conjonction avec l'information supervisée fournie par un operateur humain. Cette procédure permet d'identifier des régions de l'espace de représentation (dénommées ilots) ou la concentration d'éléments d'une même classe est forte. La structure de la hiérarchie indicée permet ensuite de construire une hiérarchie de classifieurs associes aux ilots et regroupements d'ilots. La pertinence de la distribution obtenue a été vérifiée sur une base de chiffres manuscrits (NIST) à l'aide de perceptrons multi-couches et de l'algorithme des k plus proches voisins. Afin d'obtenir un classifieur distribue évolutif, nous présentons un algorithme de construction de hiérarchie indicée capable de prendre en compte l'ajout d'un nouvel élément sans recalculer la totalité de la hiérarchie. La validation expérimentale de cet algorithme a montré qu'il permettait d'économiser d'importantes ressources mémoires (moyennant un choix d'ultramétrique judicieux) mais que son coût de calcul devait être diminué. Dans le cadre d'une aide à l'étiquetage de nouvelles données nous avons introduit un algorithme de catégorisation multi-échelle ne nécessitant pas la connaissance a priori du nombre d'agrégats dans les données. La validation sur une base de chiffres manuscrits a montré le bon comportement de l'algorithme. La dernière partie de ce mémoire présente notre contribution à un modèle neuronal développé au PSI ces dernières années particulièrement adapté à une utilisation dans une hiérarchie de classifieurs évolutifs, notamment grâce à ces capacités d'auto-configuration.
APA, Harvard, Vancouver, ISO, and other styles
35

Es-Sqalli, Tawfik. "Méthodes et outils pour les communications dans les applications de calcul distribué." Nancy 1, 2000. http://docnum.univ-lorraine.fr/public/SCD_T_2000_0141_ES-SQALLI.pdf.

Full text
Abstract:
MeDLey (Message Définition Language) est un langage de spécification des communications pour les applications parallèles. Son principe repose sur l'implantation des communicationssur différentes plates-formes de communication en utilisant un langage et une syntaxe unifiés. L'apport original de la thèse a été guidé par le besoin de faire évoluer ce langage pour couvrir un champ d'application plus vaste. Nous avons focalisé nos recherches sur les architectures parallèles à mémoire distribuée composées d'un réseau de stations. Dans ce cadre, une première extension a concerné les communications collectives ; nous avons proposé une nouvelle approche permettant de spécifier et réaliser ce type de communication. La deuxième extension a concerné les méthodes de décompositions de domaines ; nous avons définit un nouveau mode d'interconnexion, puis proposé des fonctions permettant d'appliquer ces méthodes. La troisième extension avait pour objectif l'implantation de ce langage dans un environnement CORBA.
APA, Harvard, Vancouver, ISO, and other styles
36

Saidouni, Djamel-Eddine. "Sémantique de maximalité : application au raffinement d'actions dans LOTOS." Toulouse 3, 1996. http://www.theses.fr/1996TOU30040.

Full text
Abstract:
Cette thèse se situe dans le cadre de méthodes de conception de systèmes répartis s'appuyant sur des techniques de raffinement d'actions. En considérant la technique de description formelle lotos comme langage d'étude, elle aborde des problèmes théoriques concernant l'adéquation de différentes sémantiques du parallélisme pour la mise en oeuvre du raffinement d'actions. Bien que la sémantique d'entrelacement soit souvent considérée comme étant la plus simple pour exprimer le parallélisme, elle ne permet pas de représenter correctement le comportement de systèmes concurrents dès que les actions ne sont plus atomiques. La non atomicité des actions implique l'utilisation de sémantiques de vrai parallélisme, dont deux, la maximalité et la causalité, sont développées ici pour lotos. Dans le but de mieux comprendre différents aspects du raffinement d'actions, et de faciliter son exploitation ultérieure, nous avons défini le modèle des arbres maximaux qui est à la base de la sémantique dénotationnelle proposée pour lotos. Cette sémantique a été prouvée compatible avec la sémantique opérationnelle structurée de maximalite de lotos étendu par un opérateur de raffinement d'actions. Pour comparer sémantiques de maximalite et de causalité, la même approche technique a été utilisée pour proposer une nouvelle définition des arbres causaux, dans laquelle les références statiques ont été remplacées par des références dynamiques. Les arbres ainsi obtenus sont appelés arbres causaux dynamiques. Finalement, dans le but de passer de l'étude théorique du raffinement d'actions à sa mise en oeuvre pratique, nous avons proposé une solution permettant d'effectuer un raffinement syntaxique d'actions en lotos, et qui prend en compte le problème du rendez-vous multiple
APA, Harvard, Vancouver, ISO, and other styles
37

Bonello, Christophe. "Mise en œuvre et application de la reconfiguration quasi-dynamique sur SuperNode." Lyon 1, 1993. http://www.theses.fr/1993LYO10303.

Full text
Abstract:
C-net est un environnement de programmation pour supernode qui tire parti des possibilites de reconfiguration dynamique du reseau d'interconnexion de cette machine. C-net permet le developpement de programmes a phases. D'un point de vue algorithmique, le modele de programmation a phases est base sur l'idee que la plupart des algorithmes peuvent etre decomposes en une serie de mouvements de donnees elementaires. Ainsi, ces algorithmes peuvent etre mis en uvre comme une serie de phases ou, chaque phase est executee sur la topologie la mieux adaptee aux mouvements de donnees correspondant. Ce memoire se decompose en trois grandes parties dans lesquelles on aborde successivement le choix du modele de reconfiguration, l'interface utilisateur de c-net pour le developpement de programmes a phases ainsi que quelques exemples d'algorithmique reconfigurable
APA, Harvard, Vancouver, ISO, and other styles
38

Loukil, Adlen. "Méthodologies, Modèles et Architectures de Référence pour la Gestion et l'Echange de Données Médicales Multimédia : Application aux Projets Européen OEDIPE et BRITER." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0016.

Full text
Abstract:
La coopération entre les systèmes d’information médicaux constitue l’un des principaux challenges de la Télémédecine et de son principal corollaire : l’amélioration de la qualité des soins. Cependant, aucune solution d'ordre général n'a encore été proposée pour faciliter l’interopérabilité entre des systèmes de gestion de données hétérogène, et ce malgré l'intérêt que suscite ce problème. Après avoir présenté une synthèse des architectures et. Standards existants, nous proposons dans ce mémoire une solution générale qui consiste en la définition de protocoles de communications entre les systèmes coopérants et en la conception de modules générique et réutilisables assurant la gestion de la communication, l’extraction et la mise çà jour automatique des bases de données cibles. Ces modules applicatifs s’appuient sur un dictionnaire de données modélisant la structure des messages de donnée véhiculés par les protocoles de communication, la structure des bases de données cibles, et les interrelations entre les deux. Des procédures de rétro conception et de génération automatique de commandes SQL ont été implémentées afin de répondre aux contraintes d'évolutivité des schémas des bases de données. Nous décrivons à titre d’exemple l'architecture applicative implémentée dans le cadre du projet OEDIPE pour interfacer des protocoles d’échange de données et de signaux en Cardiologie avec des bases de données électrocardiographiques de référence. Enfin, nous traitons de la modélisation et de l’intégration de systèmes de gestion de dossiers médicaux répartis par le biais de protocoles de communications préétablis. Nous présentons d'abord une approche multidimensionnelle de la structuration des informations contenues dans les dossiers médicaux et en proposons un modèle d'information générique. Puis nous explicitons l'architecture d'un système développé pour l’échange de données hétérogènes multi sources à des fins de Télé expertise dans le domaine de la Réhabilitation (projet BRITER). Nous démontrons ainsi que l'utilisation de protocoles de communication standard permet la réutilisation d'applications portables et interopérables, d’un grand intérêt pour les professionnels de santé
Interchange and Integration of medical data is a fundamental task in modern medicine. However, a significant obstacle to the development of efficient interoperable information systems is the lack of software tools that provide transparent access to heterogeneous distributed databases. Currently most of the solutions are stand-alone ones fitting only one configuration. To solve this problems of integration and interoperability, we propose in this thesis an original approach which is based on the definition of communication protocols and the design of generic interface between the specific implementations of the protocols and the target databases associated to the Hospital Information Systems. The proposed solution is based on the development of a data dictionary modelling the communications protocols and the databases structures and generic module for the data storage and extraction. The design involves issues related to reverse engineering procedures and to automatic generation of SQL statements. To illustrate this approach, we present the demonstration prototype we have developed in the framework of the OEDIPE AIM project to experiment and to test open interchange of ECGs and associated clinical data. The second part is devoted to the modelling and integration of distributed electronic patient records using communications protocols. We first present a multidimensional approach for the structuring of patient records and propose a generic object oriented information model which integrates bio signals, images and accompanying clinical information. We then, describe a prototype system which has been developed in the framework of the BRITER AIM project for accessing and handling heterogeneous patient data stored in distributed electronic patient records in order to support Rehabilitation healthcare professional in making decisions. We thus demonstrate that the use of standard communications protocols allows and facilitate the development of portable and interoperable medical applications for the benefit of the health care field
APA, Harvard, Vancouver, ISO, and other styles
39

Séraphin, John. "Réalisation d'un intranet : cohérence d'un ensemble réparti et communicant, autour d'une architecture réflexive." Paris 5, 1998. http://www.theses.fr/1998PA05S007.

Full text
Abstract:
Un intranet permet de déployer les applications client-serveur sur l'ensemble des postes de l'entreprise. Il concerne cependant des centaines de personnes, peu familières des technologies et de l'approche hypertexte. Les problèmes de cohérence et de persistance des liens, des modèles de documents, des feuilles de style, d'administration et d'exploitation de l'ensemble, s'avèrent alors d'une acuité inconnue sur l'internet. Nous présentons ici une architecture de base, réflexive, orientée-documents et commune a un intranet qui associe dans sa phase actuelle le web, les bases de données, un métalangage de manipulation de description et des techniques issues de l'intelligence artificielle, pour proposer aux utilisateurs connectes au réseau d'entreprise un accès fiable et uniforme a un ensemble facilement extensible de données locales ou transversales. Ricercar met en place un ensemble de bases de métadonnées fédérées qui décrivent et référencent les objets disponibles. Les serveurs web associes à ces bases composent ainsi dynamiquement les documents correspondants, indépendamment du serveur interroge ou de la localisation effective de ces données. Cette architecture garantit la qualité de service en assurant notamment la permanence des url publiées et la génération dynamique de la structure (l'arborescence) d'un serveur. Elle propose un modèle de navigation uniforme, géré l'authentification et les accès des utilisateurs et, enfin, autorise une surveillance d'ensemble ainsi que des statistiques de fréquentation modulaires et significatives. Suite a ses différents amorçages, Ricercar enregistre, dans cette même base repartie, la description et les références de ses propres données ainsi que celle des méta-scripts utilises pour générer dynamiquement les documents de l'intranet. Cette réflexivité, qui lui permet de manipuler et d'enrichir ses structures, en fait ainsi un système ouvert et adaptatif. Nous analysons donc les spécificités techniques et organisationnelles qui singularisent à notre sens l'intranet par rapport à l'internet ainsi que leur implémentation dans Ricercar, compare à un orb, dont nous présenterons les applications concrètes ainsi que les différentes perspectives d'évolution.
APA, Harvard, Vancouver, ISO, and other styles
40

Bouzefrane, Samia. "Etude temporelle des applications temps réel distribuées à contraintes strictes basée sur une analyse d'ordonnançabilité." Poitiers, 1998. http://www.theses.fr/1998POIT2254.

Full text
Abstract:
Ce travail presente une methodologie de modelisation et de validation d'applications temps reel reparties. Ces applications composees de taches reparties sur differents sites communiquent par echange de messages a travers un reseau de communication a delai d'acces borne suppose fiable. La methodologie developpee est basee sur une analyse d'ordonnancabilite des taches et des messages. L'objectif est d'une part de verifier le respect des contraintes temporelles globales d'une application temps reel repartie c'est a dire le respect, a la fois, des contraintes temporelles des taches et de celles des messages echangees entre ces taches et d'autre part d'utiliser les sequences d'execution obtenues pour faire une analyse de performance. Cette methodologie comprend trois etapes : la modelisation de l'application basee sur un modele temporel des taches, la prise en compte de la communication par derivation des parametres temporels des taches et l'ordonnancement des taches sur les sites et des messages sur le medium de communication. Un outil, appele mosarts, qui integre un calcul des criteres de performance implemente cette methodologie d'analyse.
APA, Harvard, Vancouver, ISO, and other styles
41

Duque, Hector. "Conception et mise en oeuvre d'un environnement logiciel de manipulation et d'accès à des données réparties : application aux grilles d'images médicales : le système DSEM / DM2." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0050/these.pdf.

Full text
Abstract:
La vision que nous défendons est celle de grilles biomédicales partenaires des systèmes médicaux (hôpitaux), à la fois fournisseuses de puissance de calcul et plates-formes de partage d'informations. Nous proposons une architecture logicielle de partage d'images médicales réparties à grande échelle. S'appuyant sur l'existence a priori d'une infrastructure de grille, nous proposons une architecture multi-couche d'entités logicielles communicantes (DSE : Distributed Systems Engines). Fondée sur une modélisation hiérarchique sémantique, cette architecture permet de concevoir et de déployer des applications réparties performantes, fortement extensibles et ouvertes, capables d'assurer l'interface entre grille, systèmes de stockage de données et plates-formes logicielles locales (propres aux entités de santé) et dispositifs d'acquisition d'images, tout en garantissant à chaque entité une maîtrise complète de ses données dont elle reste propriétaire
Our vision, in this thesis, is the one of a bio-medical grip as a partner of hospital's information systems, sharing computing resources as well as a platform for sharing information. Therefore, we aim at (i) providing transparent access to huge distributed medical data sets, (ii) querying these data by their content, and (iii), sharing computing resources within the grip. Assuming the existence of a grip infrastructure, we suggest a multi-layered architecture (Distributed Systems Engines – DSE). This architecture allows us to design High Performance Distributed Systems which are highly extensible, scalable and open. It ensures the connection between the grip, data storing systems, and medical platforms. The conceptual design of the architecture assumes a horizontal definition for each one of the layers, and is based on a multi-process structure. This structure enables the exchange of messages between processes by using the Message Passing Paradigm. These processes and messages allow one to define entities of a higher level of semantic significance, which we call Drivers and, which instead of single messages, deal with different kinds of transactions: queries, tasks and requests. Thus, we define different kinds of drivers for dealing with each kind of transaction, and in a higher level, we define services as an aggregation of drivers. The architectural framework of drivers and services eases the design of components of a Distributed System (DS), which we call engines, and also eases the extensibility and scalability of DS
APA, Harvard, Vancouver, ISO, and other styles
42

Saqui-Sannes, Pierre de. "Prototypage d'un environnement de validation de protocoles : application à l'approche ESTELLE." Toulouse 3, 1990. http://www.theses.fr/1990TOU30109.

Full text
Abstract:
La detection au plus tot des erreurs de conception d'un systeme reparti repose en particulier sur la validation des protocoles qui regissent la communication et la synchronisation. Les travaux presentes dans ce memoire portent sur la technique de description formelle estelle normalisee a l'iso et sur le prototypage d'un environnement de validation de protocoles decrits au moyen de cette technique. Deux propositions d'extensions renforcent le pouvoir d'estelle tant du point de vue de l'expression des comportements paralleles que de la description des structures de donnees echangees par des processus d'application. Un mecanisme de rendez-vous est defini de maniere formelle en s'appuyant sur les recherches anterieures pour rapprocher estelle des reseaux petri, outil de modelisation pour lequel existent des techniques de validation eprouvees. L'extension de ces techniques a des descriptions estelle est l'objet du developpement de l'outil estim qui offre a la fois des fonctionnalites de simulation pour l'analyse interactive d'un protocole et des fonctionnalites de verification pour l'obtention automatique de l'automate quotient qui caracterise le service rendu par le protocole. Les experimentations ont montre que la methodologie proposee pour l'outil estim reduit le fosse entre l'etape de validation et l'implantation reelle d'un protocole. Developpe en ml sur la base d'une semantique formelle d'estelle, le prototype realise demeure un support d'evaluation d'estelle et de ses extensions
APA, Harvard, Vancouver, ISO, and other styles
43

Benouhiba, Toufik. "Approche génétique et floue pour les systèmes d'agents adaptatifs : application à la reconnaissance des scenarii." Troyes, 2005. http://www.theses.fr/2005TROY0014.

Full text
Abstract:
L’objectif de la thèse est l’utilisation minimale de connaissances a priori pour engendrer des règles incertaines manipulant des données imprécises. Cet objectif a été testé via une structure multi-agents et appliqué à la reconnaissance de scénarii. Les travaux réalisés sont répartis sur trois axes : - Le premier concerne le raisonnement incertain en utilisant des données imprécises. La théorie de l’évidence et la logique bi-floue ont été utilisées pour modéliser ce raisonnement. – Le deuxième axe correspond aux systèmes classifieurs et à la programmation génétique utilisés dans le but d’engendrer les règles de reconnaissance. L’approche développée utilise la puissance offerte par la programmation génétique et la combine aux systèmes classifieurs. Un nouveau mécanisme d’apprentissage par renforcement a été proposé assurant l’utilisation de la théorie de l’évidence comme outil de raisonnement. – Le troisième axe concerne la coopération dans les systèmes multi-agents adaptatifs. Le rendement des systèmes classifieurs a été amélioré en introduisant une coopération explicite entre des agents classifieurs. Nous proposons également un nouvel opérateur de fusion de données basé sur la théorie de l’évidence et adapté aux types de données manipulées. L’approche développée a été appliquée à la reconnaissance des manœuvres automobiles. Dans ce sens, nous proposons une architecture multi-agents pour la reconnaissance et un découpage des manœuvres en plusieurs couches assurant leur reconnaissance avec un certain niveau de granularité
The objective of this thesis is to use minimal a priori knowledge in order to generate uncertain rules which manipulate imprecise data. The proposed architecture has been tested on a multi-agent system to recognize scenarios. The realized works are distributed into three axis: - The first one concerns uncertain reasoning with imprecise data. The evidence theory and intuitionistic fuzzy logic have been used to model such reasoning. – The second axis corresponds to classifier systems and genetic programming. The proposed approach use the power of genetic programming and combine it to classifier systems. A new learning mechanism based on evidence theory is introduced in order to use this theory as a support of reasoning. – The third axis concerns cooperation in adaptive multi-agents systems. Classifier systems have been improved by using an explicit cooperation between a number of classifier agents. We also propose a new data fusion operator based on evidence theory and adapted to the manipulated data. The developed system has been used to recognize car’s maneuvers. In fact, we have proposed a multi-agent architecture to make recognition. Maneuvers are decomposed into several layers in order to recognize them with a given granularity level
APA, Harvard, Vancouver, ISO, and other styles
44

Noudohouenou, José. "Prédiction de performance utilisant une caractérisation des applications orientée codelet." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0030.

Full text
Abstract:
Comprendre l'interaction existante entre applications, compilateurs, et architecture est fondamentale pour fabriquer de meilleurs produits: applications, compilateurs, et processeurs. L'un des moyens traditionnels permettant d'aborder ce problème reste l'expérimentation. Cependant cette méthode utilisant des applications complètes présente plusieurs inconvénients majeurs: complexité des applications pour faire, par exemple, de la simulation, ou une analyse détaillée de la performance de l'application; impossibilité d'avoir une vue précise de l'interaction; et enfin difficulté à prédire la performance d'une autre application n'existant pas dans la collection initiale. Cette thèse effectue une caractérisation systématique des applications en quatre étapes: extraction de code, analyse de performance, caractérisation mémoire, et prédiction de performance au niveau matériel. Afin de prédire la performance d'un code à une autre fréquence, cette thèse combine analyses statique et dynamique, ainsi que de la caractérisation mémoire pour proposer l'outil Capacity, destiné à la prédiction de performance au niveau matériel et à la découverte de connaissance. L'outil proposé est à la fois plus précis et plus rapide que les simulations, plus informatif que de simples expériences ou micro-expériences. Il est également utile et instructif pour diagnostiquer les problèmes de performance de code. Aujourd'hui, cet outil est utilisé par la technologie Cape-sim d'Intel pour simuler la performance d'un code à une autre fréquence
Understanding the interaction between applications, compilers, and architecture is a fundamental issue to generate better products: applications, compilers, and processors. One of the traditional tools to approach this problem is benchmarking. However, this approach through full applications has several key drawbacks. First, full applications are complex and hard to use as test codes for simulation, or detailed performance analysis. Second, dealing with full applications does not allow having an accurate view of the interaction. In the end, it is fairly hard to predict the performance for another application, which is not present in the original benchmark suite. This thesis performs a systematic characterization of applications in four steps: code extraction, performance analysis, memory characterization, and hardware performance prediction. In order to predict a code's performance at another frequency, this thesis combines static and dynamic analysis with memory characterization to propose the Capacity tool, a framework for hardware performance prediction and knowledge discovery. The proposed tool is more accurate and faster than simulations, more informative than simple benchmarking, or micro-benchmarking. Furthermore, it is useful and enlightening for a range of performance investigations. Currently, the framework is used by the Intel Cape-sim technology to simulate a software system's performance at another frequency
APA, Harvard, Vancouver, ISO, and other styles
45

Baert, Quentin. "Négociation multi-agents pour la réallocation dynamique de tâches et application au patron de conception MapReduce." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I047/document.

Full text
Abstract:
Le problème Rm||Cmax consiste à allouer un ensemble de tâches à m agents de sorte à minimiser le makespan de l’allocation, c’est-à-dire le temps d’exécution de l’ensemble des tâches. Ce problème est connu pour être NP-dur dès que les tâches sont allouées à deux agents ou plus (m ≥ 2). De plus, il est souvent admis que le coût d’une tâche est précisément estimé pour un agent et que ce coût ne varie pas au cours de l’exécution des tâches. Dans cette thèse, je propose une approche décentralisée et dynamique pour l’amélioration d’une allocation de tâches. Ainsi, à partir d’une allocation initiale et pendant qu’ils exécutent les tâches, les agents collaboratifs initient de multiples enchères pour réallouer les tâches qui restent à exécuter. Ces réallocations sont socialement rationnelles, c’est-à-dire qu’un agent accepte de prendre en charge une tâche initialement allouée à un autre agent si la délégation de cette tâche bénéficie à l’ensemble du système en faisant décroître le makespan. De plus, le dynamisme du procédé permet d’améliorer une allocation malgré une fonction de coût peu précise et malgré les variations de performances qui peuvent survenir lors de l’exécution des tâches. Cette thèse offre un cadre formel pour la modélisation et la résolution multi-agents d’un problème de réallocation de tâches situées. Dans un tel problème, la localité des ressources nécessaires à l’exécution d’une tâche influe sur son coût pour chaque agent du système. À partir de ce cadre, je présente le protocole d’interaction des agents et je propose plusieurs stratégies pour que les choix des agents aient le plus d’impact sur le makespan de l’allocation courante. Dans le cadre applicatif de cette thèse, je propose d’utiliser ce processus de réallocation de tâches pour améliorer le patron de conception MapReduce. Très utilisé pour le traitement distribué de données massives, MapReduce possède néanmoins des biais que la réallocation dynamique des tâches peut aider à contrer. J’ai donc implémenté un prototype distribué qui s’inscrit dans le cadre formel et implémente le patron de conception MapReduce. Grâce à ce prototype, je suis en mesure d’évaluer l’apport du processus de réallocation et l’impact des différentes stratégies d’agent
The Rm||Cmax problem consists in allocating a set of tasks to m agents in order to minimize the makespan of the allocation, i.e. the execution time of all the tasks. This problem is known to be NP-hard as soon as the tasks are allocated to two or more agents (m ≥ 2). In addition, it is often assumed that the cost of a task is accurately estimated for an agent and that this cost does not change during the execution of tasks. In this thesis, I propose a decentralized and dynamic approach to improve the allocation of tasks. Thus, from an initial allocation and while they are executing tasks, collaborative agents initiate multiple auctions to reallocate the remaining tasks to be performed. These reallocations are socially rational, i.e. an agent agrees to take on a task initially allocated to another agent if the delegation of this task benefits to the entire system by decreasing the makespan. In addition, the dynamism of the process makes it possible to improve an allocation despite an inaccurate cost function and despite the variations of performance that can occur during the execution of tasks. This thesis provides a formal framework for multi-agent modeling and multi-agent resolution of a located tasks reallocation problem. In such a problem, the locality of the resources required to perform a task affects its cost for each agent of the system. From this framework, I present the interaction protocol used by the agents and I propose several strategies to ensure that the choices of agents have the greatest impact on the makespan of the current allocation. In the applicative context of this thesis, I propose to use this tasks reallocation process to improve the MapReduce design pattern. Widely used for the distributed processing of massive data, MapReduce has biases that the dynamic tasks reallocation process can help to counter. I implemented a distributed prototype that fits into the formal framework and implements the MapReduce design pattern. Thanks to this prototype, I am able to evaluate the effectiveness of the reallocation process and the impact of the different agent strategies
APA, Harvard, Vancouver, ISO, and other styles
46

Yousfi, Fouad. "Placo : modélisation par workflow et conception d'un système de planification coopérative : application aux unités de soins." Lille 1, 1996. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1996/50376-1996-111.pdf.

Full text
Abstract:
Bien que l'ordinateur soit a present banal sur les lieux de travail, sa presence n'a guere modifie les relations et les contacts entre individus. Mais les technologies de l'informatique et de la communication continuent a converger et cette evolution favorise, d'une part, les collaborations entre individus, et d'autre part, la coordination des taches qu'ils executent au sein d'un veritable espace de travail electronique. Les recherches afferentes ont fait emerger un nouveau domaine scientifique appele computer-supported cooperative work (cscw) ou le travail cooperatif assiste par ordinateur (tcao). Ce domaine est vraisemblablement le plus vaste et le plus complexe qui soit du fait qu'il marie plusieurs disciplines telles que l'informatique, la psychologie, la sociologie, les sciences cognitives, l'expertise (en medecine, en education et enseignement,), etc. Les logiciels issus de ces recherches sont communement appeles groupware, ou encore collecticiels. Comme les utilisateurs d'une certaine categorie de groupware sont repartis dans l'espace et le temps, il est naturel de concevoir des systemes qui soient des systemes distribues, mettant en valeur la decentralisation des donnees et du controle. Il faut egalement considerer les groupware sous l'angle de la coordination afin que les interactions, ainsi rendues possibles, deviennent aussi efficaces que les echanges face a face, evitant tout a la fois les ruptures dans les processus de conversation (breakdowns) et les conflits. L'objectif de cette these consiste en l'etude d'architectures logicielles qui permettent la coordination des taches dans un environnement distribue. La modelisation des processus de conversation s'est appuyee sur la theorie du workflow de winograd & flores. L'accent est mis sur la coordination de taches impliquant de nombreux agents differents. Le partage des taches induit souvent des conflits entre participants. La recherche est particulierement orientee dans cet aspect resolution et prevention de conflits. Nous proposons a titre d'exemple, d'appliquer notre recherche a la coordination des taches dans les unites de soins intensifs et de reanimation ou la cohesion du travail doit etre primordiale entre medecins et infirmieres. Les defauts de coordination sont ici a l'origine de breakdowns qui peuvent etre prejudiciables au fonctionnement de l'unite medicale comme a la prise en charge des malades. Lesdits breakdowns proviennent essentiellement des mauvaises interactions entre participants.
APA, Harvard, Vancouver, ISO, and other styles
47

Gerlinger, Gilles. "Diagnostic en temps réel par système expert : application à un système de diagnostic embarqué sur automobile." Compiègne, 1991. http://www.theses.fr/1991COMPD366.

Full text
Abstract:
Il existe un intérêt grandissant à l'heure actuelle pour les systèmes experts (SEs) dits « temps réel ». A cela, on peut voir deux raisons. Tout d'abord un SE est capable, dans des cas où il n'existe pas de solution algorithmique satisfaisante, de résoudre un problème en un temps réaliste (polynomial), notamment à l'aide d'heuristiques appropriées. Ensuite, les applications temps réel peuvent bénéficier de certaines caractéristiques des SEs, particulièrement intéressantes vis-à-vis des contraintes de temps, comme la possibilité de faire progresser le travail déjà effectué sans le remettre en cause dans sa globalité ou la capacité à estimer le sous-espace de recherche le plus prometteur en fonction de l'état du système. Cependant, l'intégration d'un SE dans une application temps réel soulève bon nombre de difficultés. Globalement, le SE doit satisfaire trois exigences principales : 1) l'intégration dans l'environnement extérieur, c'est-à-dire avec les autres composants logiciels de l'application temps réel; 2) le fonctionnement en temps réel, qui recouvre des concepts comme le fonctionnement en continu, la prise en compte de données asynchrones, la focalisation d'attention, l'activation, etc. ; 3) la prise en compte du temps dans le raisonnement, afin que le SE puisse déterminer la position relative d'événements dans le temps. Tous ces aspects ont été développés à partir d'un générateur de SEs existant, le système SUPER. La démarche suivie est de faire du SE une des pièces d'un système temps réel conventionnel. Les points forts concernant par conséquent les problèmes d'interruption en cours de raisonnement, de communication et d'interaction entre modules et enfin de temps de réponse. Une application d'un tel système a été réalisée dans le cadre du projet européen PROMETHEUS avec la mise au point d'un système de diagnostic embarqué sur véhicule.
APA, Harvard, Vancouver, ISO, and other styles
48

Mosli, Bouksiaa Mohamed Said. "Performance variation considered helpful." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLL001/document.

Full text
Abstract:
Comprendre les performances d'une application multi-thread est difficile. Les threads interfèrent quand ils accèdent à la même ressource, ce qui ralentit leur exécution. Malheureusement, les outils de profiling existants se focalisent sur l'identification des causes de l'interférence, et non pas sur ses effets.Le développeur ne peut donc pas conclure si l'optimisation d'une interférence identifiée par un outil de profiling peut mener à une meilleure performance. Dans cette thèse, on propose de compléter les outils existants par un outil orienté-effet capable de quantifier l'impact de l'interférence sur la performance, indépendamment de la cause de l'interférence. Avec une évaluation de 27 applications, on montre que notre outil réussit à identifier 12 bottlenecks causés par 6 types d'interférence différents
Understanding the performance of a multi-threaded application is difficult. The threads interfere when they access the same resource, which slows their execution down. Unfortunately, current profiling tools focus on identifying the interference causes, not their effects.The developer can thus not know if optimizing the interference reported by a profiling tool can lead to better performance. In this thesis, we propose to complete the profiling toolbox with an effect-oriented profiling tool able to indicate how much interference impacts performance, regardless of the interference cause. With an evaluation of 27 applications, we show that our tool successfully identifies 12 performance bottlenecks caused by 6 different kinds of interference
APA, Harvard, Vancouver, ISO, and other styles
49

Blanc, Pascale. "Détection de propriétes de repos globales dans des systèmes répartis avec désequencement de messages : application au problème de terminaison." Paris 6, 1990. http://www.theses.fr/1990PA066039.

Full text
Abstract:
Cette these traite de la conception et de la verification d'algorithmes de detection de proprietes globales. En particulier, differents algorithmes de detection de la terminaison distribuee sont presentes. Dans la premiere partie de la these, nous presentons une methode pour detecter des proprietes de repos globales d'une application repartie lorsque le desequencement des messages est possible. Une propriete de repos globale est une propriete qui, lorsqu'elle devient vraie pour un etat, reste vraie pour tous les etats suivants. La methode que nous proposons est basee sur l'introduction de deux techniques, l'observation et la collecte, qui permettent de transformer une application afin qu'elle puisse detecter ses proprietes de repos globales. L'observation definit les variables et les messages necessaires pour la caracterisation de l'etat de l'application vis-a-vis de la propriete de repos que l'on veut rechercher. La collecte definit les variables et les messages necessaires pour le rassemblement des informations caracteristiques. Pour prouver que l'application transformee est correcte, c'est-a-dire qu'elle detecte a bon escient ses proprietes de repos globale, l'utilisation d'une preuve par invariant est proposee. En utilisant ces methodes, une classe d'algorithmes distribues est definie, les algorithmes a enquete. Dans la deuxieme partie de la these, nous developpons des algorithmes a enquete qui resolvent le probleme de la terminaison d'une application repartie. La terminaison est une propriete de repos globale d'une application repartie. Elle est verifiee lorsque tous les processus qui composent l'application ont termine leur calcul local et qu'il n'y a plus de message en transit qui pourrait relancer ces calculs. Pour traiter le desequencement des messages, deux solutions sont presentees, l'une basee sur l'envoi d'accuses de reception de messages, l'autre sur le comptage de me
APA, Harvard, Vancouver, ISO, and other styles
50

Owezarski, Philippe. "Conception et formalisation d'une application de visioconférence coopérative. Application et extension pour la téléformation." Phd thesis, Université Paul Sabatier - Toulouse III, 1996. http://tel.archives-ouvertes.fr/tel-00175248.

Full text
Abstract:
Les progrès récents dans le domaine de l'informatique et des réseaux de communications ont ouvert la voie aux applications distribuées multimédias coopératives. La problématique associée à la conception de telles applications comporte plusieurs points. Tout d'abord, les données multimédias se caractérisent par leur qualité de service en termes de fiabilité, de débit engendré, de synchronisation temporelle¿ Les applications multimédias doivent donc garantir le respect de la qualité de service de chacun des médias, le point essentiel consistant à assurer le respect des contraintes de synchronisation intra et inter-flux. De même, le support de communication doit pouvoir s'adapter aux contraintes des médias transportés et fournir un service adéquat en terme de débit, fiabilité, délai de bout en bout¿ Enfin, les utilisateurs ont de plus en plus besoin de travailler en groupe pour leurs applications informatiques, et des mécanismes de coopération doivent être introduits. Dans cette thèse, des mécanismes ont été proposés pour répondre à cette problématique et ont été mis en oeuvre dans le cadre d'une application de visioconférence. Ainsi, la synchronisation multimédia est réalisée par un moteur utilisant des mécanismes avancés des systèmes opératoires et respectant un scénario modélisé par un réseau de Petri à flux temporels. La communication utilise un transport à ordre partiel qui s'adapte bien aux contraintes de cette application autant en terme de débit que de fiabilité, et permet d'en augmenter les performances. Enfin, cette visioconférence a été étendue pour prendre en compte des notions de travail de groupe et offre, en particulier, un contrôle des entrées/sorties des participants et des interactions au sein du groupe. Une architecture générale garantissant ces contraintes temporelles et de coopération a ainsi été proposée et réalisée. Enfin, ces techniques ont été appliquées à une application de téléformation professionnelle dans le domaine de l'aéronautique.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography