To see the other types of publications on this topic, follow the link: Base de données réparties.

Dissertations / Theses on the topic 'Base de données réparties'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Base de données réparties.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kerhervé, Brigitte. "Vues relationnelles : implantation dans les systèmes de gestion de bases de données centralisés et répartis." Paris 6, 1986. http://www.theses.fr/1986PA066090.

Full text
Abstract:
Nous décrivons les choix qui ont été faits dans le prototype SABRE. Nous analysons par la suite l'implantation de vues concrètes qui correspondent à la matérialisation des vues relationnelles. Nous montrons que ces vues concrètes permettent de définir un nouveau type de SGBD réparti où la définition et le stockage des données sont faits en fonction des interrogations sur les sites distants, de manière à maximiser les interrogations locales. Nous décrivons et analysons les mécanismes nécessaires à l'implantation d'un tel type de SGBD réparti par vues concrètes, notamment du point de vue des mises à jour.
APA, Harvard, Vancouver, ISO, and other styles
2

Robert, de Saint Victor Isabelle. "Système déductif dans le contexte de données réparties." Lyon 1, 1988. http://www.theses.fr/1988LYO10084.

Full text
Abstract:
La cooperation de prolog avec des bases de donnees est une strategie possible pour construire une base de connaissances. Elle permet d'utiliser l'acquis dans les domaines de l'inference par prolog et de la gestion des donnees avec les sgbds. Dans l'approche presentee, le dialogue entre prolog et les sgbds est realise par un processeur de communication. Son role est triple: 1) vehiculer l'information d'une maniere bidirectionnelle entre les deux systemes; 2) traduire les besoins en information, issus de prolog et exprimes en algebre relationnelle etendue, en requetes dans les langages de manipulation de donnees des sgbds; 3) gerer la repartition des donnees par un jeu d'operateurs algebriques et resoudre des requetes recursives
APA, Harvard, Vancouver, ISO, and other styles
3

Driouche, Mohamed. "Un système de gestion de base de données réparties dans un environnement temps réel." Paris 6, 1989. http://www.theses.fr/1989PA066730.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Vargas-Solar, Genoveva. "Service d'évènements flexible pour l'intégration d'applications bases de données réparties." Université Joseph Fourier (Grenoble ; 1971-2015), 2000. http://www.theses.fr/2000GRE10259.

Full text
Abstract:
Cette these propose le service d'evenements adees (adaptable and extensible event service), un composant logiciel supportant l'integration et l'execution d'applications bases de donnees construites a partir de composants heterogenes et repartis. Adees est une infrastructure de specification et de generation de services d'evenements. Les services generes implantent un metamodele de types et un metamodele de gestion d'evenements et permettent la specification et la generation de gestionnaires d'evenements par specialisation et instanciation de ces metamodeles. Les fonctionnalites d'un gestionnaire sont decrites par un schema qui associe un modele de types a un modele de gestion d'evenements. Guides par des contrats decrits par des instances de schemas, les gestionnaires interagissent avec des producteurs et des consommateurs pour detecter et notifier des evenements. Les proprietes d'adaptabilite et d'extensibilite statiques et dynamiques d'un service et de ses gestionnaires leur permettent de s'adapter aux besoins des applications et aux changements de l'environnement ou ils s'executent. Ces proprietes sont assurees dans adees par une technologie plug and play. Adees a ete utilise pour la construction de systemes actifs a base de gestionnaires d'evenements et de regles actives. Ces gestionnaires implantent la cooperation et l'interaction entre composants repartis d'applications bases de donnees. Adees a egalement ete utilise pour la specification et la mise en uvre d'un systeme de gestion de flots de travail. S'appuyant sur un service d'evenements et sur des systemes actifs, le systeme assure l'execution de flots de travail.
APA, Harvard, Vancouver, ISO, and other styles
5

Quiané-Ruiz, Jorge-Alnulfo. "Allocation de requêtes dans des systèmes d'information distribués avec des participants autonomes." Nantes, 2008. https://tel.archives-ouvertes.fr/tel-00464475.

Full text
Abstract:
Nous nous intéressons aux systèmes d’informations où les participants (clients et fournisseurs) sont souvent autonomes, c. . D. Ils peuvent quitter le système à n’importe quel moment, et ont des intérêts particuliers pour certaines requêtes. Dans ces environnements, l’allocation de requêtes est un défi parce que les participants ont généralement certaines attentes qui ne sont pas seulement liées aux performances du système. Dans ce contexte, l’insatisfaction des participants est un problème car elle peut conduire les participants à quitter le système. Par conséquent, il est très important de satisfaire les intérêts des participants de sorte qu’ils soient satisfaits. Dans cette thèse, nous abordons ce problème et effectuons quatre contributions principales. Primo, nous fournissons un modèle pour caractériser la perception des participants par rapport le système et proposons des mesures qui permettent d’évaluer la qualité des méthodes d’allocation de requêtes. Secundo, nous proposons SbQA : une méthode d’allocation de requêtes qui permet d’équilibrer à la volée les intérêts du client et ceux du fournisseurs en base à leur satisfaction. Tertio, nous proposons SbQA : une version économique de SbQA qui permet de passer à l’échelle en nombre de médiateurs, de participants, et par conséquent, de requêtes traitées. Quarto, nous proposons SbQR : une méthode de réplication de requêtes qui permet de supporter des possibles pannes des participants, tout en préservant la satisfaction des participants
In large-scale distributed information systems, where participants (consumers and providers) are autonomous and have special interests for some queries, query allocation is a challenge. Much work in this context has focused on distributing queries among providers in a way that maximizes overall performance (typically throughput and response time). However, participants usually have certain expectations with respect to the mediator, which are not only performance-related. Such expectations mainly reflect their interests to allocate and perform queries, e. G. Their interests towards: providers (based on reputation for example), quality of service, topics of interests, and relationships with other participants. In this context, because of participants’ autonomy, dissatisfaction is a problem since it may lead participants to leave the mediator. Participant’s satisfaction means that the query allocation method meets its expectations. Thus, besides balancing query load, preserving the participants’ interests so that they are satisfied is also important. In this thesis, we address the query allocation problem in these environments and make the following main contributions. First, we provide a model to characterize the participants’ perception of the system regarding their interests and propose measures to evaluate the quality of query allocation methods. Second, we propose a framework for query allocation, called SbQA, that dynamically trades consumers’ interests for providers’ interests based on their satisfaction. Third, we propose an query allocation approach, called SbQA, that allows a query allocation method (specifically SbQA) to scale up in terms of the numbers of mediators, participants, and hence of performed queries. Fourth, we propose a query replication method, called SbQR, that allows to support participants’ failures when allocating queries while preserving participants’ satisfaction and good system performance. Last, but not least, we analytically and experimentally validate our proposals and demonstrate that they yield high efficiency while satisfying participants
APA, Harvard, Vancouver, ISO, and other styles
6

Sarr, Idrissa. "Routage des transactions dans les bases de données à large échelle." Paris 6, 2010. http://www.theses.fr/2010PA066330.

Full text
Abstract:
La réplication dans les bases de données a été largement étudiée, au cours des trois dernières décennies. Elle vise à améliorer la disponibilité des données et à augmenter la performance d’accès aux données. Un des défis majeurs de la réplication est de maintenir la cohérence mutuelle des répliques, lorsque plusieurs d’entre elles sont mises à jour, simultanément, par des transactions. Des solutions qui relèvent partiellement ce défi pour un nombre restreint de bases de données reliées par un réseau fiable existent. Toutefois, ces solutions ne sont pas applicables à large échelle. Par ailleurs, l’antinomie entre les besoins de performances et ceux de cohérence étant bien connue, l’approche suivie dans cette thèse consiste à relâcher les besoins de cohérence afin d’améliorer la performance d’accès aux données. Dans cette thèse, nous considérons des applications transactionnelles déployées à large échelle et dont les données sont hébergées dans une infrastructure très dynamique telle qu’un système pair-à-pair. Nous proposons une solution intergicielle qui rend transparente la distribution et la duplication des ressources mais aussi leur indisponibilité temporaire. Nous définissons deux protocoles pour maintenir la cohérence globale: un premier protocole ordonne les transactions à partir de la définition a priori des données accédées, et un deuxième qui détermine un ordre plus souple, en comparant les données accédées, le plus tardivement possible, juste avant la validation des transactions. Toutes les solutions proposées tolèrent les pannes franches, fonctionnalité essentielle pour que les résultats de cette thèse puissent être mis en œuvre à très large échelle. Finalement, nous avons implémenté nos solutions pour les valider expérimentalement. Les tests de performances montrent que la gestion des métadonnées est efficace et améliore le débit transactionnel et que la redondance de l’intergiciel diminue le temps de réponse face aux situations de pannes.
APA, Harvard, Vancouver, ISO, and other styles
7

Meynard, Michel. "Contrôle de la cohérence des bases de données réparties et dupliquées, sujettes aux partitionnements." Montpellier 2, 1990. http://www.theses.fr/1990MON20022.

Full text
Abstract:
Cette these a pour objet d'etudier les partitionnements du reseau de communication dans les bases de donnees reparties et dupliquees. Apres avoir propose un modele de base de donnees et des transactions y accedant, on definit la coherence d'une execution concurrente partitionnee grace au critere de 1-serialisabilite. Puis, un panorama expose certaines methodes publiees de gestion de la duplication. Le chapitre iv enonce un protocole de gestion des parties virtuelles permettant aux sites d'une meme partie d'avoir la meme vue. Enfin les deux derniers chapitres exhibent deux methodes originales de gestion de la duplication: la methode optimiste permet de resoudre les incoherences grace a un graphe de precedence etabli apres la fusion de la base. D'autre part, le modele d'objet fragmentaire ameliore notablement la disponibilite de la base en adaptant le comportement des objets fragmentaires a la configuration de communication
APA, Harvard, Vancouver, ISO, and other styles
8

Ravat, Franck. "Od3 : contribution méthodologique à la conception de bases de données orientées objet réparties." Toulouse 3, 1996. http://www.theses.fr/1996TOU30150.

Full text
Abstract:
Nos travaux se situent dans le cadre de la conception de bases de donnees orientees objet (bdoo) reparties. La methode que nous proposons construit les schemas des bd locales par repartition d'un schema conceptuel global (approche descendante). Nous avons decompose ce processus de repartition en quatre etapes: ? l'acquisition des facteurs de la repartition consiste a dissocier les aspects statiques des aspects dynamiques. Cette dissociation permet d'appliquer les algorithmes de fragmentation sur les classes du schema statique en tenant compte d'informations du schema dynamique. Lors de cette etape le concepteur construit aussi un schema des frequences (des methodes) et des matrices d'usage (indiquant les donnees manipulees par chacune des methodes de la bd). ? pour la fragmentation, nous avons developpe des algorithmes de fragmentation des classes du schema statique. Ces algorithmes sont bases sur une extension des algorithmes developpes pour le modele relationnel et presentent l'avantage de tenir compte des besoins des methodes (fragmentation primaire) et de la structure du schema (fragmentation derivee). Nous avons aussi concu des algorithmes pour la definition d'unites d'allocation du schema dynamique. ? pour l'allocation, nous avons defini une fonction de cout qui minimise les couts de stockage et de communication afin de placer les donnees (fragments de classes) et les traitements (methodes). ? la derniere etape consiste en la construction des schemas conceptuels locaux en fonction du placement precedemment defini. Pour valider l'ensemble de ce processus, nous avons realise un outil d'aide a la conception qui effectue la fragmentation et l'allocation de facon automatique selon l'approche que nous proposons
APA, Harvard, Vancouver, ISO, and other styles
9

Bergougnoux, Patrick. "MIME, un environnement de développement coopératif pour applications distribuées." Toulouse 3, 1992. http://www.theses.fr/1992TOU30014.

Full text
Abstract:
Les langages de quatrieme generation ont pour vocation de repondre a un besoins pour les utilisateurs finaux de developper eux-memes leurs applications. Cependant, la montee en puissance de la micro-informatique et, l'avenement des reseaux locaux font apparaitre la necessite de mettre en uvre des applications complexes. Pour cela, les developpeurs doivent disposer d'outils puissants, certes moins accessibles aux novices, mais bien plus adaptes aux professionnels du developpement. Une etude detaillee des concepts utilises dans les langages de quatrieme generation existants sert de base a la determination de l'environnement le mieux adapte pour le developpement, en milieu reparti, d'applications pointues et conviviales. Un environnement issu de cette etude est alors propose: mime est concu pour la mise en uvre, par des specialistes du developpement, d'applications complexes supportees par des reseaux de micros. Sa structure est organisee autour d'un administrateur offrant a des modules clients les ressources proposees par les differentes composantes du systeme. Les principaux outils integres au sein de l'environnement de developpement sont un sequenceur automatique de modules, un pre-processeur de compilation, un gestionnaire d'entrees-sorties s'appuyant sur une banque d'ecrans et un systeme de gestion de la base de donnees relationnel. Les applications pouvant etre distribuees sur plusieurs postes, un traitement cooperatif, base sur le partage de services sur le reseau a travers une architecture client-serveur, est implemente au sein de l'environnement, puis au sein des applications developpees. Le fait que les utilisateurs cooperent au moyen de ces applications distribuees fait apparaitre la necessite de rendre coherentes les multiples informations traitees et affichees par les differents postes du systeme. Cette coherence visuelle est assuree grace a un nouveau mode de verrouillage de la base de donnees permettant le rafraichissement immediat des ecrans contenant des donnees mises a jour par d'autres utilisateurs
APA, Harvard, Vancouver, ISO, and other styles
10

Sahri, Soror. "Conception et implantation d'un système de bases de données distribuée & scalable : SD-SQL Server." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090013.

Full text
Abstract:
Le thème de recherche de cette thèse concerne la conception et l’implantation d’un système de gestion de bases de données distribuées et scalables (ang. Scalable Distributed Database System, SD-DBS) que nous avons appelé SD-SQL Server. SD-SQL Server implémente une nouvelle architecture de SGBD relationnel. Une base de SD-SQL Server, dite base scalable, grandit par la partition dynamique, scalable et distribuée de ses tables, dites scalables aussi. La partition et son évolution sont invisibles de l’usager/application. A l’heure actuelle, SD-SQL Server est le seul SGBD à offrir cette possibilité à notre connaissance. Les autres SGBDs connus, n’offrent au mieux que le partitionnement statique, nécessitant des réorganisations périodiques globales. Leur maniement est en général complexe et peu apprecié des usagers. Nos tables scalables sont organisées en segments d’une structure de données distribuée et scalable (SDDS). Chaque segment est placé sur un nœud lié de SQL Server. A l’heure actuelle, SQL Server supporte 250 nœuds liés, permettant à une table scalable de croître autant. L'expansion dynamique résulte des éclatements de segments débordant leur capacité de stockage. Chaque éclatement est déclenché par une insertion, à l’origine du débordement. Tout éclatement crée un ou plusieurs nouveaux segments. Les segments sont cachés des usagers/applications derrière les vues supportant les mises à jour, dites images. Les images sont des vues partitionnées et distribuées de SQL Server dynamiquement ajustées. Les usagers/applications de tables scalables n’interfacent que les images ou les vues des images
Our thesis elaborates on the design of a scalable distributed database system (SD-DBS). A novel feature of an SD-DBS is the concept of a scalable distributed relational table, a scalable table in short. Such a table accommodates dynamic splits of its segments at SD-DBS storage nodes. A split occurs when an insert makes a segment to overflow, like in, e. G. , B-tree file. Current DBMSs provide the static partitioning only, requiring a cumbersome global reorganization from time to time. The transparency of the distribution of a scalable table is in this light an important step beyond the current technology. Our thesis explores the design issues of an SD-DBS, by constructing a prototype termed SD-SQL Server. As its name indicates, it uses the services of SQL-Server. SD-SQL Server repartitions a table when an insert overflows existing segments. With the comfort of a single node SQL Server user, the SD-SQL Server user has larger tables or a faster response time through the dynamic parallelism. We present the architecture of our system, its implementation and the performance analysis
APA, Harvard, Vancouver, ISO, and other styles
11

Legtchenko, Sergey. "Adaptation dynamique des architectures réparties pour jeux massivement multijoueurs." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00931865.

Full text
Abstract:
Durant la dernière décennie, Les jeux massivement multijoueurs (MMOGs) sont devenus extrêmement populaires et comptent désormais plus de 20 millions d'utilisateurs actifs à travers le monde. Les MMOGs sont des systèmes distribués ayant des contraintes applicatives fortes en terme de cohérence de données, persistance, réactivité et passage à l'échelle. L'évolution des besoins applicatifs du MMOG au cours du temps est difficilement prévisible car dépendante du comportement des joueurs dans le monde virtuel. C'est pourquoi, malgré un important effort de recherche dans le domaine, aucune des architectures proposées ne satisfait pleinement toutes les contraintes requises. Cette thèse explore les capacités des architectures distribuées à s'adapter à la charge applicative grâce à une prise en compte du comportement des joueurs lors de l'exécution. Le système est alors capable de détecter des évolutions qui sont difficiles à prévoir à priori, et dynamiquement allouer les ressources nécessaires à l'application. Nous décrivons différentes techniques de surveillance des joueurs et proposons des moyens de prendre en compte ces informations au niveau de l'architecture. Nos expériences, effectuées dans des conditions réalistes, montrent que nos mécanismes ont un surcoût limité et permettent d'améliorer les performances globales du système.
APA, Harvard, Vancouver, ISO, and other styles
12

Le, Sergent Thierry. "Méthodes d'exécution et machines virtuelles parallèles pour l'implantation distribuée du langage de programmation parallèle LCS." Toulouse 3, 1993. http://www.theses.fr/1993TOU30021.

Full text
Abstract:
L'objet de cette these est l'implantation d'un langage de programmation parallele de haut niveau sur des machines physiques paralleles a memoire partagee ou distribuee. Le langage support de l'etude, lcs, combine les aspects haut niveau du langage fonctionnel standard ml et le modele des processus communicants ccs. L'implantation repose sur une machine virtuelle parallele, composee d'un nombre limite de machines virtuelles sequentielles elementaires partageant l'ensemble des objets construits dans un tas. Les principales contributions sont: (1) la gestion du tas partage, qui fait appel a un ramasse miettes s'executant en parallele sur les machines elementaires, incrementalement avec le calcul sur chacune d'elles. Un mecanisme original de credit de tracage, et des algorithmes distribues d'allocation permettent une cooperation totale entre les machines. Sur des machines cibles a memoire distribuee, le tas est construit par la technique de memoire virtuelle partagee distribuee, integree efficacement avec le ramasse miettes grace a l'utilisation dans les deux cas des protections d'acces aux pages memoire. (2) la gestion de l'ensemble des processus, pour laquelle un algorithme de repartition de charge, base sur l'emploi de bornes dynamiques, a ete concu. Ses proprietes sont demontrees, et les resultats confirmes par simulation. L'implementation effectuee a permis d'apprecier les qualites du ramasse miettes paralleles developpe
APA, Harvard, Vancouver, ISO, and other styles
13

Naacke, Hubert. "Modèle de coût pour médiateur de bases de données hétérogènes." Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0013.

Full text
Abstract:
Les @ systèmes distribués accèdent à des sources d'informations diverses au moyen de requêtes déclaratives. Une solution pour résoudre les problèmes liés à l'hétérogéneité des sources repose sur l'architecture médiateur / adaptateurs. Dans cette architecture, le médiateur accepte en entrée une requête de l'utilisateur, La traite en accèdant aux sources via les adaptateurs concernés et renvoie la réponse à l'utilisateur. Le médiateur offre une vue globale et centralisée des sources. Les adaptateurs offrent un accès uniforme aux sources, au service du médiateur. Pour traiter une requête de manière efficace, le médiateur doit optimiser le plan décrivant le traitement de la requête. Pour cela, plusieurs plans sémantiquement équivalents sont envisagés, Le coût (i. E. Le temps de réponse) de chaque plan est estimé afin de choisir celui de moindre coût qui sera exécuté. Le médiateur estime le coût des opérations traitées par les sources en utilisant les informations de coût que les sources exportent. Or, à cause de l'autonomie des sources, les informations exportées peuvent s'avérer insuffisantes pour estimer le coût des opérations avec une précision convenable. Cette thèse propose une nouvelle méthode permettant au développeur d'adaptateur d'exporter un modèle de coût d'une source à destination du médiateur. Le modèle exporté contient des statistiques qui décrivent les données stockées dans la source ainsi que des fonctions mathématiques pour évaluer le coût des traitements effectués par la source. Lorsque le développeur d'adaptateur manque d'information ou de moyen, il a la possibilité de fournir un modèle de coût partiel qui est automatiquement completé avec le modèle générique prédéfini au sein du médiateur. Nous validons expérimentalement le modèle de coût proposé en accèdant à des sources web. Cette validation montre l'efficacité du modèle de coût générique ainsi que celle des modèles plus spécialisés selon les particularités des sources et les cas d'applications
Les systemes distribues accedent a des sources d'informations diverses au moyen de requetes declaratives. Une solution pour resoudre les problemes lies a l'heterogeneite des sources repose sur l'architecture mediateur / adaptateurs. Dans cette architecture, le mediateur accepte en entree une requete de l'utilisateur, la traite en accedant aux sources via les adaptateurs concernes et renvoie la reponse a l'utilisateur. Le mediateur offre une vue globale et centralisee des sources. Les adaptateurs offrent un acces uniforme aux sources, au service du mediateur. Pour traiter une requete de maniere efficace, le mediateur doit optimiser le plan decrivant le traitement de la requete. Pour cela, plusieurs plans semantiquement equivalents sont envisages, le cout (i. E. Le temps de reponse) de chaque plan est estime afin de choisir celui de moindre cout qui sera execute. Le mediateur estime le cout des operations traitees par les sources en utilisant les informations de cout que les sources exportent. Or, a cause de l'autonomie des sources, les informations exportees peuvent s'averer insuffisantes pour estimer le cout des operations avec une precision convenable. Cette these propose une nouvelle methode permettant au developpeur d'adaptateur d'exporter un modele de cout d'une source a destination du mediateur. Le modele exporte contient des statistiques qui decrivent les donnees stockees dans la source ainsi que des fonctions mathematiques pour evaluer le cout des traitements effectues par la source. Lorsque le developpeur d'adaptateur manque d'information ou de moyen, il a la possibilite de fournir un modele de cout partiel qui est automatiquement complete avec le modele generique predefini au sein du mediateur. Nous validons experimentalement le modele de cout propose en accedant a des sources web. Cette validation montre l'efficacite du modele de cout generique ainsi que celle des modeles plus specialises selon les particularites des sources et les cas d'applications
APA, Harvard, Vancouver, ISO, and other styles
14

Hatimi, Mostafa. "Gestion des données dupliquées dans un environnement sujet aux partitionnements du réseau de communication." Montpellier 2, 1990. http://www.theses.fr/1990MON20133.

Full text
Abstract:
Cette these se situe dans le cadre de la gestion d'une base de donnees dupliquees et etudie les problemes qu'entrainent les pannes du reseau de communication. Dans un premier temps, nous exposons les concepts de base du controle de concurrence et de la repartition d'une base de donnees. Nous degageons ensuite un modele de gestion du reseau supportant la duplication des objets de la base, dont la nouveaute repose sur la notion de vue. Une vue est un groupe de sites cooperant pour l'execution d'une transaction initiee par l'un d'eux. Finalement nous proposons un algorithme original de construction des vues. Contrairement aux algorithmes existants reposant sur la connaissance a priori de la topologie du reseau, l'algorithme propose ici exploite une connaissance dynamique acquise par chacun des sites. Il permet a chaque site, de maniere independante, de determiner les sites qu'il doit inclure dans sa vue; ainsi un site peut appartenir a une ou plusieurs vues. La detection de partitionnement decoule d'une gestion souple et efficace des parties vivantes du reseau, chaque site connaissant l'identificateur de la partie ou il se trouve
APA, Harvard, Vancouver, ISO, and other styles
15

Al, King Raddad. "Localisation de sources de données et optimisation de requêtes réparties en environnement pair-à-pair." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/912/.

Full text
Abstract:
Malgré leur succès dans le domaine du partage de fichiers, les systèmes P2P sont capables d'évaluer uniquement des requêtes simples basées sur la recherche d'un fichier en utilisant son nom. Récemment, plusieurs travaux de recherche sont effectués afin d'étendre ces systèmes pour qu'ils permettent le partage de données avec une granularité fine (i. E. Un attribut atomique) et l'évaluation de requêtes complexes (i. E. Requêtes SQL). A cause des caractéristiques des systèmes P2P (e. G. Grande-échelle, instabilité et autonomie de nœuds), il n'est pas pratique d'avoir un catalogue global qui contient souvent des informations sur: les schémas, les données et les hôtes des sources de données. L'absence d'un catalogue global rend plus difficiles: (i) la localisation de sources de données en prenant en compte l'hétérogénéité de schémas et (ii) l'optimisation de requêtes. Dans notre thèse, nous proposons une approche pour l'évaluation des requêtes SQL en environnement P2P. Notre approche est fondée sur une ontologie de domaine et sur des formules de similarité pour résoudre l'hétérogénéité sémantique des schémas locaux. Quant à l'hétérogénéité structurelle de ces schémas, elle est résolue grâce à l'extension d'un algorithme de routage de requêtes (i. E. Le protocole Chord) par des Indexes de structure. Concernant l'optimisation de requêtes, nous proposons de profiter de la phase de localisation de sources de données pour obtenir toutes les méta-données nécessaires pour générer un plan d'exécution proche de l'optimal. Afin de montrer la faisabilité et la validité de nos propositions, nous effectuons une évaluation des performances et nous discutons les résultats obtenus
Despite of their great success in the file sharing domain, P2P systems support only simple queries usually based on looking up a file by using its name. Recently, several research works have made to extend P2P systems to be able to share data having a fine granularity (i. E. Atomic attribute) and to process queries written with a highly expressive language (i. E. SQL). The characteristics of P2P systems (e. G. Large-scale, node autonomy and instability) make impractical to have a global catalog that stores often information about data, schemas and data source hosts. Because of the absence of a global catalog, two problems become more difficult: (i) locating data sources with taking into account the schema heterogeneity and (ii) query optimization. In our thesis, we propose an approach for processing SQL queries in a P2P environment. To solve the semantic heterogeneity between local schemas, our approach is based on domain ontology and on similarity formulas. As for the structural heterogeneity of local schemas, it is solved by the extension of a query routing method (i. E. Chord protocol) with Structure Indexes. Concerning the query optimization problem, we propose to take advantage of the data source localization phase to obtain all metadata required for generating a close to optimal execution plan. Finally, in order to show the feasibility and the validity of our propositions, we carry out performance evaluations and we discuss the obtained results
APA, Harvard, Vancouver, ISO, and other styles
16

Mokadem, Riad. "Signatures algébriques dans la gestion de structures de données distribuées et scalables." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090014.

Full text
Abstract:
Les deux dernières décennies ont été marquées par l’apparition de nouveaux concepts architecturaux entraînant une évolution vers les systèmes distribués. C’est une conséquence de l’augmentation de la capacité de stockage des mémoires et de calcul et de l’arrivée de réseaux à haut débit, notamment locaux à 1Gb/s. La tendance dominante est le développement de nouveaux systèmes, dits d’abord: multi-ordinateur, Réseau de Stations de Travail et plus récemment, « Peer-to-Peer Computing » ou « Grid Computing ». Afin de tirer le meilleur profit des potentialités offertes, de nouvelles structures de données spécifiques aux données réparties sont nécessaires. Dans ce contexte, Les Structures de Données Distribuées et Scalables (SDDS) sont une nouvelle classe de structures introduites spécifiquement pour la gestion de fichiers sur un multi¬ ordinateur. Un fichier SDDS peut s'étendre dynamiquement, au fur et à mesure des insertions, d'un seul site de stockage à tout nombre de sites interconnectés disponibles en pratique. Les algorithmes d'adressages d'une SDDS sont conçus spécifiquement pour être scalables, notamment par absence d'un répertoire ou index central. La répartition de données est transparente pour l'application. Les données manipulées peuvent être entièrement en RAM distribuée afin d’être accessibles bien plus vite qu’à partir des disques. Plusieurs SDDS ont été proposées. Les plus connues sont celles basées sur le hachage, celui linéaire (LH*) notamment, et celles utilisant le partitionnement par intervalle (RP*). Un prototype appelé SDDS-2000a été construit vers l’année 2000 au CERIA pour expérimenter avec les SDDS sur les réseaux locaux des PC sous Windows. Dans ce système, on retrouve les fonctions de base de gestion de données telles que la création de fichiers, l’insertion d’enregistrements ou encore la possibilité de requêtes parallèles. En se basant sur SDDS-2000, notre Thèse a pour objectif la conception et l’implantation de nouvelles fonctions pour celui ci. Ces fonctions sont destinées à la sauvegarde de données sur le disque, un traitement plus efficace de mises à jour, le traitement de concurrence ainsi que celui de la recherche par le contenu (scans). Enfin, pour mieux répondre au contexte P2P, il nous fallait introduire une certaine protection de données stockées, au moins contre une découverte accidentelle de leurs valeurs. Ceci nous a conduit au problème intéressant de recherche de données par l’exploration directe de leur contenu encodé, sans décodage local. Nous avons basé l’ensemble de nos fonctions sur une technique nouvelle dite de signatures algébriques. Nous détaillons la théorie et notre pratique de signatures algébriques tout au long de cette Thèse. Ainsi, une sauvegarde sur disque n’écrit que les parties de la RAM modifiées depuis la dernière sauvegarde. Le contrôle de concurrence est optimiste, sans verrouillage, pour de meilleures performances d’accès. L’enregistrement mis à jour n’est envoyé au serveur que si la donnée est réellement modifiée. Puis, les données stockées sont suffisamment encodées pour rendre impossible toute découverte accidentelle de leurs valeurs réelles sur les serveurs. Nous les encodons à l’aide d’une variante de signatures algébriques, les signatures cumulatives. Notre encodage possède notamment des propriétés accélérant diverses recherches de chaînes de caractères, par rapport à celles explorant les mêmes données sans encodage. D’une manière un peu surprenante, certaines recherches se révèlent expérimentalement plus rapides que par des algorithmes fondamentaux bien connus, tels que celui de Karp-Rabin. Nous présentons des mesures de performance prouvant l’efficacité de notre approche. Notre système, appelé SDS-2005, a été dès lors annoncé sur DbWorld. Il est disponible sur le site du CERIA pour les téléchargements non commerciaux. Les détails de nos travaux ont fait l’objet de cinq publications dans des conférences internationales [LMS03, LMS05a, LMS05b, M06, LMRS06]. Notre prototype a également été montré à de nombreux visiteurs chercheurs. Il a fait l’objet d’une démonstration vidéo, diffusée notamment à Microsoft Research (Montain View, USA) et d’une présentation lors des journées académiques Microsoft. Dans notre mémoire, nous présentons d’abord l'état de l'art sur les SDDSs, en se basant sur celui de systèmes de fichiers distribués. Puis nous discutons l'architecture système de SDDS-2005. Celle-ci emploie notamment des structures de données spécifiques pour RAM, ainsi que des processus légers qui gèrent les traitements répartis à travers des files d'attente asynchrones. On présente ensuite le concept de signatures algébriques. Puis on détaille l’usage pour la sauvegarde d’un fichier SDDS et la mise à jour d’enregistrements. Nous discutons ensuite les signatures cumulatives. On décrit l’encodage de nos enregistrements. On présente les différents types de recherche par contenu non-clé (scans) dans notre système notamment la recherche par le préfixe et celle partielle d’une chaîne de caractère (ang pattern matching ou string search…) à travers plusieurs algorithmes alternatifs. Nous présentons un nouvel algorithme dit par n-Gramme semblant particulièrement simple d’usage et rapide On décrit aussi la recherche du plus grand préfixe et de la plus grande chaîne commune. Nous montrons que les signatures cumulatives sont particulièrement efficaces pour la recherche de longues chaînes telles que les images, les empreintes, les codes DNA…En réflexion sur les perspectives, on discute l’utilisation de ces signatures pour la compression différentielles lors des mises à jour distribuées des données ainsi que la protection contre la corruption silencieuse de données stockées. Puis nous discutons l’analyse expérimentale de notre système. Les mesures montrent la scalabilité de notre système ainsi que les temps d’exécution de nos différentes fonctions. On finit par des conclusions, perspectives et les références bibliographiques. Les annexes montrent nos principales publications (pour la convenance des membres anglophones de notre jury tout particulièrement). On y montre aussi la description de l’interface offerte aux applications par SDDS-2005, annoncée sur DbWorld
Recent years saw emergence of new architectures, involving multiple computers. New concepts were proposed. Among most popular are those of a multicomputer or of a Network of Worksattion and more recently, of Peer to Peer and Grid Computing. This thesis consists on the design, implementation and performance measurements of a prototype SDDS manager, called SDDS-2005. It manages key based ordered files in distributed RAM of Windows machines forming a grid or P2P network. Our scheme can backup the RAM on each storage node onto the local disk. Our goal is to write only the data that has changed since the last backup. We interest also to update records and non key search (scans). Their common denominator was some application of the properties of new signature scheme based that we call algebraic signatures, which are useful in this context. Ones needs then to find only the areas that changed in the bucket since the last buckup. Our signature based scheme for updating records at the SDDS client should prove its advantages in client-server based database systems in general. It holds the promise of interesting possibilities for transactional concurrency control, beyond the mere avoidance of lost updates. We also update only data have been changed because of the using the algebraic signatures. Also, partly pre-computed algebraic signature of a string encodes each symbol by its cumulative signatures. They protect the SDDS data against incidental viewing by an unauthorized server’s administrator. The method appears attractive, it does not amply any storage overhead. It is also completly transparent for servers and occurs in client. Next, our cheme provide fast string search (match) directly on encoded data at the SDDS servers. They appear an alternative to known Karp-Rabin type schemes. Scans can explore the storage nodes in parallel. They match the records by entire non-key content or by its substring, prefix, longest common prefix or longest common string. The search complexity is almost O (1) for prefix search. One may use them also to detect and localize the silent corruption. These features should be of interest to P2P and grid computing. Then, we propose novel string search algorithm called n-Gramme search. It also appears then among the fastest known, e. G, probably often the faster one we know. It cost only a small fraction of existing records match, especially for larger strings search. The experiments prove high efficiency of our implementation. Our buckup scheme is substantially more efficient with the algebraic signatures. The signature calculus is itself substantially faster, the gain being about 30 %. Also, experiments prove that our cumulative pre-computing notably accelerates the string searchs which are faster than the partial one, at the expense of higher encoding/decoding overhead. They are new alternatives to known Karp-Rabin type schemes, and likely to be usually faster. The speed of string matches opens interesting perspectives for the popular join, group-by, rollup, and cube database operations. Our work has been subject of five publications in international conferences [LMS03, LMS05a, LMS05b, ML06, l&al06]. For convenience, we have included the latest publications. Also, the package termed SDDS-2005 is available for non-commercial use at http://ceria. Dauphine. Fr/. It builds up on earlier versions of the prototype, a cumulative effort of several folks and n-Gramme algorithm implementation. We have also presented our proposed prototype, SDDS-2005, at the Microsoft Research Academic Days 2006
APA, Harvard, Vancouver, ISO, and other styles
17

Nicolle, Cécile. "Système d'Accès à des Bases de Données Hétérogènes réparties en vue d'une aide à la décision (SABaDH)." Lyon, INSA, 2001. http://theses.insa-lyon.fr/publication/2001ISAL0076/these.pdf.

Full text
Abstract:
De tous temps, lors d'une prise de décision, le décideur a dû faire face au problème d'accès à toutes les données qui lui sont nécessaires pour prendre une décision juste. De nos jours, de nombreux systèmes proposent une aide à cette prise de décision. Mais il est encore difficile, pour le décideur, de savoir où trouver les informations voulues. De plus, il peut ne pas connaître la nature de toutes les données qui lui sont utiles dans sa prise de décision. C'est pourquoi nous proposons une architecture de système d'accès qui permet au décideur de poser une requête en langage proche du langage naturel, sans avoir besoin de préciser où rechercher les données en question. Le système sait où trouver les informations, et peut même fournir au décideur des informations liées à celles qu'il voulait, ces informations étant utiles à la prise de décision (complétant ainsi la recherche de l'utilisateur tout en fournissant des réponses pertinentes). Le système pallie ainsi à certaines éventuelles lacunes du décideur dans le domaine de recherche. Notre système utilise le principe des wrappers, ainsi que XML comme langage interne, langage de requêtes et de réponse. Deux prototypes ont été réalisés au cours de la thèse, un sur la recherche dans une base de textes juridiques, un autre sur l'interrogation en XML d'une base Progress avec réponse en XML
Since all time, for decision making, decider had to be faced with access problem of all needed data to take the better decision. Nowadays, most systems provide help for this decision making. But it's always difficult to know where the decider can find relevant data. Furthermore, decider can't know type of all data which he need to make his decision. That's why we propose an architecture of an access system which allows decider ask his request in language like natural language, without more detail about their location. Our system can find this data, and provides all information in relation with searched data, these information being relevant. Our system can alleviate some deficiency about search domain. Our system uses wrapper principle, and XML as internal language and request and answer language. Two prototype have been realised, one about search in legal texts base, the other about XML interrogation of Progress base with answer in XML
APA, Harvard, Vancouver, ISO, and other styles
18

Steff, Yann. "SMA et gestion coopérative de réseaux et systèmes : un cadre méthodologique pour une macro-organisation autonome." Toulouse 3, 2002. http://www.theses.fr/2002TOU30043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Acosta, Francisco. "Les arbres balances : spécification, performances et contrôle de concurrence." Montpellier 2, 1991. http://www.theses.fr/1991MON20201.

Full text
Abstract:
Dans le cadre de la gestion d'une base de donnees, nous etudions les problemes relatifs a la specification, aux performances des operations d'acces et au partage des donnees. Dans la premiere partie de l'etude nous introduisons les notions de base pour la specification de donnees et nous etudions les methodes classiques d'acces aux donnees; cette etude montre que les arbres balances (les b-arbres et leurs variations) sont une solution interessante pour la gestion de donnees stockees sur disque. Nous etudions ensuite la specification algebrique des arbres balances, afin de degager leurs caracteristiques intrinseques. Nous definissons les classes b(k, m) des b-arbres, dans lesquelles les parametres k et m permettent de controler de facon simple le rapport espace-temps de leur complexite. Cette proposition generalise, a l'aide du parametre k, les variations les plus classiques de ces arbres, telles que les arbres b*. Dans la seconde partie de l'etude, nous exposons les concepts de base du controle de concurrence. Nous etudions par la suite le modele d'execution concurrente sur les arbres de recherche de shasha et goodman, puis les methodes de controle de concurrence pour ces arbres. Finalement, nous degageons les principes d'une methode originale dans laquelle le controle s'exerce au meilleur moment de l'execution des operations
APA, Harvard, Vancouver, ISO, and other styles
20

Ghassany, Mohamad. "Contributions à l'apprentissage collaboratif non supervisé." Paris 13, 2013. http://www.theses.fr/2013PA132041.

Full text
Abstract:
Le travail de recherche exposé dans cette thèse concerne le développement d'approches de clustering collaboratif à base de méthodes topologiques, telles que les cartes auto-organisatrices(SOM), les cartes topographiques génératives (GTM) et les GTM variationnelles Bayésiennes (VBGTM). Le clustering collaboratif permet de préserver la confidentialité des données en utilisant d'autres résultats de classifications sans avoir recours aux données de ces dernières. Ayant une collection de bases de données distribuées sur plusieurs sites différents, le problème consiste à partitionner chacune de ces bases en considérant les données locales et les classifications distantes des autres bases collaboratrices, sans partage de données entre les différents centres. Le principe fondamental du clustering collaboratif est d'appliquer les algorithmes de clustering localement sur les différents sites, puis collaborer les sites en partageant les résultats obtenus lors de la phase locale. Dans cette thèse nous explorons deux approches pour le clustering collaboratif. L'approche horizontale pour la collaboration des bases de données qui décrivent les mêmes individus mais avec des variables différentes. La deuxième approche collaborative est dite verticale pour la collaboration de plusieurs bases de données contenant les mêmes variables mais avec des populations différentes
The research outlined in this thesis concerns the development of collaborative clustering approaches based on topological methods, such as self-organizing maps (SOM), generative topographic mappings (GTM) and variational Bayesian GTM (VBGTM). So far, clustering methods performs on a single data set, but recent applications require data sets distributed among several sites. So, communication between the different data sets is necessary, while respecting the privacy of every site, i. E. Sharing data between sites is not allowed. The fundamental concept of collaborative clustering is that the clustering algorithms operate locally on individual data sets, but collaborate by exchanging information about their findings. The strength of collaboration, or confidence, is precised by a parameter called coefficient of collaboration. This thesis proposes to learn it automatically during the collaboration phase. Two data scenarios are treated in this thesis, referred as vertical and horizontal collaboration. The vertical collaboration occurs when data sets contain different objects and same patterns. The horizontal collaboration occurs when they have same objects and described by different Patterns
APA, Harvard, Vancouver, ISO, and other styles
21

Bruneau, Pierrick. "Contributions en classification automatique : agrégation bayésienne de mélanges de lois et visualisation interactive." Phd thesis, Nantes, 2010. http://www.theses.fr/2010NANT2023.

Full text
Abstract:
Internet, ainsi que des architectures récentes telles que les réseaux de capteurs, sont le siège de masses de sources de données distribuées à large echelle, en perpétuelle croissance. Cette profusion, accompagnée du besoin d'outillage des utilisateurs, implique le développement de techniques d'analyse et d'indexation adaptées. Les techniques de classification automatique concernent la caractérisation de classes dans un ensemble d'éléments. Celles-ci sont très souvent employées pour la réalisation d'outils rendant l'information accessible aux utilisateurs. Dans le cadre de cette thèse, nous avons contribué a l'agrégation de modèles de mélange de distributions de probabilité. Cette classe de modèles est en effet souvent utilisée pour des tâches de catégorisation. Nos propositions, utilisant un formalisme bayesien variationnel, sont caracterisées par des coûts de calcul et de transmission réduits. Avec ces travaux, nous entendions fournir une solution partielle à l'estimation de modèles sur des données distribuées. Nous avons également contribué à la classication visuelle de données en flux. Pour ce faire, nous avons notamment employé des principes bio-mimétiques, ou encore des résultats de la théorie des graphes. Outre la proposition d'interfaces efficaces pour un utilisateur, nous avons également envisagé la manière dont celui-ci peut rétro-agir sur le processus de classification
The internet and recent architectures such as sensor networks are currently witnessing tremendous and continuously growing amounts of data, often distributed on large scales. Combined with user expectations with respect to tooling, this encourages developing adequate techniques for analyzing and indexing. Classication and clustering tasks are about characterizing classes within data collections. These are often used as building blocks for designing tools aimed at making data accessible to users. In this document, we describe our contributions to mixture models aggregation. These models are classically used for content categorization. Using variational Bayesian principles, we aimed at designing low computation and transmission costs algorithms. Doing so, we aimed at proposing a building block for distributed density model estimation. We also contributed to visual classication applied to data streams. To this purpose, we employed bio-mimetic principles, and results from graph theory. More specically, visual and dynamic abstractions of an underlying clustering process were proposed. We strived to provide users with ecient interfaces, while allowing using their actions as a feedback
APA, Harvard, Vancouver, ISO, and other styles
22

Everaere, Patricia. "Contribution à l'étude des opérateurs de fusion : manipulabilité et fusion disjonctive." Artois, 2006. http://www.theses.fr/2006ARTO0402.

Full text
Abstract:
Les opérateurs de fusion propositionnelle permettent de déterminer les croyances/buts d'un groupe d'agents à partir des croyances/buts individuels, exprimés par des formules de la logique propositionnelle. Deux critères souvent utilisés pour comparer les opérateurs existants sont la rationalité et l'efficacité algorithmique. Notre thèse est que ces deux seuls critères ne suffisent pas et qu'il faut considérer en plus celui de la manipulabilité. Un opérateur de fusion est dit manipulable si l'un des agents intervenant dans le processus de fusion réussit à modifier le résultat de la fusion, pour le rendre plus conforme à ses attentes, en mentant sur ses véritables croyances/buts. Un opérateur de fusion manipulable ne donne aucune garantie quant à l'adéquation des résultats qu'il donne aux croyances/buts du groupe puisqu'il n'incite pas les agents à fournir leurs croyances/buts véritables. Dans cette thèse, notre première contribution est une étude de la manipulabilité des opérateurs de fusion propositionnelle existants. Elle montre qu'aucun opérateur de fusion existant ne remplit pleinement les trois critères considérés : rationalité, efficacité algorithmique et non-manipulabilité. Notre seconde contribution concerne la mise en évidence de deux nouvelles familles d'opérateurs de fusion disjonctifs, i. E. Des opérateurs qui assurent que le résultat de la fusion implique la disjonction des informations initiales. Les opérateurs de ces familles constituent des alternatives intéressantes aux opérateurs (disjonctifs) à sélection de formules, qui ont une complexité algorithmique élevée, sont manipulables et ne sont pas pleinement rationnels
Propositional merging operators aim at defining the beliefs/goals of a group of agents from their individual beliefs/goals, represented by propositional formulae. Two widely used criteria for comparing existing merging operators are rationality and computational complexity. Our claim is that those two criteria are not enough, and that a further one has to be considered as well, namely strategy-proofness. A merging operator is said to be non strategy-proof if there is an agent involved in the merging process who can change the result of the merging, so as to make it closer to her expected one, by lying on her true beliefs/goals. A non strategy-proof merging operator does not give any guarantee that the results it provides are adequate to the beliefs/goals of the group, since it does not incite the agents to report their true beliefs/goals. A first contribution of this thesis consists of a study of the strategy-proofness of existing propositional merging operators. It shows that no existing merging operators fully satisfy the three criteria under consideration: rationality, complexity and strategy-proofness. Our second contribution consists of two new families of disjunctive merging operators, i. E. , operators ensuring that the result of the merging process entails the disjunction of the information given at start. The operators from both families are shown as valuable alternatives to formula-based merging operators, which are disjunctive, but exhibit a high computational complexity, are not strategy-proof, and are not fully rational
APA, Harvard, Vancouver, ISO, and other styles
23

Vilarem, Jean-François. "Contrôle de concurrence mixte en environnement distribué : une méthode fusionnant verrouillage et certification." Montpellier 2, 1989. http://www.theses.fr/1989MON20023.

Full text
Abstract:
Cette these se situe dans le cadre de controle de concurrence pour des systemes transactionnels repartis. Elle montre que les methodes pessimistes a base de verrouillage a deux phases et les methodes optimistes par certification peuvent coexister. Cette proposition, nouvelle en environnement distribue, peut se reveler avantageuse dans differentes situations ou l'heterogeneite est relative au type de controle exerce. Un modele de transaction distribuee, a base d'operations lire et ecrire, est propose. Differentes methodes de controle sont analysees a la lumiere d'un graphe de precedence engendre par les conflits entre operations de transactions concurrentes. Ce travail expose une methode par certification distribuee construisant un ordre de serialisation. Par la suite, celle-ci est adaptee de maniere a integrer le verrouillage a deux phases. Finalement cette solution mixte est mise en uvre en utilisant la technique des intervalles d'estampilles
APA, Harvard, Vancouver, ISO, and other styles
24

Lobry, Olivier. "Support Mémoire Adaptable Pour Serveurs de Données Répartis." Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00346893.

Full text
Abstract:
Du fait qu'il constitue un passage obligé du flux d'information, un serveur de données joue un rôle central dans l'architecture d'un système d'information (SI). Il doit en conséquence implanter des mécanismes de gestion de ressources efficaces et des politiques de gestion adaptées aux caractéristiques comportementales du SI.
Il n'est malheureusement pas possible d'offrir un serveur de données universel capable de répondre aux exigences de tous les SI. Ceux-ci diffèrent en effet significativement par le type des informations qu'ils traitent, la nature des traitements effectués, les propriétés de traitement qu'ils garantissent, les caractéristiques du matériel sous-jacent, etc. De ce fait, chaque système d'information intègre son ou ses propres serveurs de données implantant des politiques de gestion figées.
Les inconvénients d'une telle approche sont loin d'être négligeables. Tout d'abord, la ré-implantation de mécanismes élémentaires de gestion de ressources augmente le coût de conception. Ensuite, la rigidité comportementale réduit considérablement la réactivité à l'évolution tant en qualité qu'en quantité des informations, traitements et ressources matérielles. Enfin, l'opacité des tels systèmes rend difficile leur coexistence sur une même plate-forme.
Cette thèse montre qu'il n'existe pas de politique de gestion de la mémoire idéale. Plutôt que d'essayer d'offrir un serveur idéal, elle tente de définir une infrastructure permettant de concevoir des serveurs de données adaptés et évolutifs. Elle adresse plus particulièrement le problème de la gestion de la mémoire physique et se place dans le contexte des grappes de machines. Elle propose le support mémoire adaptable ADAMS basé sur un modèle de gestion hiérarchique et un modèle de communication par événements. Ce support facilite l'intégration de différents types de politiques tout en séparant bien leurs rôles respectifs sans faire d'hypothèse sur leur inter-dépendances.
Une intégration d'ADAMS à la mémoire virtuelle répartie permanente et adaptable du système Arias est ensuite exposée. ADAMS étend les caractéristiques de ce système afin de prendre en compte les besoins particulier de gestion des serveurs de données tout en réduisant le grain d'adaptabilité. Nous illustrons à travers un exemple comment le support résultant permet d'implanter un serveur de données dont les politiques de gestion peuvent être adaptées dynamiquement.
APA, Harvard, Vancouver, ISO, and other styles
25

Benslimane, Djamal. "Etudes de l'apport des techniques de parallélisme dans l'amélioration des performances des systèmes à base de règles de production." Clermont-Ferrand 2, 1990. http://www.theses.fr/1990CLF21287.

Full text
Abstract:
Cette these a pour but l'etude de l'amelioration des performances d'un systeme a base de regles par recours aux techniques de parallelisme. L'etude est limitee aux cas de multiprocesseurs dont la memoire est soit distribuee, soit partagee. Differentes architectures fonctionnelles paralleles des systemes experts sont proposees. Elles permettent d'obtenir un parallelisme: 1) inter-regles; 2) inter-objets equivalent a un parallelisme inter-regles et intra-regle. Une methodologie de simulation de ces fonctionnements paralleles est proposee pour estimer les gains en temps d'execution en fonction du nombre de processeurs. Enfin, pour le cas d'un multiprocesseur a memoire distribuee, le probleme de la recherche d'un partitionnement optimal des regles est formalise. Un algorithme approche qui fournit une solution sous-optimale est ensuite propose
APA, Harvard, Vancouver, ISO, and other styles
26

Jouis, Christophe. "Contributions à la conceptualisation et à la Modélisation des connaissances à partir d'une analyse linguistique de textes : réalisation d'un prototype : le système SEEK." Paris, EHESS, 1993. http://www.theses.fr/1993EHES0051.

Full text
Abstract:
Nous presentons un modele linguistique et informatique de comprehension d'unites linguistiques inserees dans leur contexte. Ce modele se presente sous la forme de systemes a base de connaissances d'exploration contextuelle qui recherchent des indices linguistiques dans les textes. Nous montrons qu'il est possible de construire des representations semantiques en n'effectuant qu'une analyse morpho-syntaxique superficielle et en utilisant le contexte d'une unite linguistique examinee. Les informations contextuelles dont nous avons besoin expriment un savoir linguistique sans faire appel a des connaissances sur le monde externe. Nous presentons dans le detail une application informatique de ce modele : seek. Il s'agit d'un outil d'aide a l'analyse et a la description conceptuelle d'un domaine d'expertise (recherche des relations statiques entre entites conceptuelles extraites de compte-rendus d'expertise). Cette derniere application est integree dans un atelier de genie cognitif associe a metodac, une methodologie d'acquisition et de modelisation des connaissances
We present a linguistic and computer model the aim of which is the understanding of linguistic items inserted in their context. This model is constituted by knowledge based systems of contextual exploration which consists in seeking linguistic clues in texts. It is shown that nothing else than a basic morpho-syntactical analysis and the use of the context of an examined linguistic item is required to build semantic representations. These contextual data express a knowledge of the language without using any other knowledge of the world. We present in details a program based on this model : seek. It is a help tool for knowledge extraction forme texts in natural language. This latter has been integrated in a workshop of cognitive engineering associated to a methodology of knowledge acquisition and modelling called metodac
APA, Harvard, Vancouver, ISO, and other styles
27

Fauré, Fabienne. "Gestion de configuration et migration dans les systèmes coopératifs : une architecture répartie orientée services." Toulouse 3, 1994. http://www.theses.fr/1994TOU30253.

Full text
Abstract:
Les choix de configuration d'un systeme reparti et cooperatif influencent directement le comportement du systeme, et a fortiori la qualite de ses performances. Par systeme reparti et cooperatif nous entendons un ensemble de services offerts aux developpeurs d'applications. Ces services sont localises sur differentes machines hotes (repartition), et peuvent interagir (cooperation). Observer les services afin d'agir sur leur repartition et leurs facultes cooperatives, contribue au bon fonctionnement de l'ensemble du systeme. Nous considerons un service comme une entite constituee d'interface(s), de porte(s) d'acces, et d'un comportement. Les interfaces fournissent les moyens d'acceder au service, les portes d'acces collectent les requetes des clients, et le comportement traduit les traitements specifiques realises par le service. Notre problematique est celle de la gestion dynamique de configuration ; elle concerne en particulier la migration de service et de l'ajustement (ou tuning) de portes d'acces. Migrer un service signifie modifier sa localisation dans l'environnement ; ajuster ses portes d'acces traduit le fait d'augmenter ou de reduire le nombre de ses portes. Le caractere dynamique des solutions proposees, apporte la transparence necessaire au maintien des liens de cooperation existant, et a la minimisation des risques de dysfonctionnement dans le systeme. Une troisieme dimension complete celles de migration et d'ajustement: la mesure d'activite. Son objectif est de recuperer periodiquement sur les services geres, des metriques de charge (en nombre de clients) et de temps de reponse, afin de doter le niveau decisionnel d'informations dont l'interpretation concourt a la prise de decisions d'operations de migration ou d'ajustement. Les mecanismes de gestion definis s'integrent au sein d'une entite federatrice appelee micro-manager ; cette integration favorise a la fois la mise en uvre des mecanismes, et leur utilisation par des applications de gestion
APA, Harvard, Vancouver, ISO, and other styles
28

Loukil, Adlen. "Méthodologies, Modèles et Architectures de Référence pour la Gestion et l'Echange de Données Médicales Multimédia : Application aux Projets Européen OEDIPE et BRITER." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0016.

Full text
Abstract:
La coopération entre les systèmes d’information médicaux constitue l’un des principaux challenges de la Télémédecine et de son principal corollaire : l’amélioration de la qualité des soins. Cependant, aucune solution d'ordre général n'a encore été proposée pour faciliter l’interopérabilité entre des systèmes de gestion de données hétérogène, et ce malgré l'intérêt que suscite ce problème. Après avoir présenté une synthèse des architectures et. Standards existants, nous proposons dans ce mémoire une solution générale qui consiste en la définition de protocoles de communications entre les systèmes coopérants et en la conception de modules générique et réutilisables assurant la gestion de la communication, l’extraction et la mise çà jour automatique des bases de données cibles. Ces modules applicatifs s’appuient sur un dictionnaire de données modélisant la structure des messages de donnée véhiculés par les protocoles de communication, la structure des bases de données cibles, et les interrelations entre les deux. Des procédures de rétro conception et de génération automatique de commandes SQL ont été implémentées afin de répondre aux contraintes d'évolutivité des schémas des bases de données. Nous décrivons à titre d’exemple l'architecture applicative implémentée dans le cadre du projet OEDIPE pour interfacer des protocoles d’échange de données et de signaux en Cardiologie avec des bases de données électrocardiographiques de référence. Enfin, nous traitons de la modélisation et de l’intégration de systèmes de gestion de dossiers médicaux répartis par le biais de protocoles de communications préétablis. Nous présentons d'abord une approche multidimensionnelle de la structuration des informations contenues dans les dossiers médicaux et en proposons un modèle d'information générique. Puis nous explicitons l'architecture d'un système développé pour l’échange de données hétérogènes multi sources à des fins de Télé expertise dans le domaine de la Réhabilitation (projet BRITER). Nous démontrons ainsi que l'utilisation de protocoles de communication standard permet la réutilisation d'applications portables et interopérables, d’un grand intérêt pour les professionnels de santé
Interchange and Integration of medical data is a fundamental task in modern medicine. However, a significant obstacle to the development of efficient interoperable information systems is the lack of software tools that provide transparent access to heterogeneous distributed databases. Currently most of the solutions are stand-alone ones fitting only one configuration. To solve this problems of integration and interoperability, we propose in this thesis an original approach which is based on the definition of communication protocols and the design of generic interface between the specific implementations of the protocols and the target databases associated to the Hospital Information Systems. The proposed solution is based on the development of a data dictionary modelling the communications protocols and the databases structures and generic module for the data storage and extraction. The design involves issues related to reverse engineering procedures and to automatic generation of SQL statements. To illustrate this approach, we present the demonstration prototype we have developed in the framework of the OEDIPE AIM project to experiment and to test open interchange of ECGs and associated clinical data. The second part is devoted to the modelling and integration of distributed electronic patient records using communications protocols. We first present a multidimensional approach for the structuring of patient records and propose a generic object oriented information model which integrates bio signals, images and accompanying clinical information. We then, describe a prototype system which has been developed in the framework of the BRITER AIM project for accessing and handling heterogeneous patient data stored in distributed electronic patient records in order to support Rehabilitation healthcare professional in making decisions. We thus demonstrate that the use of standard communications protocols allows and facilitate the development of portable and interoperable medical applications for the benefit of the health care field
APA, Harvard, Vancouver, ISO, and other styles
29

Bonnel, Nicolas Achille Jacques. "Adapnet : stratégies adaptatives pour la gestion de données distribuées sur un réseau pair-a pair." Lorient, 2008. http://www.theses.fr/2008LORIS134.

Full text
Abstract:
Depuis quelques decennies, la quantite d'information numerique produite ne cesse de croitre exponentiellement, ce qui souleve des difficultes de plus en plus critiques en terme de stockage, d'accessibilite et de disponibilite de cette information. Les architectures logicielles et materielles construites autour du modele pair-a-pair (p2p) semblent repondre globalement aux exigences liees au stockage de l'information mais montrent leurs limites en ce qui concerne les exigences d'accessibilite et de disponibilite de l'information. Nous presentons dans cette these differents apports concernant les architectures p2p pour la gestion de grands volumes d'information. Les strategies algorithmiques que nous proposons exploitent des topologies virtuelles dediees sur lesquelles, nous developpons des protocoles de maintenance et de gestion du reseau efficaces. En particulier, pour assurer le passage à€ grande echelle, nous proposons des solutions pour lesquelles les couts des operations de maintenance et de gestion des topologies virtuelles sont constants en moyenne pour chaque noeud du reseau, et ceci, quelle que soit la taille du reseau. Nous analysons les principaux paradigmes,de la repartition d'information sur un rà~seau p2p, en considerant successivement, le probleme de l'acces à€ de l'information typee (semi-structuree) et le cas general qui dissocie entierement la nature des requetes du placement de l'information. Nous proposons une methode d'aiguillage de requetes portant sur la structure et le contenu de documents semi-structures ainsi qu'une technique plus generale dans le cas le plus défavorable ou aucune connaissance n'est disponible a priori sur la nature des informations st
In the last few years, the amount of digital information produced has exponentially increased. This raises problems regarding the storage, the access and the availability of this data. Software and hardware architectures based on the peer-to-peer (p2p) paradigm seem to satisfy the needs of data storage but cannot handle efficiently both data accessibility and availability. We present ,in this thesis various contributions on p2p architectures for managing large volumes of information. We propose various strategies that operate on dedicated virtual topologies that can be maintained at low cost. More precisely, these topologies scale well because the cost for node arrival and node departure is on average constant, whatever the size of the network. We analyze the main paradigms of information sharing on a p2p network, considering successively the problem of access to typed information (semi-structured) and the general case that completely separates the nature of the queries and data location. We propose a routing strategy using structure and content of semi-structured information. We also propose strategies that efficiently explore the network when there is no assumption on the nature of data or queries. In order to manage a quality of service (which is expressed ln terms of speed and reliability), we, also investigate the problem of information availability, more precisely we replicate data stored ln the network. We propose a novel approach exploiting an estimation of local density of data
APA, Harvard, Vancouver, ISO, and other styles
30

Cazalens, Sylvie. "Formalisation en logique non standard de certaines méthodes de raisonnement pour fournir des réponses coopératives, dans des systèmes de bases de données et de connaissances." Toulouse 3, 1992. http://www.theses.fr/1992TOU30172.

Full text
Abstract:
Un systeme de bases de donnees et de connaissances est cooperatif s'il fournit de lui-meme des informations additionnelles interessantes pour l'usager. Une telle fonctionnalite necessite de tenir compte du domaine d'interet de l'usager. Plusieurs methodes existent, qui estiment ce domaine grace a la seule analyse de la question de l'usager (sous la forme d'une requete type sql, ou sous une forme etendue), ou a l'utilisation supplementaire d'une modelisation de l'usager. Cependant, pour chacune, reviennent, de maniere sous-jacente, les notions d'interet d'une information et de raisonnement pour deduire des informations interessantes. La formalisation de ces notions cles est donc etudiee, pour certaines methodes. Des outils correctement adaptes s'averent etre fournis par les logiques non-standards
APA, Harvard, Vancouver, ISO, and other styles
31

Faye, David Célestin. "Médiation de données sémantique dans SenPeer, un système pair-à-pair de gestion de données." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00481311.

Full text
Abstract:
La société de l'information demande un accès efficace à un ensemble d'informations qui sont souvent hétérogènes et distribuées. Dans le but d'un partage efficace de cette information, plusieurs solutions techniques ont été proposées. L'infrastructure Pair-à-Pair (P2P) est un paradigme émergent et offrant de nouvelles opportunités pour la mise en place de systèmes distribués à grande échelle. D'autre part, le concept de base de données distribuée a été introduit dans le but d'organiser une collection multiple de bases de données logiquement liées et distribuées sur un réseau d'ordinateurs. Récemment, les systèmes P2P de gestion de données communément appelés PDMS (Peer Data Management System) ont vu le jour. Ils combinent les avantages des systèmes P2P avec ceux des bases de données distribuées. Dans le but de contribuer à la recherche sur la gestion de données dans un contexte P2P, nous proposons le PDMS SenPeer. SenPeer suit une topologie super-pair basée sur l'organisation des pairs en communautés sémantiques en fonction de leur thème d'intérêt. Pour faciliter l'échange de données entre pairs nous établissons des processus de découverte de correspondances sémantiques et de reformulation de requêtes en présence de plusieurs modèles de données. Ces correspondances sémantiques, en combinaison avec les schémas des pairs sont à la base d'une topologie sémantique au dessus du réseau physique et utilisée pour un routage efficace des requêtes. Les requêtes sont échangées à travers un format commun d'échange de requête et un processus d'optimisation distribué permet de choisir le meilleur plan d'exécution de la requête en fonction des caractéristiques du PDMS. Une validation expérimentale par la mise en place d'un simulateur permet d'affirmer l'utilité et la performance des techniques proposées.
APA, Harvard, Vancouver, ISO, and other styles
32

Duque, Hector. "Conception et mise en oeuvre d'un environnement logiciel de manipulation et d'accès à des données réparties : application aux grilles d'images médicales : le système DSEM / DM2." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0050/these.pdf.

Full text
Abstract:
La vision que nous défendons est celle de grilles biomédicales partenaires des systèmes médicaux (hôpitaux), à la fois fournisseuses de puissance de calcul et plates-formes de partage d'informations. Nous proposons une architecture logicielle de partage d'images médicales réparties à grande échelle. S'appuyant sur l'existence a priori d'une infrastructure de grille, nous proposons une architecture multi-couche d'entités logicielles communicantes (DSE : Distributed Systems Engines). Fondée sur une modélisation hiérarchique sémantique, cette architecture permet de concevoir et de déployer des applications réparties performantes, fortement extensibles et ouvertes, capables d'assurer l'interface entre grille, systèmes de stockage de données et plates-formes logicielles locales (propres aux entités de santé) et dispositifs d'acquisition d'images, tout en garantissant à chaque entité une maîtrise complète de ses données dont elle reste propriétaire
Our vision, in this thesis, is the one of a bio-medical grip as a partner of hospital's information systems, sharing computing resources as well as a platform for sharing information. Therefore, we aim at (i) providing transparent access to huge distributed medical data sets, (ii) querying these data by their content, and (iii), sharing computing resources within the grip. Assuming the existence of a grip infrastructure, we suggest a multi-layered architecture (Distributed Systems Engines – DSE). This architecture allows us to design High Performance Distributed Systems which are highly extensible, scalable and open. It ensures the connection between the grip, data storing systems, and medical platforms. The conceptual design of the architecture assumes a horizontal definition for each one of the layers, and is based on a multi-process structure. This structure enables the exchange of messages between processes by using the Message Passing Paradigm. These processes and messages allow one to define entities of a higher level of semantic significance, which we call Drivers and, which instead of single messages, deal with different kinds of transactions: queries, tasks and requests. Thus, we define different kinds of drivers for dealing with each kind of transaction, and in a higher level, we define services as an aggregation of drivers. The architectural framework of drivers and services eases the design of components of a Distributed System (DS), which we call engines, and also eases the extensibility and scalability of DS
APA, Harvard, Vancouver, ISO, and other styles
33

Longueville, Véronique. "Modélisation, calcul et évaluation de liens pour la navigation dans les grands ensembles d'images fixes." Toulouse 3, 1993. http://www.theses.fr/1993TOU30149.

Full text
Abstract:
La conception et l'etude d'un systeme de recherche d'images peut se resumer a une double interrogation: comment optimiser l'acces a l'information pour repondre au mieux aux attentes des utilisateurs et comment evaluer les performances du systeme par rapport a ces attentes? dans ce contexte, cette these traite a la fois de la construction et de l'evaluation des graphes de connexion pour la navigation visuelle dans les grands ensembles d'images fixes. Pour un ensemble donne d'images, chaque sommet du graphe represente une image et les arcs reliant les sommets dans le graphe definissent l'ensemble des liens existants entre les images. Via une interface de parcours visuel dans le graphe adaptee, ce sont ces liens que les utilisateurs suivent lors de leurs recherches en naviguant d'image en image. Au-dela des outils de construction d'un graphe de liens dans un grand ensemble d'images, les apports principaux de cette these se situent: sur le plan des interfaces utilisateur: la notion de vues differentes sur un meme ensemble de liens permet a l'utilisateur de mettre en uvre differents types de parcours visuels; sur le plan de l'evaluation: plusieurs modeles d'utilisation d'un systeme de recherche de documents sont proposes et des protocoles et mesures d'evaluation leur sont associes. Les protocoles de test ont ete mis en uvre lors d'experimentations reelles par des utilisateurs, et les resultats correspondants sont presentes et discutes. On y trouve la confirmation de l'efficacite de la navigation visuelle pour l'exploration d'un ensemble d'images et la generalisation de selections preexistantes, mais aussi une meilleure quantification de ses limites pour la recherche finalisee d'une image ou d'un petit nombre d'images
APA, Harvard, Vancouver, ISO, and other styles
34

Desprats, Thierry. "Conception des systèmes coopératifs : maîtrise de la complexité par modélisation de l'interaction." Toulouse 3, 1993. http://www.theses.fr/1993TOU30167.

Full text
Abstract:
Maitriser les impacts de l'integration evolutive de la communication au sein des systemes informatiques demeure l'une des preoccupations majeures de la communaute informatique. Se situant plus particulierement au niveau applicatif, les travaux presentes dans cette these s'inscrivent dans ce cadre general d'interet. Les evolutions respectives des systemes de communication et de l'informatique sont a la base de nouveaux systemes et applications dit cooperatifs. Repartition et coordination de services, plurimodalite du dialogue homme/systeme et variete des donnees multimedia manipulees constituent les fondements du traitement cooperatif. Devenue cruciale, la maitrise des systemes cooperatifs implique de doter les informaticiens de moyens visant a simplifier leur apprehension, leur developpement et leur gestion. Repondant aux besoins d'apprehension de la complexite de ces systemes, la contribution preliminaire apportee par cette these repose sur une caracterisation des systemes cooperatifs realisee selon un processus de double observation. C'est au sein d'un referentiel de metriques que s'opere une structuration de la complexite autour des aspects de cooperation, de repartition, d'interaction homme/systeme et de multimediatisation. Apparaissant au coeur de cette complexite, les aspects interactifs du traitement cooperatif sont la cible d'une modelisation orientee objet. Les acteurs de la cooperation, les relations d'interaction entre ces acteurs, et les contraintes exprimees sur l'environnement technologiques des interactions, forment le noyau des abstractions elaborees. La definition d'objets generiques qui banalisent les specificites technologiques et operationnelles des medias de presentation, contribue a l'expression des aspects d'interaction homme/systeme et multimedia. Le modele obtenu est formalise a l'aide d'une notation syntaxique generique definie et s'accompagne de considerations methodologiques pour garantir sa flexibilite. Le modele propose facilite l'expression des contraintes de communication et d'interaction homme/systeme a considerer durant la conception des systemes cooperatifs. Son integration au sein des methodes de conception orientees objet dotent ces dernieres de moyens adequats pour reduire la complexite specifique au developpement des systemes cooperatifs
APA, Harvard, Vancouver, ISO, and other styles
35

Sardouk, Ahmad. "Agrégation de données dans les réseaux de capteurs sans fil à base d'agents coopératifs." Troyes, 2010. http://www.theses.fr/2010TROY0013.

Full text
Abstract:
L’objectif principal d’un réseau de capteurs sans fil est de recueillir les informations d’un environnement à travers un grand nombre de nœuds qui ont une durée de vie limitée définie par leur batterie. Les nœuds qui n’ont plus de batterie peuvent créer de sérieux problèmes de perte d'information et de partitionnement du réseau. Par conséquent, il est important de minimiser la consommation d'énergie de chaque nœud et de mieux gérer la consommation des nœuds dont la position est jugée critique, pour prolonger la durée de vie du réseau. Etant donné que la communication est la première source de consommation d’énergie, nous proposons une solution d’agrégation de données basée sur un système multi-agents pour réduire la quantité d’informations communiquée et donc réduire la consommation d’énergie des nœuds. Nous proposons d’implémenter dans chaque nœud un agent qui est responsable de gérer intelligemment le nœud, traiter les informations en local et juger de leur importance. Les différents agents implémentés coopèrent pour éliminer les informations redondantes et non utiles et pour créer un message résumant toutes les informations importantes du réseau. L’agent gérera la consommation de chaque nœud par rapport à sa position, la densité du réseau dans sa zone de couverture, l’énergie dont il dispose et l’importance de l’information courante que possède le nœud. Cette gestion a pour but d’équilibrer la consommation d’énergie des nœuds et de maximiser la durée de vie des nœuds en position critique pour éviter le partitionnement du réseau
The main role of Wireless Sensor Network is to collect information from the environment by a high number of Sensor Nodes (SNs). The SNs have a lifetime limited by their batteries. Hence, SNs that ran out of battery will be out of the network and may create serious network partitioning and information loss problems. Thus, in order to maximize the WSN lifetime, it is important to minimize the power consumption of each SN and better manage the consumption of nodes that are in critical positions of the network. As the radio communication is the main power consumer, we propose a multi-agent based data aggregation solution, which reduces the amount of communicated information and hence reduces the power consumption of the SNs. We propose to implement in each node an agent that manages optimally the SN, processes locally its information and estimates their importance. The implemented agents cooperate together to eliminate the inter-SN redundancy and the useless information and to create a message summarizing the network’s important information. The agent manages the power consumption of each node according to its position in the network, the nodes density in its coverage zone, its residual battery and the importance of its current information. This management aims to balance the power consumption of the SNs and to maximize the life-time of SNs in critical positions to avoid the network partitioning
APA, Harvard, Vancouver, ISO, and other styles
36

Sauquet, Dominique. "Lied : un modèle de données sémantique et temporel : son intégration dans une architecture distribuée et son utilisation pour des applications médicales." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0586.

Full text
Abstract:
Le travail présenté propose une solution au traitement de l'information complexe et distribuée dans le contexte d'applications médicales. La solution repose à la fois sur un modèle de données qui facilite la représentation des données temporelles ou répétitives et des relations entre les données (le modèle LIED, langage interactif pour l'exploitation des données) et sur une architecture de communication (le HUB, HELIOS Unification Bus). Apres une rapide introduction sur le contexte médical d'expérimentation et sur une brève présentation du modèle, on y aborde en détails les aspects de modélisation. On y fait référence aux travaux de normalisation ou de recherche du domaine médical (travaux du CEN TC 251 ou de l'ODMG, projets HELIOS, GEHR, GALEN, …). On y décrit ensuite le modèle choisi pour la représentation des concepts médicaux et des items ainsi que la façon dont ces items sont agrégés pour former le modèle d'information. Les aspects temporels sont aussi abordés, à la fois d'un point de vue bibliographique portant sur les bases de données temporelles et d'un point de vue de la solution proposée dans le modèle LIED. L'auteur s'intéresse ensuite aux aspects de distribution et aux solutions en terme de logiciels pour assurer l'intégration des systèmes hétérogènes distribués. Les différentes solutions, connues sous le nom générique de middleware, sont présentées. Une proposition de classification des middlewares est aussi faite, ainsi qu'une présentation des tendances en matière d'évolution de ces logiciels. L'auteur s'intéresse ensuite à la solution middleware qu'il a mise en œuvre dans le cadre du projet HELIOS, le HUB, et à la façon dont LIED a bénéficié des apports du HUB. Les aspects d'interface homme-machine sont ensuite étudiés, avant d'aborder les résultats de l'implémentation et de la mise en production dans les différents services de l'hôpital Broussais. Le travail se termine sur une étude critique de positionnement par rapport aux « SGBD Orienté Objet » ainsi que sur les perspectives qu'il offre dans le cadre des projets de recherche européens Synapses et SynEx, références en terme de plateformes d'intégration du domaine médical. Ce travail résume l'investissement personnel de l'auteur depuis de nombreuses années (entre 12 et 15) ainsi que l'état de l'art du génie logiciel, dans le contexte des réalisations d'informatique médicale.
APA, Harvard, Vancouver, ISO, and other styles
37

Séraphin, John. "Réalisation d'un intranet : cohérence d'un ensemble réparti et communicant, autour d'une architecture réflexive." Paris 5, 1998. http://www.theses.fr/1998PA05S007.

Full text
Abstract:
Un intranet permet de déployer les applications client-serveur sur l'ensemble des postes de l'entreprise. Il concerne cependant des centaines de personnes, peu familières des technologies et de l'approche hypertexte. Les problèmes de cohérence et de persistance des liens, des modèles de documents, des feuilles de style, d'administration et d'exploitation de l'ensemble, s'avèrent alors d'une acuité inconnue sur l'internet. Nous présentons ici une architecture de base, réflexive, orientée-documents et commune a un intranet qui associe dans sa phase actuelle le web, les bases de données, un métalangage de manipulation de description et des techniques issues de l'intelligence artificielle, pour proposer aux utilisateurs connectes au réseau d'entreprise un accès fiable et uniforme a un ensemble facilement extensible de données locales ou transversales. Ricercar met en place un ensemble de bases de métadonnées fédérées qui décrivent et référencent les objets disponibles. Les serveurs web associes à ces bases composent ainsi dynamiquement les documents correspondants, indépendamment du serveur interroge ou de la localisation effective de ces données. Cette architecture garantit la qualité de service en assurant notamment la permanence des url publiées et la génération dynamique de la structure (l'arborescence) d'un serveur. Elle propose un modèle de navigation uniforme, géré l'authentification et les accès des utilisateurs et, enfin, autorise une surveillance d'ensemble ainsi que des statistiques de fréquentation modulaires et significatives. Suite a ses différents amorçages, Ricercar enregistre, dans cette même base repartie, la description et les références de ses propres données ainsi que celle des méta-scripts utilises pour générer dynamiquement les documents de l'intranet. Cette réflexivité, qui lui permet de manipuler et d'enrichir ses structures, en fait ainsi un système ouvert et adaptatif. Nous analysons donc les spécificités techniques et organisationnelles qui singularisent à notre sens l'intranet par rapport à l'internet ainsi que leur implémentation dans Ricercar, compare à un orb, dont nous présenterons les applications concrètes ainsi que les différentes perspectives d'évolution.
APA, Harvard, Vancouver, ISO, and other styles
38

Soutou, Christian. "Contribution à la conception d'une base de données fédérée : dérivation, évolution et intégration de schémas." Toulouse 3, 1994. http://www.theses.fr/1994TOU30187.

Full text
Abstract:
L'objectif d'un systeme federe est de faire cooperer un ensemble de bases de donnees. Cette these contribue a la conception des schemas d'une base de donnees federee heterogene dans un environnement constitue de systemes relationnels et orientes-objet. La demarche de conception adoptee comporte quatre etapes. A chaque etape, nous proposons aux administrateurs de bases de donnees des techniques de definition de schemas. Le modele oriente-objet ifo#2 joue le role de modele commun de donnees de la federation. Nous traduisons les schemas relationnels en schemas ifo#2 equivalents en deux temps: extraction des types d'association et derivation en structures ifo#2. La derivation s'effectue en trois phases: deduction des types de base ifo#2 a partir des relations principales, deduction des arcs et des fonctions a partir des dependances d'inclusion, et enfin, deduction des fragments. Dans la deuxieme etape, nous utilisons des regles de suppression et de modification de types ifo#2 afin de faire evoluer un schema ifo#2 en plusieurs sous-schemas. Nous etudions les consequences de la fragmentation des types sur la coherence d'un sous-schema. L'integration de schemas ifo#2 repose sur la comparaison et la transformation de structures. Nous appliquons au modele ifo#2 des principes de certaines methodes d'integration recentes. Nous adaptons des calculs de similitude afin de comparer des types. Les transformations de types sont regies par des regles d'integration que nous definissons. Nous abordons la notion de vue sous un double aspect: l'aspect prospectif dans lequel nous decrivons un schema virtuel derive d'un schema o#2, l'aspect operationnel dans lequel nous explicitons chacune des possibilites de definition de vues, offertes a un administrateur de federation. Nous appliquons ces principes a un cas concret lorsque nous definissons les schemas de la base de donnees federee gerant une partie de la scolarite des trois universites toulousaines
APA, Harvard, Vancouver, ISO, and other styles
39

Grazziottin, Ribeiro Helena. "Un service de règles actives pour fédérations de bases de données." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10084.

Full text
Abstract:
Dans les SGBD actifs la notion de réaction automatique à des événements est offerte au travers de règles actives de la forme Événement-Condition-Action. Ces règles sont gérées par des mécanismes spécifiques, dits actifs, intégrés dans les SGBD. Nous nous intéressons à l'introduction de ces mécanismes dans les fédérations de données. Les fédérations sont caractérisées par la distribution et l'autonomie de leurs composants et les mécanismes actifs doivent donc s'adapter à de telles caractéristiques. Notre approche propose de mettre en œuvre ces mécanismes sous forme d'un service de règles et un service d'événements qui coopèrent. Dans cette thèse nous nous intéressons plus précisément à la définition et à la structuration d'un service de règles. Nous proposons un service adaptable nommé ADRUS (pour ADaptable RUle Service) qui permet la construction et le contrôle de gestionnaires de règles spécialisés selon les besoins des applications de la fédération bases de données. Les modèles implantés par ces gestionnaires sont spécifiés à partir des trois métamodèles offerts par le service : le métamodèle de définition et de manipulation de règles, le métamodèle d'exécution de règles et le métamodèle de coopération entre gestionnaires. Notre travail se concentre sur la définition de la structure et des caractéristiques des métamodèles. Nous modélisons la coopération entre gestionnaires de règles, d'événements et de transactions car celle-ci est fondamentale pour l'exécution des règles dans une fédération. Nous présentons une expérience d'utilisation de notre service dans le cadre de la mise en œuvre de systèmes ODAS. Ces systèmes sont basés sur des services d'événements et de règles ouverts et répartis (Open and Distributed Active Services) utilisés au niveau d'une fédération de bases de données dans le contexte d'une application de type commerce électronique
APA, Harvard, Vancouver, ISO, and other styles
40

El, Attar Ali. "Estimation robuste des modèles de mélange sur des données distribuées." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00746118.

Full text
Abstract:
Cette thèse propose une contribution en matière d'analyse de données, dans la perspective de systèmes informatiques distribués non-centralisés, pour le partage de données numériques. De tels systèmes se développent en particulier sur internet, possiblement à large échelle, mais aussi, par exemple, par des réseaux de capteurs. Notre objectif général est d'estimer la distribution de probabilité d'un jeu de données distribuées, à partir d'estimations locales de cette distribution, calculées sur des sous- jeux de données locaux. En d'autres termes, il s'est agi de proposer une technique pour agréger des estimés locaux pour en faire un estimé global. Notre proposition s'appuie sur la forme particulière que doivent prendre toutes les distributions de probabilité manipulées : elles doivent se formuler comme un mélange de lois gaussiennes multivariées. Notre contribution est une solution à la fois décentralisée et statistiquement robuste aux modèles locaux aberrants, pour mener à bien l'agrégation globale, à partir d'agrégations locales de mélanges de lois gaussiennes. Ces agrégations locales ne requièrent un accès qu'aux seuls paramètres des modèles de mélanges, et non aux données originales.
APA, Harvard, Vancouver, ISO, and other styles
41

Larios, Rosillo Victor. "Stratégies en ligne pour une qualité de service satisfaisante dans un système de réalité virtuelle répartie." Compiègne, 2001. http://www.theses.fr/2001COMP1335.

Full text
Abstract:
La réalité virtuelle est une nouvelle discipline possédant une problématique à la frontière de plusieurs domaines de la recherche en informatique. Lorsqu'un environnement virtuel est partagé en temps réel par plusieurs utilisateurs, on retrouve des problèmes classiques des systèmes distribués. Un des problèmes en temps réel de grande importance est celui lié à la préservation de la qualité de service (qs) dans le système. La plupart des systèmes développés pour l'étude et la résolution de cette problématique correspondant aux architectures de plateformes spécifiques et peu hétérogènes. Les solutions proposées visent aux raccourcis technologiques. Dans le cadre de cette problématique, notre première contribution a été le développement d'une application innovante dvrmedia, un support virtuel 3d pour la consultation de bibliothèques multimédias greffées sur une autoroute de l'information (intranet). La contribution originale de dvrmedia est l'apport distribué grâce aux approches traditionnelles. La deuxième contribution correspond à l'innovation que nous introduisons en intégrant deux paradigmes pour la résolution de la qs dans les environnements virtuels répartis : l'algorithmique en ligne et les agents mobiles. Il s'agit des domaines de recherche à part entière récents et prometteurs. L'algorithmique en ligne donne les outils de mesure de performance indépendants de la technologie. Les agents mobiles offrent la flexibilité et les aspects de sécurité requis. A l'aide de la modélisation de notre problème avec le problème des k-serveurs en ligne, nous proposons deux stratégies déterministes en ligne d'amélioration de la qs et nous évaluons les performances de notre solution. Ce travail a consisté en la réalisation d'un prototype et la mise en adéquation entre l'approche théorique et la solution pratique originale par l'implémentation avec les agents mobiles.
APA, Harvard, Vancouver, ISO, and other styles
42

Bekele, Dawit. "Contribution à l'étude de la répartition d'applications écrites en langage ADA 83." Toulouse 3, 1994. http://www.theses.fr/1994TOU30069.

Full text
Abstract:
De nombreux problemes ont ete rencontres lors de l'utilisation du langage ada dans la programmation d'applications destinees aux systemes repartis. L'objectif de cette these est de fournir des solutions a certains problemes. Le premier chapitre detaille les objectifs de la these et introduit son contenu. Le second chapitre presente les systemes repartis et les langages qui leur sont dedies. Un etat de l'art de l'utilisation du langage ada dans le cadre de la repartition constitue le troisieme chapitre. Le quatrieme chapitre presente les principaux choix du projet strada sur lequel s'appuie le travail de cette these. Le chapitre suivant est consacre a l'etude de chacun des problemes qui decoulent des choix effectues dans le projet et a la presentation des solutions proposees. Le dernier chapitre fait un bilan de ce travail et de son apport dans la realisation d'applications reparties. Deux choix importants ont ete faits dans le cadre de ce travail. Le premier consiste a l'utilisation du modele des taches ada pour exprimer le parallelisme logique, la synchronisation et la communication entre unites paralleles d'une application repartie. Le deuxieme choix concerne l'adoption d'un modele de programmation en deux phases. Dans la premiere phase, les fonctionnalites et le parallelisme logique de l'application repartie sont programmes en ada. Dans la seconde phase de programmation, le programmeur peut eventuellement decider du placement des differentes taches. De plus, ce projet a permis une etude approfondie du probleme de la terminaison des taches dans un cadre reparti. Un algorithme specifique a ete defini et valide
APA, Harvard, Vancouver, ISO, and other styles
43

El, Merhebi Souad. "La gestion d'effet : une méthode de filtrage pour les environnements virtuels répartis." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/243/1/El_Merhebi_Souad.pdf.

Full text
Abstract:
Les environnements virtuels distribués (EVDs) sont destinés à fournir à leurs utilisateurs une expérience immersive au sein d'un environnement virtuel partagé. Pour cette raison, les EVDs essaient d'apporter aux différents participants des vues cohérentes du monde partagé. Ceci nécessite un échange intense de messages en particulier pour les EVDs fortement peuplés. Cet important échange de messages consomme beaucoup de ressources de calcul et réseau, ce qui ralentit le système et limite l'interactivité. Ainsi, la cohérence, l'interactivité et le passage à l'échelle sont trois besoins primordiales pour les EVDs. Par contre, ces besoins sont contradictoires : le besoin de cohérence requiert un échange plus important de messages alors que ceux d'interactivité et de passage à l'échelle demandent de diminuer au minimum ces échanges. Pour gérer l'échange de messages d'une manière intelligente, les systèmes d'EVDs utilisent des méthodes de filtrage différentes. Parmi ces méthodes, les méthodes de gestion d'intérêt filtrent les messages en se basant sur les intérêts des utilisateurs dans le monde. Dans ce document, nous présentons notre méthode de gestion d'intérêt, la gestion d'effet. Cette méthode exprime les intérêts et les manifestations des participants dans les différents média à travers les zones de conscience et d'effet. Lorsque la zone de conscience d'un participant chevauche la zone d'effet d'un autre dans un média, le premier devient conscient du second dans ce média. De plus, pour un passage à l'échelle continu, la gestion d'effet a été développée au sein d'une architecture client/multi-serveurs qui gère les intérêts des participants à travers les serveurs. .
Distributed virtual environments (DVEs) are intended to provide an immersive experience to their users within a shared virtual environment. For this purpose, DVEs try to supply participants with coherent views of the shared world. This requires a heavy message exchange between participants especially with the increasing popularity of massively multiplayer DVEs. This heavy message exchange consumes a lot of processing power and bandwidth, slowing down the system and limiting interactivity. Indeed, coherence, interactivity and scalability are basic requirements of DVEs. However, these requirements are conflicting because coherence requires the more important exchange of messages that we can have while interactivity and scalability demand to decrease this exchange to minimum. For this reason, the management of message exchange is essential for distributed virtual environments. To manage message exchange in an intelligent way, DVE systems use various filtering techniques. Among them, interest management techniques filter messages according to users' interests in the world. In this document, we present our interest management technique, the effect management. This technique expresses the interests and manifestations of participants in various media through conscience and effect zones. When the conscience zone of a participant collides the effect zone of another participant in a given medium, the first one becomes conscious of the second. ). .
APA, Harvard, Vancouver, ISO, and other styles
44

Golenetskaya, Natalia. "Adressing scaling challenges in comparative genomics." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00865840.

Full text
Abstract:
La génomique comparée est essentiellement une forme de fouille de données dans des grandes collections de relations n-aires. La croissance du nombre de génomes sequencés créé un stress sur la génomique comparée qui croit, au pire géométriquement, avec la croissance en données de séquence. Aujourd'hui même des laboratoires de taille modeste obtient, de façon routine, plusieurs génomes à la fois - et comme des grands consortia attend de pouvoir réaliser des analyses tout-contre-tout dans le cadre de ses stratégies multi-génomes. Afin d'adresser les besoins à tous niveaux il est nécessaire de repenser les cadres algorithmiques et les technologies de stockage de données utilisés pour la génomique comparée. Pour répondre à ces défis de mise à l'échelle, dans cette thèse nous développons des méthodes originales basées sur les technologies NoSQL et MapReduce. À partir d'une caractérisation des sorts de données utilisés en génomique comparée et d'une étude des utilisations typiques, nous définissons un formalisme pour le Big Data en génomique, l'implémentons dans la plateforme NoSQL Cassandra, et évaluons sa performance. Ensuite, à partir de deux analyses globales très différentes en génomique comparée, nous définissons deux stratégies pour adapter ces applications au paradigme MapReduce et dérivons de nouveaux algorithmes. Pour le premier, l'identification d'événements de fusion et de fission de gènes au sein d'une phylogénie, nous reformulons le problème sous forme d'un parcours en parallèle borné qui évite la latence d'algorithmes de graphe. Pour le second, le clustering consensus utilisé pour identifier des familles de protéines, nous définissons une procédure d'échantillonnage itérative qui converge rapidement vers le résultat global voulu. Pour chacun de ces deux algorithmes, nous l'implémentons dans la plateforme MapReduce Hadoop, et évaluons leurs performances. Cette performance est compétitive et passe à l'échelle beaucoup mieux que les algorithmes existants, mais exige un effort particulier (et futur) pour inventer les algorithmes spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
45

Hjiej, Omar. "Systèmes de traitements coopératifs : spécification et vérification formelles orientées par des considérations de performances." Toulouse 3, 1993. http://www.theses.fr/1993TOU30244.

Full text
Abstract:
Le developpement des systemes de traitements cooperatifs est une activite importante de l'informatique. Des techniques specifiques permettent de decrire et de verifier les proprietes fonctionnelles et quantitatives. Cependant, ces techniques sont dissociees et presentent des limites lorsque les systemes deviennent complexes. Une methodologie de specification formelle des composants logiciels en langage z est proposee. Le langage z est base sur la theorie des ensembles et la logique des predicats. Une specification z est composee de schemas, de trois types: etat, initialisation et operation. La puissance du formalisme a permis de developper une methodologie de verification logique automatique supportee par l'outil b. Lotos et estelle, candidates pour la conception des systemes cooperatifs, n'ont pas la flexibilite et la puissance de verification de z pour etablir plusieurs types de proprietes. Mais, le concept de point d'interaction qu'elles offrent pour decrire les frontieres entre processus concurrents, n'existe pas dans z. Aussi, z en a-t-il ete enrichi. La description z du processus offrant les operations d'interaction est operee par raffinages successifs bases sur des schemas d'abstraction. Le probleme de completude des operations est traite par resolution des predicats de pre-condition. L'interpretation des formes de concurrence offertes par z est analysee a l'aide des descriptions comportementales, decrites en csp, des differentes versions du modele du point d'interaction. La demarche d'evaluation de performance proposee tient a preserver la qualite des conceptions garanties par les techniques formelles de description. Par application d'un ensemble de regles, des reseaux de files d'attente codes en langage qnap2, sont generes a partir de specifications lotos annotees. Les resultats de performances sont obtenus grace aux annotations de duree et de probabilite associees respectivement aux actions et aux expressions de comportements composees par les constructeurs non deterministes de lotos
APA, Harvard, Vancouver, ISO, and other styles
46

Gruszka, Samuel. "Étude et spécification d'un partitionnement dynamique Data-Flow en environnement numérique." Toulouse, INPT, 1995. http://www.theses.fr/1995INPT074H.

Full text
Abstract:
Dans cette thèse nous étudions le comportement en environnement numérique d'une nouvelle stratégie d'analyse d'un graphe des dépendances de données appelée "Partitionnement dynamique Data-Flow" (DPDF). Cette stratégie donne la priorité à la poursuite de chemins en s'appuyant sur une fonction de "prédiction" permettant l'évaluation sans défauts de séquencement de noeuds appartenant à un même chemin de dépendance. Nous rappelons tout d'abord les grands principes des modèles dits à flots de données, puis présentons plus en détails la stratégie DPDF. Nous évaluons ensuite cette stratégie dans deux contextes.
APA, Harvard, Vancouver, ISO, and other styles
47

Villemur, Thierry. "Conception de services et de protocoles pour la gestion de groupes coopératifs." Phd thesis, Université Paul Sabatier - Toulouse III, 1995. http://tel.archives-ouvertes.fr/tel-00146528.

Full text
Abstract:
Le travail coopératif est un domaine qui étudie le travail de groupes d'utilisateurs de façon générale. Sa finalité est la conception de collecticiels, ensembles logiciels qui contiennent les outils, les applications, et les plate-formes qui supportent les activités de groupes d'utilisateurs. La gestion de ces groupes et les échanges d'information entre leurs membres nécessitent la définition de nouveaux services de communication adaptés aux besoins des agents en coopération. Les travaux menés dans ce mémoire ont consisté à définir, à concevoir et à gérer la structuration des groupes coopératifs. Un modèle à base de graphes a été proposé à partir du partage de données, pour représenter les relations entre les divers membres d'un groupe coopératif. A partir de ce modèle, un service pour l'entrée et la sortie en coopération des agents coopérants a été défini. Un protocole de communication sous-jacent a été spécifié en utilisant le langage de description formelle Estelle. Le protocole proposé a été vérifié en utilisant l'environnement à base de réseaux de Petri VAL, puis a été implanté en langage C sous UNIX à partir du code Estelle généré. Une extension de ce travail permet la formation d'apartés qui sont des sous-groupes très dynamiques créés à l'intérieur de la coopération. Un autre protocole spécifié en Estelle a été proposé pour gérer la formation de ces apartés et leur évolution au sein de la coopération. En plus de la structuration des groupes, une étude des données qui peuvent être échangées entre des agents coopérants a mené à la définition d'un service de gestion des dépendances de données. Ce service, spécifié également en Estelle, permet de créer, supprimer ou modifier des dépendances entre données, et répercute les modifications de valeurs vers l'ensemble des données dépendantes.
APA, Harvard, Vancouver, ISO, and other styles
48

Le, Ber Françoise. "Modélisation des connaissances et raisonnements pour l'analyse de paysages agraires à partir de données satellitaires." Nancy 1, 1993. http://www.theses.fr/1993NAN10342.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre d'une collaboration entre l'INRA et le CRIN/INRIA. Elle porte sur la représentation des connaissances et raisonnements au moyen de systèmes multi-agents à base de tableau noir, et s'intéresse en particulier à l'usage des modèles dans l'expertise et dans sa représentation. Le domaine d'expertise est celui de l'agronomie confrontée à l'imagerie satellitaire: des images sont extraites des cartes régionales d'occupation du sol qui suivent ensuite un diagnostic des systèmes agraires. La première partie du rapport présente des généralités sur l'expertise, les systèmes d'analyse d'images, les systèmes multi-agents à base de tableau noir et les méthodes d'acquisition et de représentation de l'expertise. La deuxième partie du rapport s'intéresse à l'expertise concernant la cartographie des occupations du sol. Cette expertise est présentée puis formalisée en un modèle de raisonnement implanté dans le système aérosol, développé à partir d’atome. La connaissance est représentée à la fois dans les spécialistes et les tableaux noirs. Une évaluation du système est présentée. La troisième partie porte sur l'expertise concernant l'analyse des fonctionnements des systèmes agraires. Cette expertise contient différents niveaux de connaissances dont des modèles de paysages. Ceci amène à étudier le rôle des modèles dans l'expertise et dans sa représentation. Des modèles sont proposés pour formaliser la connaissance du domaine. Un modèle de fonctionnement des systèmes agraires est implanté dans le tableau noir de aréopage, système d'aide à l'analyse des cartes issues des images
APA, Harvard, Vancouver, ISO, and other styles
49

Ismail, Leila. "Infrastructure système pour applications réparties à base d'agents mobiles." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Katsifodimos, Asterios. "Scalable view-based techniques for web data : algorithms and systems." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00870456.

Full text
Abstract:
XML was recommended by W3C in 1998 as a markup language to be used by device- and system-independent methods of representing information. XML is nowadays used as a data model for storing and querying large volumes of data in database systems. In spite of significant research and systems development, many performance problems are raised by processing very large amounts of XML data. Materialized views have long been used in databases to speed up queries. Materialized views can be seen as precomputed query results that can be re-used to evaluate (part of) another query, and have been a topic of intensive research, in particular in the context of relational data warehousing. This thesis investigates the applicability of materialized views techniques to optimize the performance of Web data management tools, in particular in distributed settings, considering XML data and queries. We make three contributions.We first consider the problem of choosing the best views to materialize within a given space budget in order to improve the performance of a query workload. Our work is the first to address the view selection problem for a rich subset of XQuery. The challenges we face stem from the expressive power and features of both the query and view languages and from the size of the search space of candidate views to materialize. While the general problem has prohibitive complexity, we propose and study a heuristic algorithm and demonstrate its superior performance compared to the state of the art.Second, we consider the management of large XML corpora in peer-to-peer networks, based on distributed hash tables (or DHTs, in short). We consider a platform leveraging distributed materialized XML views, defined by arbitrary XML queries, filled in with data published anywhere in the network, and exploited to efficiently answer queries issued by any network peer. This thesis has contributed important scalability oriented optimizations, as well as a comprehensive set of experiments deployed in a country-wide WAN. These experiments outgrow by orders of magnitude similar competitor systems in terms of data volumes and data dissemination throughput. Thus, they are the most advanced in understanding the performance behavior of DHT-based XML content management in real settings.Finally, we present a novel approach for scalable content-based publish/subscribe (pub/sub, in short) in the presence of constraints on the available computational resources of data publishers. We achieve scalability by off-loading subscriptions from the publisher, and leveraging view-based query rewriting to feed these subscriptions from the data accumulated in others. Our main contribution is a novel algorithm for organizing subscriptions in a multi-level dissemination network in order to serve large numbers of subscriptions, respect capacity constraints, and minimize latency. The efficiency and effectiveness of our algorithm are confirmed through extensive experiments and a large deployment in a WAN.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography