To see the other types of publications on this topic, follow the link: Allocation des données réparties.

Dissertations / Theses on the topic 'Allocation des données réparties'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Allocation des données réparties.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Quiané-Ruiz, Jorge-Alnulfo. "Allocation de requêtes dans des systèmes d'information distribués avec des participants autonomes." Nantes, 2008. https://tel.archives-ouvertes.fr/tel-00464475.

Full text
Abstract:
Nous nous intéressons aux systèmes d’informations où les participants (clients et fournisseurs) sont souvent autonomes, c. . D. Ils peuvent quitter le système à n’importe quel moment, et ont des intérêts particuliers pour certaines requêtes. Dans ces environnements, l’allocation de requêtes est un défi parce que les participants ont généralement certaines attentes qui ne sont pas seulement liées aux performances du système. Dans ce contexte, l’insatisfaction des participants est un problème car elle peut conduire les participants à quitter le système. Par conséquent, il est très important de satisfaire les intérêts des participants de sorte qu’ils soient satisfaits. Dans cette thèse, nous abordons ce problème et effectuons quatre contributions principales. Primo, nous fournissons un modèle pour caractériser la perception des participants par rapport le système et proposons des mesures qui permettent d’évaluer la qualité des méthodes d’allocation de requêtes. Secundo, nous proposons SbQA : une méthode d’allocation de requêtes qui permet d’équilibrer à la volée les intérêts du client et ceux du fournisseurs en base à leur satisfaction. Tertio, nous proposons SbQA : une version économique de SbQA qui permet de passer à l’échelle en nombre de médiateurs, de participants, et par conséquent, de requêtes traitées. Quarto, nous proposons SbQR : une méthode de réplication de requêtes qui permet de supporter des possibles pannes des participants, tout en préservant la satisfaction des participants
In large-scale distributed information systems, where participants (consumers and providers) are autonomous and have special interests for some queries, query allocation is a challenge. Much work in this context has focused on distributing queries among providers in a way that maximizes overall performance (typically throughput and response time). However, participants usually have certain expectations with respect to the mediator, which are not only performance-related. Such expectations mainly reflect their interests to allocate and perform queries, e. G. Their interests towards: providers (based on reputation for example), quality of service, topics of interests, and relationships with other participants. In this context, because of participants’ autonomy, dissatisfaction is a problem since it may lead participants to leave the mediator. Participant’s satisfaction means that the query allocation method meets its expectations. Thus, besides balancing query load, preserving the participants’ interests so that they are satisfied is also important. In this thesis, we address the query allocation problem in these environments and make the following main contributions. First, we provide a model to characterize the participants’ perception of the system regarding their interests and propose measures to evaluate the quality of query allocation methods. Second, we propose a framework for query allocation, called SbQA, that dynamically trades consumers’ interests for providers’ interests based on their satisfaction. Third, we propose an query allocation approach, called SbQA, that allows a query allocation method (specifically SbQA) to scale up in terms of the numbers of mediators, participants, and hence of performed queries. Fourth, we propose a query replication method, called SbQR, that allows to support participants’ failures when allocating queries while preserving participants’ satisfaction and good system performance. Last, but not least, we analytically and experimentally validate our proposals and demonstrate that they yield high efficiency while satisfying participants
APA, Harvard, Vancouver, ISO, and other styles
2

Robert, de Saint Victor Isabelle. "Système déductif dans le contexte de données réparties." Lyon 1, 1988. http://www.theses.fr/1988LYO10084.

Full text
Abstract:
La cooperation de prolog avec des bases de donnees est une strategie possible pour construire une base de connaissances. Elle permet d'utiliser l'acquis dans les domaines de l'inference par prolog et de la gestion des donnees avec les sgbds. Dans l'approche presentee, le dialogue entre prolog et les sgbds est realise par un processeur de communication. Son role est triple: 1) vehiculer l'information d'une maniere bidirectionnelle entre les deux systemes; 2) traduire les besoins en information, issus de prolog et exprimes en algebre relationnelle etendue, en requetes dans les langages de manipulation de donnees des sgbds; 3) gerer la repartition des donnees par un jeu d'operateurs algebriques et resoudre des requetes recursives
APA, Harvard, Vancouver, ISO, and other styles
3

Vargas-Solar, Genoveva. "Service d'évènements flexible pour l'intégration d'applications bases de données réparties." Université Joseph Fourier (Grenoble ; 1971-2015), 2000. http://www.theses.fr/2000GRE10259.

Full text
Abstract:
Cette these propose le service d'evenements adees (adaptable and extensible event service), un composant logiciel supportant l'integration et l'execution d'applications bases de donnees construites a partir de composants heterogenes et repartis. Adees est une infrastructure de specification et de generation de services d'evenements. Les services generes implantent un metamodele de types et un metamodele de gestion d'evenements et permettent la specification et la generation de gestionnaires d'evenements par specialisation et instanciation de ces metamodeles. Les fonctionnalites d'un gestionnaire sont decrites par un schema qui associe un modele de types a un modele de gestion d'evenements. Guides par des contrats decrits par des instances de schemas, les gestionnaires interagissent avec des producteurs et des consommateurs pour detecter et notifier des evenements. Les proprietes d'adaptabilite et d'extensibilite statiques et dynamiques d'un service et de ses gestionnaires leur permettent de s'adapter aux besoins des applications et aux changements de l'environnement ou ils s'executent. Ces proprietes sont assurees dans adees par une technologie plug and play. Adees a ete utilise pour la construction de systemes actifs a base de gestionnaires d'evenements et de regles actives. Ces gestionnaires implantent la cooperation et l'interaction entre composants repartis d'applications bases de donnees. Adees a egalement ete utilise pour la specification et la mise en uvre d'un systeme de gestion de flots de travail. S'appuyant sur un service d'evenements et sur des systemes actifs, le systeme assure l'execution de flots de travail.
APA, Harvard, Vancouver, ISO, and other styles
4

Sarr, Idrissa. "Routage des transactions dans les bases de données à large échelle." Paris 6, 2010. http://www.theses.fr/2010PA066330.

Full text
Abstract:
La réplication dans les bases de données a été largement étudiée, au cours des trois dernières décennies. Elle vise à améliorer la disponibilité des données et à augmenter la performance d’accès aux données. Un des défis majeurs de la réplication est de maintenir la cohérence mutuelle des répliques, lorsque plusieurs d’entre elles sont mises à jour, simultanément, par des transactions. Des solutions qui relèvent partiellement ce défi pour un nombre restreint de bases de données reliées par un réseau fiable existent. Toutefois, ces solutions ne sont pas applicables à large échelle. Par ailleurs, l’antinomie entre les besoins de performances et ceux de cohérence étant bien connue, l’approche suivie dans cette thèse consiste à relâcher les besoins de cohérence afin d’améliorer la performance d’accès aux données. Dans cette thèse, nous considérons des applications transactionnelles déployées à large échelle et dont les données sont hébergées dans une infrastructure très dynamique telle qu’un système pair-à-pair. Nous proposons une solution intergicielle qui rend transparente la distribution et la duplication des ressources mais aussi leur indisponibilité temporaire. Nous définissons deux protocoles pour maintenir la cohérence globale: un premier protocole ordonne les transactions à partir de la définition a priori des données accédées, et un deuxième qui détermine un ordre plus souple, en comparant les données accédées, le plus tardivement possible, juste avant la validation des transactions. Toutes les solutions proposées tolèrent les pannes franches, fonctionnalité essentielle pour que les résultats de cette thèse puissent être mis en œuvre à très large échelle. Finalement, nous avons implémenté nos solutions pour les valider expérimentalement. Les tests de performances montrent que la gestion des métadonnées est efficace et améliore le débit transactionnel et que la redondance de l’intergiciel diminue le temps de réponse face aux situations de pannes.
APA, Harvard, Vancouver, ISO, and other styles
5

Dahan, Sylvain. "Mécanismes de recherche de services extensibles pour les environnements de grilles de calcul." Besançon, 2005. http://www.theses.fr/2005BESA2063.

Full text
Abstract:
Deux topologies sont couramment utilisées pour former ces graphes de communication : les arbres et les graphes pseudo-aléatoires. Si les arbres permettent de réaliser des parcours avec un nombre de messages optimal, ils souffrent de la présence de noeuds de contention qui limitent le nombre de recherches pouvant être effectuées de manière simultanée. Quant aux graphes pseudo-aléatoires, bien qu'ils utilisent plus de messages, ils supportent une charge plus importante tout en fournissant des recherches plus rapides. La solution proposée est une alternative entre les arbres et les graphes. Elle emprunte aux arbres leur structure hiérarchique pour minimiser le nombre de messages et aux graphes l'égalité de leurs noeuds. Si chaque noeud de l'arbre est un serveur, certains serveurs sont des feuilles se contentant de recevoir des messages. Les autres serveurs sont des noeuds intermédiaires acheminant les messages de recherche. Afin de mettre tous les serveurs sur un pied d'égalité, nous distribuons le rôle des noeuds intermédiaires entre plusieurs serveurs. Nous avons montré qu'il est possible de construire un tel arbre qui réalise effectivement les recherches par voisinage à l'aide d'algorithmes de parcours d'arbre tout en répartissant la charge d'une manière similaire aux parcours de graphe. Il en résulte de meilleures performances concernant la vitesse de recherche et la charge supportée quel que soit le nombre de serveurs et la probabilité de trouver une offre
The aim of Grid computing is to share computing resources. Users should find efficiently the resources that they need. To do it, we propose to connect the resources with an overlay network and to use a flooding search algorithm. Overlay networks are usually formed with a graph or a tree. Trees use an optimal number of messages but suffer of bottlenecks which reduce the number of simultaneous search that can be done. Graphs use more messages but support an higher number of simultaneous searches. We propose a new topology which uses an optimal number of messages like trees and does not have any bottleneck like graphs. If every node of a tree is a computer, some computers are leaves which receive messages and the others are intermediate nodes which forward messages. We distribute the intermediate nodes role between every server in a way where every server have the same roles. This new tree structure is build recursively: every server is a leaf and intermediate nodes are complete graphs of their children. We show that such kind of tree can be build and that it is possible to run tree traversal on it. We also show that the load is fairly shared between the servers. As a result, this structure has better performances than the tree and the graph in search speed term and in load term
APA, Harvard, Vancouver, ISO, and other styles
6

Ravat, Franck. "Od3 : contribution méthodologique à la conception de bases de données orientées objet réparties." Toulouse 3, 1996. http://www.theses.fr/1996TOU30150.

Full text
Abstract:
Nos travaux se situent dans le cadre de la conception de bases de donnees orientees objet (bdoo) reparties. La methode que nous proposons construit les schemas des bd locales par repartition d'un schema conceptuel global (approche descendante). Nous avons decompose ce processus de repartition en quatre etapes: ? l'acquisition des facteurs de la repartition consiste a dissocier les aspects statiques des aspects dynamiques. Cette dissociation permet d'appliquer les algorithmes de fragmentation sur les classes du schema statique en tenant compte d'informations du schema dynamique. Lors de cette etape le concepteur construit aussi un schema des frequences (des methodes) et des matrices d'usage (indiquant les donnees manipulees par chacune des methodes de la bd). ? pour la fragmentation, nous avons developpe des algorithmes de fragmentation des classes du schema statique. Ces algorithmes sont bases sur une extension des algorithmes developpes pour le modele relationnel et presentent l'avantage de tenir compte des besoins des methodes (fragmentation primaire) et de la structure du schema (fragmentation derivee). Nous avons aussi concu des algorithmes pour la definition d'unites d'allocation du schema dynamique. ? pour l'allocation, nous avons defini une fonction de cout qui minimise les couts de stockage et de communication afin de placer les donnees (fragments de classes) et les traitements (methodes). ? la derniere etape consiste en la construction des schemas conceptuels locaux en fonction du placement precedemment defini. Pour valider l'ensemble de ce processus, nous avons realise un outil d'aide a la conception qui effectue la fragmentation et l'allocation de facon automatique selon l'approche que nous proposons
APA, Harvard, Vancouver, ISO, and other styles
7

Lumineau, Nicolas. "Organisation et localisation de données hétérogènes et réparties sur un réseau Pair-à-Pair." Paris 6, 2005. http://www.theses.fr/2005PA066436.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Meynard, Michel. "Contrôle de la cohérence des bases de données réparties et dupliquées, sujettes aux partitionnements." Montpellier 2, 1990. http://www.theses.fr/1990MON20022.

Full text
Abstract:
Cette these a pour objet d'etudier les partitionnements du reseau de communication dans les bases de donnees reparties et dupliquees. Apres avoir propose un modele de base de donnees et des transactions y accedant, on definit la coherence d'une execution concurrente partitionnee grace au critere de 1-serialisabilite. Puis, un panorama expose certaines methodes publiees de gestion de la duplication. Le chapitre iv enonce un protocole de gestion des parties virtuelles permettant aux sites d'une meme partie d'avoir la meme vue. Enfin les deux derniers chapitres exhibent deux methodes originales de gestion de la duplication: la methode optimiste permet de resoudre les incoherences grace a un graphe de precedence etabli apres la fusion de la base. D'autre part, le modele d'objet fragmentaire ameliore notablement la disponibilite de la base en adaptant le comportement des objets fragmentaires a la configuration de communication
APA, Harvard, Vancouver, ISO, and other styles
9

Driouche, Mohamed. "Un système de gestion de base de données réparties dans un environnement temps réel." Paris 6, 1989. http://www.theses.fr/1989PA066730.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Oğuz, Damla. "Méthodes d'optimisation pour le traitement de requêtes réparties à grande échelle sur des données liées." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30067/document.

Full text
Abstract:
Données Liées est un terme pour définir un ensemble de meilleures pratiques pour la publication et l'interconnexion des données structurées sur le Web. A mesure que le nombre de fournisseurs de Données Liées augmente, le Web devient un vaste espace de données global. La fédération de requêtes est l'une des approches permettant d'interroger efficacement cet espace de données distribué. Il est utilisé via un moteur de requêtes fédéré qui vise à minimiser le temps de réponse du premier tuple du résultat et le temps d'exécution pour obtenir tous les tuples du résultat. Il existe trois principales étapes dans un moteur de requêtes fédéré qui sont la sélection de sources de données, l'optimisation de requêtes et l'exécution de requêtes. La plupart des études sur l'optimisation de requêtes dans ce contexte se concentrent sur l'optimisation de requêtes statique qui génère des plans d'exécution de requêtes avant l'exécution et nécessite des statistiques. Cependant, l'environnement des Données Liées a plusieurs caractéristiques spécifiques telles que les taux d'arrivée de données imprévisibles et les statistiques peu fiables. En conséquence, l'optimisation de requêtes statique peut provoquer des plans d'exécution inefficaces. Ces contraintes montrent que l'optimisation de requêtes adaptative est une nécessité pour le traitement de requêtes fédéré sur les données liées. Dans cette thèse, nous proposons d'abord un opérateur de jointure adaptatif qui vise à minimiser le temps de réponse et le temps d'exécution pour les requêtes fédérées sur les endpoints SPARQL. Deuxièmement, nous étendons la première proposition afin de réduire encore le temps d'exécution. Les deux propositions peuvent changer la méthode de jointure et l'ordre de jointures pendant l'exécution en utilisant une optimisation de requêtes adaptative. Les opérateurs adaptatifs proposés peuvent gérer différents taux d'arrivée des données et le manque de statistiques sur des relations. L'évaluation de performances dans cette thèse montre l'efficacité des opérateurs adaptatifs proposés. Ils offrent des temps d'exécution plus rapides et presque les mêmes temps de réponse, comparé avec une jointure par hachage symétrique. Par rapport à bind join, les opérateurs proposés se comportent beaucoup mieux en ce qui concerne le temps de réponse et peuvent également offrir des temps d'exécution plus rapides. En outre, le deuxième opérateur proposé obtient un temps de réponse considérablement plus rapide que la bind-bloom join et peut également améliorer le temps d'exécution. Comparant les deux propositions, la deuxième offre des temps d'exécution plus rapides que la première dans toutes les conditions. En résumé, les opérateurs de jointure adaptatifs proposés présentent le meilleur compromis entre le temps de réponse et le temps d'exécution. Même si notre objectif principal est de gérer différents taux d'arrivée des données, l'évaluation de performance révèle qu'ils réussissent à la fois avec des taux d'arrivée de données fixes et variés
Linked Data is a term to define a set of best practices for publishing and interlinking structured data on the Web. As the number of data providers of Linked Data increases, the Web becomes a huge global data space. Query federation is one of the approaches for efficiently querying this distributed data space. It is employed via a federated query engine which aims to minimize the response time and the completion time. Response time is the time to generate the first result tuple, whereas completion time refers to the time to provide all result tuples. There are three basic steps in a federated query engine which are data source selection, query optimization, and query execution. This thesis contributes to the subject of query optimization for query federation. Most of the studies focus on static query optimization which generates the query plans before the execution and needs statistics. However, the environment of Linked Data has several difficulties such as unpredictable data arrival rates and unreliable statistics. As a consequence, static query optimization can cause inefficient execution plans. These constraints show that adaptive query optimization should be used for federated query processing on Linked Data. In this thesis, we first propose an adaptive join operator which aims to minimize the response time and the completion time for federated queries over SPARQL endpoints. Second, we extend the first proposal to further reduce the completion time. Both proposals can change the join method and the join order during the execution by using adaptive query optimization. The proposed operators can handle different data arrival rates of relations and the lack of statistics about them. The performance evaluation of this thesis shows the efficiency of the proposed adaptive operators. They provide faster completion times and almost the same response times, compared to symmetric hash join. Compared to bind join, the proposed operators perform substantially better with respect to the response time and can also provide faster completion times. In addition, the second proposed operator provides considerably faster response time than bind-bloom join and can improve the completion time as well. The second proposal also provides faster completion times than the first proposal in all conditions. In conclusion, the proposed adaptive join operators provide the best trade-off between the response time and the completion time. Even though our main objective is to manage different data arrival rates of relations, the performance evaluation reveals that they are successful in both fixed and different data arrival rates
APA, Harvard, Vancouver, ISO, and other styles
11

Al, King Raddad. "Localisation de sources de données et optimisation de requêtes réparties en environnement pair-à-pair." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/912/.

Full text
Abstract:
Malgré leur succès dans le domaine du partage de fichiers, les systèmes P2P sont capables d'évaluer uniquement des requêtes simples basées sur la recherche d'un fichier en utilisant son nom. Récemment, plusieurs travaux de recherche sont effectués afin d'étendre ces systèmes pour qu'ils permettent le partage de données avec une granularité fine (i. E. Un attribut atomique) et l'évaluation de requêtes complexes (i. E. Requêtes SQL). A cause des caractéristiques des systèmes P2P (e. G. Grande-échelle, instabilité et autonomie de nœuds), il n'est pas pratique d'avoir un catalogue global qui contient souvent des informations sur: les schémas, les données et les hôtes des sources de données. L'absence d'un catalogue global rend plus difficiles: (i) la localisation de sources de données en prenant en compte l'hétérogénéité de schémas et (ii) l'optimisation de requêtes. Dans notre thèse, nous proposons une approche pour l'évaluation des requêtes SQL en environnement P2P. Notre approche est fondée sur une ontologie de domaine et sur des formules de similarité pour résoudre l'hétérogénéité sémantique des schémas locaux. Quant à l'hétérogénéité structurelle de ces schémas, elle est résolue grâce à l'extension d'un algorithme de routage de requêtes (i. E. Le protocole Chord) par des Indexes de structure. Concernant l'optimisation de requêtes, nous proposons de profiter de la phase de localisation de sources de données pour obtenir toutes les méta-données nécessaires pour générer un plan d'exécution proche de l'optimal. Afin de montrer la faisabilité et la validité de nos propositions, nous effectuons une évaluation des performances et nous discutons les résultats obtenus
Despite of their great success in the file sharing domain, P2P systems support only simple queries usually based on looking up a file by using its name. Recently, several research works have made to extend P2P systems to be able to share data having a fine granularity (i. E. Atomic attribute) and to process queries written with a highly expressive language (i. E. SQL). The characteristics of P2P systems (e. G. Large-scale, node autonomy and instability) make impractical to have a global catalog that stores often information about data, schemas and data source hosts. Because of the absence of a global catalog, two problems become more difficult: (i) locating data sources with taking into account the schema heterogeneity and (ii) query optimization. In our thesis, we propose an approach for processing SQL queries in a P2P environment. To solve the semantic heterogeneity between local schemas, our approach is based on domain ontology and on similarity formulas. As for the structural heterogeneity of local schemas, it is solved by the extension of a query routing method (i. E. Chord protocol) with Structure Indexes. Concerning the query optimization problem, we propose to take advantage of the data source localization phase to obtain all metadata required for generating a close to optimal execution plan. Finally, in order to show the feasibility and the validity of our propositions, we carry out performance evaluations and we discuss the obtained results
APA, Harvard, Vancouver, ISO, and other styles
12

Sahri, Soror. "Conception et implantation d'un système de bases de données distribuée & scalable : SD-SQL Server." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090013.

Full text
Abstract:
Le thème de recherche de cette thèse concerne la conception et l’implantation d’un système de gestion de bases de données distribuées et scalables (ang. Scalable Distributed Database System, SD-DBS) que nous avons appelé SD-SQL Server. SD-SQL Server implémente une nouvelle architecture de SGBD relationnel. Une base de SD-SQL Server, dite base scalable, grandit par la partition dynamique, scalable et distribuée de ses tables, dites scalables aussi. La partition et son évolution sont invisibles de l’usager/application. A l’heure actuelle, SD-SQL Server est le seul SGBD à offrir cette possibilité à notre connaissance. Les autres SGBDs connus, n’offrent au mieux que le partitionnement statique, nécessitant des réorganisations périodiques globales. Leur maniement est en général complexe et peu apprecié des usagers. Nos tables scalables sont organisées en segments d’une structure de données distribuée et scalable (SDDS). Chaque segment est placé sur un nœud lié de SQL Server. A l’heure actuelle, SQL Server supporte 250 nœuds liés, permettant à une table scalable de croître autant. L'expansion dynamique résulte des éclatements de segments débordant leur capacité de stockage. Chaque éclatement est déclenché par une insertion, à l’origine du débordement. Tout éclatement crée un ou plusieurs nouveaux segments. Les segments sont cachés des usagers/applications derrière les vues supportant les mises à jour, dites images. Les images sont des vues partitionnées et distribuées de SQL Server dynamiquement ajustées. Les usagers/applications de tables scalables n’interfacent que les images ou les vues des images
Our thesis elaborates on the design of a scalable distributed database system (SD-DBS). A novel feature of an SD-DBS is the concept of a scalable distributed relational table, a scalable table in short. Such a table accommodates dynamic splits of its segments at SD-DBS storage nodes. A split occurs when an insert makes a segment to overflow, like in, e. G. , B-tree file. Current DBMSs provide the static partitioning only, requiring a cumbersome global reorganization from time to time. The transparency of the distribution of a scalable table is in this light an important step beyond the current technology. Our thesis explores the design issues of an SD-DBS, by constructing a prototype termed SD-SQL Server. As its name indicates, it uses the services of SQL-Server. SD-SQL Server repartitions a table when an insert overflows existing segments. With the comfort of a single node SQL Server user, the SD-SQL Server user has larger tables or a faster response time through the dynamic parallelism. We present the architecture of our system, its implementation and the performance analysis
APA, Harvard, Vancouver, ISO, and other styles
13

Hatimi, Mostafa. "Gestion des données dupliquées dans un environnement sujet aux partitionnements du réseau de communication." Montpellier 2, 1990. http://www.theses.fr/1990MON20133.

Full text
Abstract:
Cette these se situe dans le cadre de la gestion d'une base de donnees dupliquees et etudie les problemes qu'entrainent les pannes du reseau de communication. Dans un premier temps, nous exposons les concepts de base du controle de concurrence et de la repartition d'une base de donnees. Nous degageons ensuite un modele de gestion du reseau supportant la duplication des objets de la base, dont la nouveaute repose sur la notion de vue. Une vue est un groupe de sites cooperant pour l'execution d'une transaction initiee par l'un d'eux. Finalement nous proposons un algorithme original de construction des vues. Contrairement aux algorithmes existants reposant sur la connaissance a priori de la topologie du reseau, l'algorithme propose ici exploite une connaissance dynamique acquise par chacun des sites. Il permet a chaque site, de maniere independante, de determiner les sites qu'il doit inclure dans sa vue; ainsi un site peut appartenir a une ou plusieurs vues. La detection de partitionnement decoule d'une gestion souple et efficace des parties vivantes du reseau, chaque site connaissant l'identificateur de la partie ou il se trouve
APA, Harvard, Vancouver, ISO, and other styles
14

Mokadem, Riad. "Signatures algébriques dans la gestion de structures de données distribuées et scalables." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090014.

Full text
Abstract:
Les deux dernières décennies ont été marquées par l’apparition de nouveaux concepts architecturaux entraînant une évolution vers les systèmes distribués. C’est une conséquence de l’augmentation de la capacité de stockage des mémoires et de calcul et de l’arrivée de réseaux à haut débit, notamment locaux à 1Gb/s. La tendance dominante est le développement de nouveaux systèmes, dits d’abord: multi-ordinateur, Réseau de Stations de Travail et plus récemment, « Peer-to-Peer Computing » ou « Grid Computing ». Afin de tirer le meilleur profit des potentialités offertes, de nouvelles structures de données spécifiques aux données réparties sont nécessaires. Dans ce contexte, Les Structures de Données Distribuées et Scalables (SDDS) sont une nouvelle classe de structures introduites spécifiquement pour la gestion de fichiers sur un multi¬ ordinateur. Un fichier SDDS peut s'étendre dynamiquement, au fur et à mesure des insertions, d'un seul site de stockage à tout nombre de sites interconnectés disponibles en pratique. Les algorithmes d'adressages d'une SDDS sont conçus spécifiquement pour être scalables, notamment par absence d'un répertoire ou index central. La répartition de données est transparente pour l'application. Les données manipulées peuvent être entièrement en RAM distribuée afin d’être accessibles bien plus vite qu’à partir des disques. Plusieurs SDDS ont été proposées. Les plus connues sont celles basées sur le hachage, celui linéaire (LH*) notamment, et celles utilisant le partitionnement par intervalle (RP*). Un prototype appelé SDDS-2000a été construit vers l’année 2000 au CERIA pour expérimenter avec les SDDS sur les réseaux locaux des PC sous Windows. Dans ce système, on retrouve les fonctions de base de gestion de données telles que la création de fichiers, l’insertion d’enregistrements ou encore la possibilité de requêtes parallèles. En se basant sur SDDS-2000, notre Thèse a pour objectif la conception et l’implantation de nouvelles fonctions pour celui ci. Ces fonctions sont destinées à la sauvegarde de données sur le disque, un traitement plus efficace de mises à jour, le traitement de concurrence ainsi que celui de la recherche par le contenu (scans). Enfin, pour mieux répondre au contexte P2P, il nous fallait introduire une certaine protection de données stockées, au moins contre une découverte accidentelle de leurs valeurs. Ceci nous a conduit au problème intéressant de recherche de données par l’exploration directe de leur contenu encodé, sans décodage local. Nous avons basé l’ensemble de nos fonctions sur une technique nouvelle dite de signatures algébriques. Nous détaillons la théorie et notre pratique de signatures algébriques tout au long de cette Thèse. Ainsi, une sauvegarde sur disque n’écrit que les parties de la RAM modifiées depuis la dernière sauvegarde. Le contrôle de concurrence est optimiste, sans verrouillage, pour de meilleures performances d’accès. L’enregistrement mis à jour n’est envoyé au serveur que si la donnée est réellement modifiée. Puis, les données stockées sont suffisamment encodées pour rendre impossible toute découverte accidentelle de leurs valeurs réelles sur les serveurs. Nous les encodons à l’aide d’une variante de signatures algébriques, les signatures cumulatives. Notre encodage possède notamment des propriétés accélérant diverses recherches de chaînes de caractères, par rapport à celles explorant les mêmes données sans encodage. D’une manière un peu surprenante, certaines recherches se révèlent expérimentalement plus rapides que par des algorithmes fondamentaux bien connus, tels que celui de Karp-Rabin. Nous présentons des mesures de performance prouvant l’efficacité de notre approche. Notre système, appelé SDS-2005, a été dès lors annoncé sur DbWorld. Il est disponible sur le site du CERIA pour les téléchargements non commerciaux. Les détails de nos travaux ont fait l’objet de cinq publications dans des conférences internationales [LMS03, LMS05a, LMS05b, M06, LMRS06]. Notre prototype a également été montré à de nombreux visiteurs chercheurs. Il a fait l’objet d’une démonstration vidéo, diffusée notamment à Microsoft Research (Montain View, USA) et d’une présentation lors des journées académiques Microsoft. Dans notre mémoire, nous présentons d’abord l'état de l'art sur les SDDSs, en se basant sur celui de systèmes de fichiers distribués. Puis nous discutons l'architecture système de SDDS-2005. Celle-ci emploie notamment des structures de données spécifiques pour RAM, ainsi que des processus légers qui gèrent les traitements répartis à travers des files d'attente asynchrones. On présente ensuite le concept de signatures algébriques. Puis on détaille l’usage pour la sauvegarde d’un fichier SDDS et la mise à jour d’enregistrements. Nous discutons ensuite les signatures cumulatives. On décrit l’encodage de nos enregistrements. On présente les différents types de recherche par contenu non-clé (scans) dans notre système notamment la recherche par le préfixe et celle partielle d’une chaîne de caractère (ang pattern matching ou string search…) à travers plusieurs algorithmes alternatifs. Nous présentons un nouvel algorithme dit par n-Gramme semblant particulièrement simple d’usage et rapide On décrit aussi la recherche du plus grand préfixe et de la plus grande chaîne commune. Nous montrons que les signatures cumulatives sont particulièrement efficaces pour la recherche de longues chaînes telles que les images, les empreintes, les codes DNA…En réflexion sur les perspectives, on discute l’utilisation de ces signatures pour la compression différentielles lors des mises à jour distribuées des données ainsi que la protection contre la corruption silencieuse de données stockées. Puis nous discutons l’analyse expérimentale de notre système. Les mesures montrent la scalabilité de notre système ainsi que les temps d’exécution de nos différentes fonctions. On finit par des conclusions, perspectives et les références bibliographiques. Les annexes montrent nos principales publications (pour la convenance des membres anglophones de notre jury tout particulièrement). On y montre aussi la description de l’interface offerte aux applications par SDDS-2005, annoncée sur DbWorld
Recent years saw emergence of new architectures, involving multiple computers. New concepts were proposed. Among most popular are those of a multicomputer or of a Network of Worksattion and more recently, of Peer to Peer and Grid Computing. This thesis consists on the design, implementation and performance measurements of a prototype SDDS manager, called SDDS-2005. It manages key based ordered files in distributed RAM of Windows machines forming a grid or P2P network. Our scheme can backup the RAM on each storage node onto the local disk. Our goal is to write only the data that has changed since the last backup. We interest also to update records and non key search (scans). Their common denominator was some application of the properties of new signature scheme based that we call algebraic signatures, which are useful in this context. Ones needs then to find only the areas that changed in the bucket since the last buckup. Our signature based scheme for updating records at the SDDS client should prove its advantages in client-server based database systems in general. It holds the promise of interesting possibilities for transactional concurrency control, beyond the mere avoidance of lost updates. We also update only data have been changed because of the using the algebraic signatures. Also, partly pre-computed algebraic signature of a string encodes each symbol by its cumulative signatures. They protect the SDDS data against incidental viewing by an unauthorized server’s administrator. The method appears attractive, it does not amply any storage overhead. It is also completly transparent for servers and occurs in client. Next, our cheme provide fast string search (match) directly on encoded data at the SDDS servers. They appear an alternative to known Karp-Rabin type schemes. Scans can explore the storage nodes in parallel. They match the records by entire non-key content or by its substring, prefix, longest common prefix or longest common string. The search complexity is almost O (1) for prefix search. One may use them also to detect and localize the silent corruption. These features should be of interest to P2P and grid computing. Then, we propose novel string search algorithm called n-Gramme search. It also appears then among the fastest known, e. G, probably often the faster one we know. It cost only a small fraction of existing records match, especially for larger strings search. The experiments prove high efficiency of our implementation. Our buckup scheme is substantially more efficient with the algebraic signatures. The signature calculus is itself substantially faster, the gain being about 30 %. Also, experiments prove that our cumulative pre-computing notably accelerates the string searchs which are faster than the partial one, at the expense of higher encoding/decoding overhead. They are new alternatives to known Karp-Rabin type schemes, and likely to be usually faster. The speed of string matches opens interesting perspectives for the popular join, group-by, rollup, and cube database operations. Our work has been subject of five publications in international conferences [LMS03, LMS05a, LMS05b, ML06, l&al06]. For convenience, we have included the latest publications. Also, the package termed SDDS-2005 is available for non-commercial use at http://ceria. Dauphine. Fr/. It builds up on earlier versions of the prototype, a cumulative effort of several folks and n-Gramme algorithm implementation. We have also presented our proposed prototype, SDDS-2005, at the Microsoft Research Academic Days 2006
APA, Harvard, Vancouver, ISO, and other styles
15

Legtchenko, Sergey. "Adaptation dynamique des architectures réparties pour jeux massivement multijoueurs." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00931865.

Full text
Abstract:
Durant la dernière décennie, Les jeux massivement multijoueurs (MMOGs) sont devenus extrêmement populaires et comptent désormais plus de 20 millions d'utilisateurs actifs à travers le monde. Les MMOGs sont des systèmes distribués ayant des contraintes applicatives fortes en terme de cohérence de données, persistance, réactivité et passage à l'échelle. L'évolution des besoins applicatifs du MMOG au cours du temps est difficilement prévisible car dépendante du comportement des joueurs dans le monde virtuel. C'est pourquoi, malgré un important effort de recherche dans le domaine, aucune des architectures proposées ne satisfait pleinement toutes les contraintes requises. Cette thèse explore les capacités des architectures distribuées à s'adapter à la charge applicative grâce à une prise en compte du comportement des joueurs lors de l'exécution. Le système est alors capable de détecter des évolutions qui sont difficiles à prévoir à priori, et dynamiquement allouer les ressources nécessaires à l'application. Nous décrivons différentes techniques de surveillance des joueurs et proposons des moyens de prendre en compte ces informations au niveau de l'architecture. Nos expériences, effectuées dans des conditions réalistes, montrent que nos mécanismes ont un surcoût limité et permettent d'améliorer les performances globales du système.
APA, Harvard, Vancouver, ISO, and other styles
16

Nicolle, Cécile. "Système d'Accès à des Bases de Données Hétérogènes réparties en vue d'une aide à la décision (SABaDH)." Lyon, INSA, 2001. http://theses.insa-lyon.fr/publication/2001ISAL0076/these.pdf.

Full text
Abstract:
De tous temps, lors d'une prise de décision, le décideur a dû faire face au problème d'accès à toutes les données qui lui sont nécessaires pour prendre une décision juste. De nos jours, de nombreux systèmes proposent une aide à cette prise de décision. Mais il est encore difficile, pour le décideur, de savoir où trouver les informations voulues. De plus, il peut ne pas connaître la nature de toutes les données qui lui sont utiles dans sa prise de décision. C'est pourquoi nous proposons une architecture de système d'accès qui permet au décideur de poser une requête en langage proche du langage naturel, sans avoir besoin de préciser où rechercher les données en question. Le système sait où trouver les informations, et peut même fournir au décideur des informations liées à celles qu'il voulait, ces informations étant utiles à la prise de décision (complétant ainsi la recherche de l'utilisateur tout en fournissant des réponses pertinentes). Le système pallie ainsi à certaines éventuelles lacunes du décideur dans le domaine de recherche. Notre système utilise le principe des wrappers, ainsi que XML comme langage interne, langage de requêtes et de réponse. Deux prototypes ont été réalisés au cours de la thèse, un sur la recherche dans une base de textes juridiques, un autre sur l'interrogation en XML d'une base Progress avec réponse en XML
Since all time, for decision making, decider had to be faced with access problem of all needed data to take the better decision. Nowadays, most systems provide help for this decision making. But it's always difficult to know where the decider can find relevant data. Furthermore, decider can't know type of all data which he need to make his decision. That's why we propose an architecture of an access system which allows decider ask his request in language like natural language, without more detail about their location. Our system can find this data, and provides all information in relation with searched data, these information being relevant. Our system can alleviate some deficiency about search domain. Our system uses wrapper principle, and XML as internal language and request and answer language. Two prototype have been realised, one about search in legal texts base, the other about XML interrogation of Progress base with answer in XML
APA, Harvard, Vancouver, ISO, and other styles
17

Bruneau, Pierrick. "Contributions en classification automatique : agrégation bayésienne de mélanges de lois et visualisation interactive." Phd thesis, Nantes, 2010. http://www.theses.fr/2010NANT2023.

Full text
Abstract:
Internet, ainsi que des architectures récentes telles que les réseaux de capteurs, sont le siège de masses de sources de données distribuées à large echelle, en perpétuelle croissance. Cette profusion, accompagnée du besoin d'outillage des utilisateurs, implique le développement de techniques d'analyse et d'indexation adaptées. Les techniques de classification automatique concernent la caractérisation de classes dans un ensemble d'éléments. Celles-ci sont très souvent employées pour la réalisation d'outils rendant l'information accessible aux utilisateurs. Dans le cadre de cette thèse, nous avons contribué a l'agrégation de modèles de mélange de distributions de probabilité. Cette classe de modèles est en effet souvent utilisée pour des tâches de catégorisation. Nos propositions, utilisant un formalisme bayesien variationnel, sont caracterisées par des coûts de calcul et de transmission réduits. Avec ces travaux, nous entendions fournir une solution partielle à l'estimation de modèles sur des données distribuées. Nous avons également contribué à la classication visuelle de données en flux. Pour ce faire, nous avons notamment employé des principes bio-mimétiques, ou encore des résultats de la théorie des graphes. Outre la proposition d'interfaces efficaces pour un utilisateur, nous avons également envisagé la manière dont celui-ci peut rétro-agir sur le processus de classification
The internet and recent architectures such as sensor networks are currently witnessing tremendous and continuously growing amounts of data, often distributed on large scales. Combined with user expectations with respect to tooling, this encourages developing adequate techniques for analyzing and indexing. Classication and clustering tasks are about characterizing classes within data collections. These are often used as building blocks for designing tools aimed at making data accessible to users. In this document, we describe our contributions to mixture models aggregation. These models are classically used for content categorization. Using variational Bayesian principles, we aimed at designing low computation and transmission costs algorithms. Doing so, we aimed at proposing a building block for distributed density model estimation. We also contributed to visual classication applied to data streams. To this purpose, we employed bio-mimetic principles, and results from graph theory. More specically, visual and dynamic abstractions of an underlying clustering process were proposed. We strived to provide users with ecient interfaces, while allowing using their actions as a feedback
APA, Harvard, Vancouver, ISO, and other styles
18

Acosta, Francisco. "Les arbres balances : spécification, performances et contrôle de concurrence." Montpellier 2, 1991. http://www.theses.fr/1991MON20201.

Full text
Abstract:
Dans le cadre de la gestion d'une base de donnees, nous etudions les problemes relatifs a la specification, aux performances des operations d'acces et au partage des donnees. Dans la premiere partie de l'etude nous introduisons les notions de base pour la specification de donnees et nous etudions les methodes classiques d'acces aux donnees; cette etude montre que les arbres balances (les b-arbres et leurs variations) sont une solution interessante pour la gestion de donnees stockees sur disque. Nous etudions ensuite la specification algebrique des arbres balances, afin de degager leurs caracteristiques intrinseques. Nous definissons les classes b(k, m) des b-arbres, dans lesquelles les parametres k et m permettent de controler de facon simple le rapport espace-temps de leur complexite. Cette proposition generalise, a l'aide du parametre k, les variations les plus classiques de ces arbres, telles que les arbres b*. Dans la seconde partie de l'etude, nous exposons les concepts de base du controle de concurrence. Nous etudions par la suite le modele d'execution concurrente sur les arbres de recherche de shasha et goodman, puis les methodes de controle de concurrence pour ces arbres. Finalement, nous degageons les principes d'une methode originale dans laquelle le controle s'exerce au meilleur moment de l'execution des operations
APA, Harvard, Vancouver, ISO, and other styles
19

Ghassany, Mohamad. "Contributions à l'apprentissage collaboratif non supervisé." Paris 13, 2013. http://www.theses.fr/2013PA132041.

Full text
Abstract:
Le travail de recherche exposé dans cette thèse concerne le développement d'approches de clustering collaboratif à base de méthodes topologiques, telles que les cartes auto-organisatrices(SOM), les cartes topographiques génératives (GTM) et les GTM variationnelles Bayésiennes (VBGTM). Le clustering collaboratif permet de préserver la confidentialité des données en utilisant d'autres résultats de classifications sans avoir recours aux données de ces dernières. Ayant une collection de bases de données distribuées sur plusieurs sites différents, le problème consiste à partitionner chacune de ces bases en considérant les données locales et les classifications distantes des autres bases collaboratrices, sans partage de données entre les différents centres. Le principe fondamental du clustering collaboratif est d'appliquer les algorithmes de clustering localement sur les différents sites, puis collaborer les sites en partageant les résultats obtenus lors de la phase locale. Dans cette thèse nous explorons deux approches pour le clustering collaboratif. L'approche horizontale pour la collaboration des bases de données qui décrivent les mêmes individus mais avec des variables différentes. La deuxième approche collaborative est dite verticale pour la collaboration de plusieurs bases de données contenant les mêmes variables mais avec des populations différentes
The research outlined in this thesis concerns the development of collaborative clustering approaches based on topological methods, such as self-organizing maps (SOM), generative topographic mappings (GTM) and variational Bayesian GTM (VBGTM). So far, clustering methods performs on a single data set, but recent applications require data sets distributed among several sites. So, communication between the different data sets is necessary, while respecting the privacy of every site, i. E. Sharing data between sites is not allowed. The fundamental concept of collaborative clustering is that the clustering algorithms operate locally on individual data sets, but collaborate by exchanging information about their findings. The strength of collaboration, or confidence, is precised by a parameter called coefficient of collaboration. This thesis proposes to learn it automatically during the collaboration phase. Two data scenarios are treated in this thesis, referred as vertical and horizontal collaboration. The vertical collaboration occurs when data sets contain different objects and same patterns. The horizontal collaboration occurs when they have same objects and described by different Patterns
APA, Harvard, Vancouver, ISO, and other styles
20

Everaere, Patricia. "Contribution à l'étude des opérateurs de fusion : manipulabilité et fusion disjonctive." Artois, 2006. http://www.theses.fr/2006ARTO0402.

Full text
Abstract:
Les opérateurs de fusion propositionnelle permettent de déterminer les croyances/buts d'un groupe d'agents à partir des croyances/buts individuels, exprimés par des formules de la logique propositionnelle. Deux critères souvent utilisés pour comparer les opérateurs existants sont la rationalité et l'efficacité algorithmique. Notre thèse est que ces deux seuls critères ne suffisent pas et qu'il faut considérer en plus celui de la manipulabilité. Un opérateur de fusion est dit manipulable si l'un des agents intervenant dans le processus de fusion réussit à modifier le résultat de la fusion, pour le rendre plus conforme à ses attentes, en mentant sur ses véritables croyances/buts. Un opérateur de fusion manipulable ne donne aucune garantie quant à l'adéquation des résultats qu'il donne aux croyances/buts du groupe puisqu'il n'incite pas les agents à fournir leurs croyances/buts véritables. Dans cette thèse, notre première contribution est une étude de la manipulabilité des opérateurs de fusion propositionnelle existants. Elle montre qu'aucun opérateur de fusion existant ne remplit pleinement les trois critères considérés : rationalité, efficacité algorithmique et non-manipulabilité. Notre seconde contribution concerne la mise en évidence de deux nouvelles familles d'opérateurs de fusion disjonctifs, i. E. Des opérateurs qui assurent que le résultat de la fusion implique la disjonction des informations initiales. Les opérateurs de ces familles constituent des alternatives intéressantes aux opérateurs (disjonctifs) à sélection de formules, qui ont une complexité algorithmique élevée, sont manipulables et ne sont pas pleinement rationnels
Propositional merging operators aim at defining the beliefs/goals of a group of agents from their individual beliefs/goals, represented by propositional formulae. Two widely used criteria for comparing existing merging operators are rationality and computational complexity. Our claim is that those two criteria are not enough, and that a further one has to be considered as well, namely strategy-proofness. A merging operator is said to be non strategy-proof if there is an agent involved in the merging process who can change the result of the merging, so as to make it closer to her expected one, by lying on her true beliefs/goals. A non strategy-proof merging operator does not give any guarantee that the results it provides are adequate to the beliefs/goals of the group, since it does not incite the agents to report their true beliefs/goals. A first contribution of this thesis consists of a study of the strategy-proofness of existing propositional merging operators. It shows that no existing merging operators fully satisfy the three criteria under consideration: rationality, complexity and strategy-proofness. Our second contribution consists of two new families of disjunctive merging operators, i. E. , operators ensuring that the result of the merging process entails the disjunction of the information given at start. The operators from both families are shown as valuable alternatives to formula-based merging operators, which are disjunctive, but exhibit a high computational complexity, are not strategy-proof, and are not fully rational
APA, Harvard, Vancouver, ISO, and other styles
21

Naacke, Hubert. "Modèle de coût pour médiateur de bases de données hétérogènes." Versailles-St Quentin en Yvelines, 1999. http://www.theses.fr/1999VERS0013.

Full text
Abstract:
Les @ systèmes distribués accèdent à des sources d'informations diverses au moyen de requêtes déclaratives. Une solution pour résoudre les problèmes liés à l'hétérogéneité des sources repose sur l'architecture médiateur / adaptateurs. Dans cette architecture, le médiateur accepte en entrée une requête de l'utilisateur, La traite en accèdant aux sources via les adaptateurs concernés et renvoie la réponse à l'utilisateur. Le médiateur offre une vue globale et centralisée des sources. Les adaptateurs offrent un accès uniforme aux sources, au service du médiateur. Pour traiter une requête de manière efficace, le médiateur doit optimiser le plan décrivant le traitement de la requête. Pour cela, plusieurs plans sémantiquement équivalents sont envisagés, Le coût (i. E. Le temps de réponse) de chaque plan est estimé afin de choisir celui de moindre coût qui sera exécuté. Le médiateur estime le coût des opérations traitées par les sources en utilisant les informations de coût que les sources exportent. Or, à cause de l'autonomie des sources, les informations exportées peuvent s'avérer insuffisantes pour estimer le coût des opérations avec une précision convenable. Cette thèse propose une nouvelle méthode permettant au développeur d'adaptateur d'exporter un modèle de coût d'une source à destination du médiateur. Le modèle exporté contient des statistiques qui décrivent les données stockées dans la source ainsi que des fonctions mathématiques pour évaluer le coût des traitements effectués par la source. Lorsque le développeur d'adaptateur manque d'information ou de moyen, il a la possibilité de fournir un modèle de coût partiel qui est automatiquement completé avec le modèle générique prédéfini au sein du médiateur. Nous validons expérimentalement le modèle de coût proposé en accèdant à des sources web. Cette validation montre l'efficacité du modèle de coût générique ainsi que celle des modèles plus spécialisés selon les particularités des sources et les cas d'applications
Les systemes distribues accedent a des sources d'informations diverses au moyen de requetes declaratives. Une solution pour resoudre les problemes lies a l'heterogeneite des sources repose sur l'architecture mediateur / adaptateurs. Dans cette architecture, le mediateur accepte en entree une requete de l'utilisateur, la traite en accedant aux sources via les adaptateurs concernes et renvoie la reponse a l'utilisateur. Le mediateur offre une vue globale et centralisee des sources. Les adaptateurs offrent un acces uniforme aux sources, au service du mediateur. Pour traiter une requete de maniere efficace, le mediateur doit optimiser le plan decrivant le traitement de la requete. Pour cela, plusieurs plans semantiquement equivalents sont envisages, le cout (i. E. Le temps de reponse) de chaque plan est estime afin de choisir celui de moindre cout qui sera execute. Le mediateur estime le cout des operations traitees par les sources en utilisant les informations de cout que les sources exportent. Or, a cause de l'autonomie des sources, les informations exportees peuvent s'averer insuffisantes pour estimer le cout des operations avec une precision convenable. Cette these propose une nouvelle methode permettant au developpeur d'adaptateur d'exporter un modele de cout d'une source a destination du mediateur. Le modele exporte contient des statistiques qui decrivent les donnees stockees dans la source ainsi que des fonctions mathematiques pour evaluer le cout des traitements effectues par la source. Lorsque le developpeur d'adaptateur manque d'information ou de moyen, il a la possibilite de fournir un modele de cout partiel qui est automatiquement complete avec le modele generique predefini au sein du mediateur. Nous validons experimentalement le modele de cout propose en accedant a des sources web. Cette validation montre l'efficacite du modele de cout generique ainsi que celle des modeles plus specialises selon les particularites des sources et les cas d'applications
APA, Harvard, Vancouver, ISO, and other styles
22

Houas, Heykel. "Allocation de ressources pour la transmission de données multimedia scalables." Phd thesis, Université de Cergy Pontoise, 2009. http://tel.archives-ouvertes.fr/tel-00767889.

Full text
Abstract:
Cette thèse s'intéresse aux problèmes d'allocation de ressources pour la transmission de données multimédia scalables sous contraintes de qualité de service (QoS) sur les réseaux hétérogènes. Les liaisons filaires et sans fil considérées (DS-CDMA, OFDMA) sont appliquées à des services de transmission d'images et de parole sur des canaux à évanouissements lents ou rapides, avec ou sans multitrajets. La QoS de ces réseaux est exprimée en terme de qualité perçue du point de vue de l'utilisateur (couche Application) et en terme de taux d'erreurs binaires (TEB) par classe du point de vue de la transmission (couche Physique). Les ressources étudiées sont : l'allocation des puissances, des ordres de modulation et des porteuses ainsi que les propriétés de protection inégale contre les erreurs (UEP). L'objectif de ce document est d'allouer ces ressources de façon à maximiser le débit source des données multimédia hiérarchisées (sous forme de classes d'importance) en s'appuyant sur une connaissance parfaite ou partielle des canaux de propagation, sous contrainte de performances cibles en réception. Les stratégies d'adaptation de lien que nous présentons se basent sur la possible troncature d'une partie de ces données à transmettre. Elles se fondent également sur le degré de sensibilité et la protection adéquate de chacune de ces classes contre les erreurs liées à la transmission sur le canal, conformément aux exigences de QoS exprimées sur ces dernières. Les schémas de transmission explorent plusieurs critères d'optimisation des ressources : la minimisation de la charge utile du système ainsi que l'optimisation de la robustesse de la transmission aux erreurs d'estimation du canal. Dans ces contextes, nous décrivons l'allocation optimale de sous-porteuses, de modulations, de rendements de code et d'énergie maximisant le débit source de l'utilisateur tout en véri ant les contraintes sur la charge du système et la QoS. Nous montrons que ces schémas d'allocation sont adaptables à de nombreux systèmes de communication et présentent des performances supérieures aux stratégies de l'état de l'art.
APA, Harvard, Vancouver, ISO, and other styles
23

Houas, Heykel. "Allocation de ressources pour la transmission de données multimédia scalables." Cergy-Pontoise, 2009. http://biblioweb.u-cergy.fr/theses/09CERG0430.pdf.

Full text
Abstract:
Cette thèse s'intéresse aux problèmes d'allocation de ressources pour la transmission de données multimédia scalables sous contraintes de qualité de service (QoS) sur les réseaux hétérogènes. Les liaisons filaires et sans fil considérées (DS-CDMA, OFDMA) sont appliquées à des services de transmission d'images et de parole sur des canaux à évanouissements lents ou rapides, avec ou sans multitrajets. Les ressources de la couche Physique étudiées ici sont : les rendements de code correcteur d'erreur, utilisés pour protéger les données, les ordres de modulations et les porteuses les supportant, ainsi que la puissance leur étant allouée. L'objectif de ce document est d'allouer ces ressources de façon à maximiser le débit source des données multimédia hiérarchisées (en classes d'importance) sous contrainte de QoS cibles et de charge du système en réception en s'appuyant sur une connaissance parfaite ou partielle des canaux de propagation. La QoS de ces réseaux hétérogènes est exprimée en terme de qualité perçue du point de vue de l'utilisateur grâce aux taux d'erreurs binaires (TEB) par classe venant du codeur source scalable. Dans ce contexte, nous proposons plusieurs stratégies d'adaptation de lien ; l. Leur originalité est 1) de se baser sur la possible troncature des classes à transmettre et 2) d'utiliser le degré de sensibilité de ces classes aux erreurs de transmission sur le canal pour adapter leur protection contre les erreurs conformément aux exigences de QoS et en fonction de l'état du canal. Les schémas de transmission explorent plusieurs critères d'optimisation des ressources : la minimisation de la charge utile du système ainsi que l'optimisation de la robustesse de la transmission aux erreurs d'estimation du canal. Pour chacun, nous décrivons l'allocation optimale de porteuses, de modulations, de rendements de code et de puissances maximisant le débit source de l'utilisateur tout en vérifiant les contraintes du système en réception. Nous montrons ainsi que ces stratégies d'allocation sont adaptables à de nombreux schémas de communication, nous en présentons les performances et les comparons aux stratégies de l'État de l'Art
This thesis is dedicated to the resources allocation for the transmission of scalable multimedia data under Quality-of-Service (QoS) constraints on heterogeneous networks. We focus on wire and wireless links (DS-CDMA, OFDMA) with the transmission of images, speech over frequency and non frequency selective channels. Resources from the physical layer are addressed : channel code rates (to protect the data against the degradation of the signal-to-noise ratio SNR), modulation orders, carriers ordering (to convey the layers) and the allocated power. The aim of this report is to allocate these parameters in order to maximize the source rate of the multimedia data under targeted QoS and system payload with a perfect or partial channel knowledge. The QoS is expressed in term of perceived quality from the End To end User and in term of Bit Error Rate per Class from the scalable source encoder. In a such context, we propose some link adaptation schemes whose novelty is to enable the truncation of the data layers. Moreover, these strategies make use of the sensivity to transmission errors and the channel state information to dynamically adapt the protection of the layers (Unequal Error Protection UEP) in accordance with the QoS requirements. These procedures explore multiple resources optimization criteria : the minimization of the system payload and the maximization of the robustness to the channel estimation error. For each one, we perform the optimal allocation (bit loading) of the previous parameters that maximize the source rate while ensuring the constraints of the receiver. We show that these schemes fit to any communication system and we present the performances and compare them to the State Of The Art procedures
APA, Harvard, Vancouver, ISO, and other styles
24

Poulliat, Charly. "Allocation et optimisation de ressources pour la transmission de données multimédia." Cergy-Pontoise, 2004. http://www.theses.fr/2004CERG0271.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Jouis, Christophe. "Contributions à la conceptualisation et à la Modélisation des connaissances à partir d'une analyse linguistique de textes : réalisation d'un prototype : le système SEEK." Paris, EHESS, 1993. http://www.theses.fr/1993EHES0051.

Full text
Abstract:
Nous presentons un modele linguistique et informatique de comprehension d'unites linguistiques inserees dans leur contexte. Ce modele se presente sous la forme de systemes a base de connaissances d'exploration contextuelle qui recherchent des indices linguistiques dans les textes. Nous montrons qu'il est possible de construire des representations semantiques en n'effectuant qu'une analyse morpho-syntaxique superficielle et en utilisant le contexte d'une unite linguistique examinee. Les informations contextuelles dont nous avons besoin expriment un savoir linguistique sans faire appel a des connaissances sur le monde externe. Nous presentons dans le detail une application informatique de ce modele : seek. Il s'agit d'un outil d'aide a l'analyse et a la description conceptuelle d'un domaine d'expertise (recherche des relations statiques entre entites conceptuelles extraites de compte-rendus d'expertise). Cette derniere application est integree dans un atelier de genie cognitif associe a metodac, une methodologie d'acquisition et de modelisation des connaissances
We present a linguistic and computer model the aim of which is the understanding of linguistic items inserted in their context. This model is constituted by knowledge based systems of contextual exploration which consists in seeking linguistic clues in texts. It is shown that nothing else than a basic morpho-syntactical analysis and the use of the context of an examined linguistic item is required to build semantic representations. These contextual data express a knowledge of the language without using any other knowledge of the world. We present in details a program based on this model : seek. It is a help tool for knowledge extraction forme texts in natural language. This latter has been integrated in a workshop of cognitive engineering associated to a methodology of knowledge acquisition and modelling called metodac
APA, Harvard, Vancouver, ISO, and other styles
26

Ketata, Imen. "Méthode de découverte de sources de données tenant compte de la sémantique en environnement de grille de données." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1917/.

Full text
Abstract:
Les applications grilles de données de nos jours partagent un nombre gigantesque de sources de données en un environnement instable où une source de données peut à tout moment joindre ou quitter le système. Ces sources de données sont hétérogènes, autonomes et distribuées à grande échelle. Dans cet environnement, la découverte efficace des sources de données pertinentes pour l'exécution de requêtes est un défi. Les premiers travaux sur la découverte de sources de données se sont basés sur une recherche par mots clés. Ces solutions ne sont pas satisfaisantes puisqu'elles ne tiennent pas compte des problèmes de l'hétérogénéité sémantique des sources de données. Ainsi, d'autres solutions proposent un schéma global ou une ontologie globale. Cependant, la conception d'un tel schéma ou d'une telle ontologie est une tâche complexe à cause du nombre de sources de données. D'autres solutions optent pour l'usage de correspondances entre les schémas des sources de données ou en s'appuyant sur des ontologies de domaine et en établissant des relations de 'mapping' entre ces dernières. Toutes ces solutions imposent une topologie fixe soit pour les correspondances soit pour les relations de 'mapping'. Cependant, la définition de relations de 'mapping' entre ontologies de domaine est une tâche ardue et imposer une topologie fixe est un inconvénient majeur. Dans cette perspective, nous proposons dans cette thèse une méthode de découverte de sources de données prenant en compte les problèmes liés à l'hétérogénéité sémantique en environnement instable et à grande échelle. Pour cela, nous associons une Organisation Virtuelle (OV) et une ontologie de domaine à chaque domaine et nous nous basons sur les relations de 'mappings' existantes entre ces ontologies. Nous n'imposons aucune hypothèse sur la topologie des relations de 'mapping' mis à part que le graphe qu'elles forment soit connexe. Nous définissons un système d'adressage permettant un accès permanent de n'importe quelle OV vers une autre malgré la dynamicité des pairs. Nous présentons également une méthode de maintenance dite 'paresseuse' afin de limiter le nombre de messages nécessaires à la maintenance du système d'adressage lors de la connexion ou de la déconnexion de pairs. Pour étudier la faisabilité ainsi que la viabilité de nos propositions, nous effectuons une évaluation des performances
Nowadays, data grid applications look to share a huge number of data sources in an unstable environment where a data source may join or leave the system at any time. These data sources are highly heterogeneous because they are independently developed and managed and geographically scattered. In this environment, efficient discovery of relevant data sources for query execution is a complex problem due to the source heterogeneity, large scale environment and system instability. First works on data source discovery are based on a keyword search. These initial solutions are not sufficient because they do not take into account problem of semantic heterogeneity of data sources. Thus, the community has proposed other solutions to consider semantic aspects. A first solution consists in using a global schema or global ontology. However, the conception of such scheme or such ontology is a complex task due to the number of data sources. Other solutions have been proposed providing mappings between data source schemas or based on domain ontologies and establishing mapping relations between them. All these solutions impose a fixed topology for connections as well as mapping relationships. However, the definition of mapping relations between domain ontologies is a difficult task and imposing a fixed topology is a major inconvenience. In this perspective, we propose in this thesis a method for discovering data sources taking into account semantic heterogeneity problems in unstable and large scale environment. For that purpose, we associate a Virtual Organisation (VO) and a domain ontology to each domain and we rely on relationship mappings between existing ontologies. We do not impose any hypothesis on the relationship mapping topology, except that they form connected graph. We define an addressing system for permanent access from any OVi to another OVj despite peers' dynamicity (with i inégalité j). We also present a method of maintenance called 'lazy' to limit the number of messages required to maintain the addressing system during the connection or disconnection of peers. To study the feasibility as well as the viability of our proposals, we make a performance evaluation
APA, Harvard, Vancouver, ISO, and other styles
27

Kerhervé, Brigitte. "Vues relationnelles : implantation dans les systèmes de gestion de bases de données centralisés et répartis." Paris 6, 1986. http://www.theses.fr/1986PA066090.

Full text
Abstract:
Nous décrivons les choix qui ont été faits dans le prototype SABRE. Nous analysons par la suite l'implantation de vues concrètes qui correspondent à la matérialisation des vues relationnelles. Nous montrons que ces vues concrètes permettent de définir un nouveau type de SGBD réparti où la définition et le stockage des données sont faits en fonction des interrogations sur les sites distants, de manière à maximiser les interrogations locales. Nous décrivons et analysons les mécanismes nécessaires à l'implantation d'un tel type de SGBD réparti par vues concrètes, notamment du point de vue des mises à jour.
APA, Harvard, Vancouver, ISO, and other styles
28

Cazalens, Sylvie. "Formalisation en logique non standard de certaines méthodes de raisonnement pour fournir des réponses coopératives, dans des systèmes de bases de données et de connaissances." Toulouse 3, 1992. http://www.theses.fr/1992TOU30172.

Full text
Abstract:
Un systeme de bases de donnees et de connaissances est cooperatif s'il fournit de lui-meme des informations additionnelles interessantes pour l'usager. Une telle fonctionnalite necessite de tenir compte du domaine d'interet de l'usager. Plusieurs methodes existent, qui estiment ce domaine grace a la seule analyse de la question de l'usager (sous la forme d'une requete type sql, ou sous une forme etendue), ou a l'utilisation supplementaire d'une modelisation de l'usager. Cependant, pour chacune, reviennent, de maniere sous-jacente, les notions d'interet d'une information et de raisonnement pour deduire des informations interessantes. La formalisation de ces notions cles est donc etudiee, pour certaines methodes. Des outils correctement adaptes s'averent etre fournis par les logiques non-standards
APA, Harvard, Vancouver, ISO, and other styles
29

Loukil, Adlen. "Méthodologies, Modèles et Architectures de Référence pour la Gestion et l'Echange de Données Médicales Multimédia : Application aux Projets Européen OEDIPE et BRITER." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0016.

Full text
Abstract:
La coopération entre les systèmes d’information médicaux constitue l’un des principaux challenges de la Télémédecine et de son principal corollaire : l’amélioration de la qualité des soins. Cependant, aucune solution d'ordre général n'a encore été proposée pour faciliter l’interopérabilité entre des systèmes de gestion de données hétérogène, et ce malgré l'intérêt que suscite ce problème. Après avoir présenté une synthèse des architectures et. Standards existants, nous proposons dans ce mémoire une solution générale qui consiste en la définition de protocoles de communications entre les systèmes coopérants et en la conception de modules générique et réutilisables assurant la gestion de la communication, l’extraction et la mise çà jour automatique des bases de données cibles. Ces modules applicatifs s’appuient sur un dictionnaire de données modélisant la structure des messages de donnée véhiculés par les protocoles de communication, la structure des bases de données cibles, et les interrelations entre les deux. Des procédures de rétro conception et de génération automatique de commandes SQL ont été implémentées afin de répondre aux contraintes d'évolutivité des schémas des bases de données. Nous décrivons à titre d’exemple l'architecture applicative implémentée dans le cadre du projet OEDIPE pour interfacer des protocoles d’échange de données et de signaux en Cardiologie avec des bases de données électrocardiographiques de référence. Enfin, nous traitons de la modélisation et de l’intégration de systèmes de gestion de dossiers médicaux répartis par le biais de protocoles de communications préétablis. Nous présentons d'abord une approche multidimensionnelle de la structuration des informations contenues dans les dossiers médicaux et en proposons un modèle d'information générique. Puis nous explicitons l'architecture d'un système développé pour l’échange de données hétérogènes multi sources à des fins de Télé expertise dans le domaine de la Réhabilitation (projet BRITER). Nous démontrons ainsi que l'utilisation de protocoles de communication standard permet la réutilisation d'applications portables et interopérables, d’un grand intérêt pour les professionnels de santé
Interchange and Integration of medical data is a fundamental task in modern medicine. However, a significant obstacle to the development of efficient interoperable information systems is the lack of software tools that provide transparent access to heterogeneous distributed databases. Currently most of the solutions are stand-alone ones fitting only one configuration. To solve this problems of integration and interoperability, we propose in this thesis an original approach which is based on the definition of communication protocols and the design of generic interface between the specific implementations of the protocols and the target databases associated to the Hospital Information Systems. The proposed solution is based on the development of a data dictionary modelling the communications protocols and the databases structures and generic module for the data storage and extraction. The design involves issues related to reverse engineering procedures and to automatic generation of SQL statements. To illustrate this approach, we present the demonstration prototype we have developed in the framework of the OEDIPE AIM project to experiment and to test open interchange of ECGs and associated clinical data. The second part is devoted to the modelling and integration of distributed electronic patient records using communications protocols. We first present a multidimensional approach for the structuring of patient records and propose a generic object oriented information model which integrates bio signals, images and accompanying clinical information. We then, describe a prototype system which has been developed in the framework of the BRITER AIM project for accessing and handling heterogeneous patient data stored in distributed electronic patient records in order to support Rehabilitation healthcare professional in making decisions. We thus demonstrate that the use of standard communications protocols allows and facilitate the development of portable and interoperable medical applications for the benefit of the health care field
APA, Harvard, Vancouver, ISO, and other styles
30

Bonnel, Nicolas Achille Jacques. "Adapnet : stratégies adaptatives pour la gestion de données distribuées sur un réseau pair-a pair." Lorient, 2008. http://www.theses.fr/2008LORIS134.

Full text
Abstract:
Depuis quelques decennies, la quantite d'information numerique produite ne cesse de croitre exponentiellement, ce qui souleve des difficultes de plus en plus critiques en terme de stockage, d'accessibilite et de disponibilite de cette information. Les architectures logicielles et materielles construites autour du modele pair-a-pair (p2p) semblent repondre globalement aux exigences liees au stockage de l'information mais montrent leurs limites en ce qui concerne les exigences d'accessibilite et de disponibilite de l'information. Nous presentons dans cette these differents apports concernant les architectures p2p pour la gestion de grands volumes d'information. Les strategies algorithmiques que nous proposons exploitent des topologies virtuelles dediees sur lesquelles, nous developpons des protocoles de maintenance et de gestion du reseau efficaces. En particulier, pour assurer le passage à€ grande echelle, nous proposons des solutions pour lesquelles les couts des operations de maintenance et de gestion des topologies virtuelles sont constants en moyenne pour chaque noeud du reseau, et ceci, quelle que soit la taille du reseau. Nous analysons les principaux paradigmes,de la repartition d'information sur un rà~seau p2p, en considerant successivement, le probleme de l'acces à€ de l'information typee (semi-structuree) et le cas general qui dissocie entierement la nature des requetes du placement de l'information. Nous proposons une methode d'aiguillage de requetes portant sur la structure et le contenu de documents semi-structures ainsi qu'une technique plus generale dans le cas le plus défavorable ou aucune connaissance n'est disponible a priori sur la nature des informations st
In the last few years, the amount of digital information produced has exponentially increased. This raises problems regarding the storage, the access and the availability of this data. Software and hardware architectures based on the peer-to-peer (p2p) paradigm seem to satisfy the needs of data storage but cannot handle efficiently both data accessibility and availability. We present ,in this thesis various contributions on p2p architectures for managing large volumes of information. We propose various strategies that operate on dedicated virtual topologies that can be maintained at low cost. More precisely, these topologies scale well because the cost for node arrival and node departure is on average constant, whatever the size of the network. We analyze the main paradigms of information sharing on a p2p network, considering successively the problem of access to typed information (semi-structured) and the general case that completely separates the nature of the queries and data location. We propose a routing strategy using structure and content of semi-structured information. We also propose strategies that efficiently explore the network when there is no assumption on the nature of data or queries. In order to manage a quality of service (which is expressed ln terms of speed and reliability), we, also investigate the problem of information availability, more precisely we replicate data stored ln the network. We propose a novel approach exploiting an estimation of local density of data
APA, Harvard, Vancouver, ISO, and other styles
31

Faye, David Célestin. "Médiation de données sémantique dans SenPeer, un système pair-à-pair de gestion de données." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00481311.

Full text
Abstract:
La société de l'information demande un accès efficace à un ensemble d'informations qui sont souvent hétérogènes et distribuées. Dans le but d'un partage efficace de cette information, plusieurs solutions techniques ont été proposées. L'infrastructure Pair-à-Pair (P2P) est un paradigme émergent et offrant de nouvelles opportunités pour la mise en place de systèmes distribués à grande échelle. D'autre part, le concept de base de données distribuée a été introduit dans le but d'organiser une collection multiple de bases de données logiquement liées et distribuées sur un réseau d'ordinateurs. Récemment, les systèmes P2P de gestion de données communément appelés PDMS (Peer Data Management System) ont vu le jour. Ils combinent les avantages des systèmes P2P avec ceux des bases de données distribuées. Dans le but de contribuer à la recherche sur la gestion de données dans un contexte P2P, nous proposons le PDMS SenPeer. SenPeer suit une topologie super-pair basée sur l'organisation des pairs en communautés sémantiques en fonction de leur thème d'intérêt. Pour faciliter l'échange de données entre pairs nous établissons des processus de découverte de correspondances sémantiques et de reformulation de requêtes en présence de plusieurs modèles de données. Ces correspondances sémantiques, en combinaison avec les schémas des pairs sont à la base d'une topologie sémantique au dessus du réseau physique et utilisée pour un routage efficace des requêtes. Les requêtes sont échangées à travers un format commun d'échange de requête et un processus d'optimisation distribué permet de choisir le meilleur plan d'exécution de la requête en fonction des caractéristiques du PDMS. Une validation expérimentale par la mise en place d'un simulateur permet d'affirmer l'utilité et la performance des techniques proposées.
APA, Harvard, Vancouver, ISO, and other styles
32

Rivierre, Yvan. "Algorithmes auto-stabilisants pour la construction de structures couvrantes réparties." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM089/document.

Full text
Abstract:
Cette thèse s'intéresse à la construction auto-stabilisante de structures couvrantes dans un système réparti. L'auto-stabilisation est un paradigme pour la tolérance aux fautes dans les algorithmes répartis. Plus précisément, elle garantit que le système retrouve un comportement correct en temps fini après avoir été perturbé par des fautes transitoires. Notre modèle de système réparti se base sur des mémoires localement partagées pour la communication, des identifiants uniques pour briser les symétries et un ordonnanceur inéquitable, c'est-à-dire le plus faible des ordonnanceurs. Dans la mesure du possible, nous nous imposons d'utiliser les plus faibles hypothèses, afin d'obtenir les constructions les plus générales de structures couvrantes réparties. Nous présentons quatre algorithmes auto-stabilisants originaux pour le k-partitionnement, la construction d'une (f,g)-alliance et l'indexation. Pour chacun de ces problèmes, nous prouvons la correction de nos solutions. De plus, nous analysons leur complexité en temps et en espace à l'aide de preuves formelles et de simulations. Enfin, pour le problème de (f,g)-alliance, nous prenons en compte la notion de convergence sûre qui vient s'ajouter à celle d'auto-stabilisation. Elle garantit d'abord que le comportement du système assure rapidement un minimum de conditions, puis qu'il continue de converger jusqu'à se conformer à une spécification plus exigeante
This thesis deals with the self-stabilizing construction of spanning structures over a distributed system. Self-stabilization is a paradigm for fault-tolerance in distributed algorithms. It guarantees that the system eventually satisfies its specification after transient faults hit the system. Our model of distributed system assumes locally shared memories for communicating, unique identifiers for symmetry-breaking, and distributed daemon for execution scheduling, that is, the weakest proper daemon. More generally, we aim for the weakest possible assumptions, such as arbitrary topologies, in order to propose the most versatile constructions of distributed spanning structures. We present four original self-stabilizing algorithms achieving k-clustering, (f,g)-alliance construction, and ranking. For every of these problems, we prove the correctness of our solutions. Moreover, we analyze their time and space complexity using formal proofs and simulations. Finally, for the (f,g)-alliance problem, we consider the notion of safe convergence in addition to self-stabilization. It enforces the system to first quickly satisfy a specification that guarantees a minimum of conditions, and then to converge to a more stringent specification
APA, Harvard, Vancouver, ISO, and other styles
33

Longueville, Véronique. "Modélisation, calcul et évaluation de liens pour la navigation dans les grands ensembles d'images fixes." Toulouse 3, 1993. http://www.theses.fr/1993TOU30149.

Full text
Abstract:
La conception et l'etude d'un systeme de recherche d'images peut se resumer a une double interrogation: comment optimiser l'acces a l'information pour repondre au mieux aux attentes des utilisateurs et comment evaluer les performances du systeme par rapport a ces attentes? dans ce contexte, cette these traite a la fois de la construction et de l'evaluation des graphes de connexion pour la navigation visuelle dans les grands ensembles d'images fixes. Pour un ensemble donne d'images, chaque sommet du graphe represente une image et les arcs reliant les sommets dans le graphe definissent l'ensemble des liens existants entre les images. Via une interface de parcours visuel dans le graphe adaptee, ce sont ces liens que les utilisateurs suivent lors de leurs recherches en naviguant d'image en image. Au-dela des outils de construction d'un graphe de liens dans un grand ensemble d'images, les apports principaux de cette these se situent: sur le plan des interfaces utilisateur: la notion de vues differentes sur un meme ensemble de liens permet a l'utilisateur de mettre en uvre differents types de parcours visuels; sur le plan de l'evaluation: plusieurs modeles d'utilisation d'un systeme de recherche de documents sont proposes et des protocoles et mesures d'evaluation leur sont associes. Les protocoles de test ont ete mis en uvre lors d'experimentations reelles par des utilisateurs, et les resultats correspondants sont presentes et discutes. On y trouve la confirmation de l'efficacite de la navigation visuelle pour l'exploration d'un ensemble d'images et la generalisation de selections preexistantes, mais aussi une meilleure quantification de ses limites pour la recherche finalisee d'une image ou d'un petit nombre d'images
APA, Harvard, Vancouver, ISO, and other styles
34

Bergougnoux, Patrick. "MIME, un environnement de développement coopératif pour applications distribuées." Toulouse 3, 1992. http://www.theses.fr/1992TOU30014.

Full text
Abstract:
Les langages de quatrieme generation ont pour vocation de repondre a un besoins pour les utilisateurs finaux de developper eux-memes leurs applications. Cependant, la montee en puissance de la micro-informatique et, l'avenement des reseaux locaux font apparaitre la necessite de mettre en uvre des applications complexes. Pour cela, les developpeurs doivent disposer d'outils puissants, certes moins accessibles aux novices, mais bien plus adaptes aux professionnels du developpement. Une etude detaillee des concepts utilises dans les langages de quatrieme generation existants sert de base a la determination de l'environnement le mieux adapte pour le developpement, en milieu reparti, d'applications pointues et conviviales. Un environnement issu de cette etude est alors propose: mime est concu pour la mise en uvre, par des specialistes du developpement, d'applications complexes supportees par des reseaux de micros. Sa structure est organisee autour d'un administrateur offrant a des modules clients les ressources proposees par les differentes composantes du systeme. Les principaux outils integres au sein de l'environnement de developpement sont un sequenceur automatique de modules, un pre-processeur de compilation, un gestionnaire d'entrees-sorties s'appuyant sur une banque d'ecrans et un systeme de gestion de la base de donnees relationnel. Les applications pouvant etre distribuees sur plusieurs postes, un traitement cooperatif, base sur le partage de services sur le reseau a travers une architecture client-serveur, est implemente au sein de l'environnement, puis au sein des applications developpees. Le fait que les utilisateurs cooperent au moyen de ces applications distribuees fait apparaitre la necessite de rendre coherentes les multiples informations traitees et affichees par les differents postes du systeme. Cette coherence visuelle est assuree grace a un nouveau mode de verrouillage de la base de donnees permettant le rafraichissement immediat des ecrans contenant des donnees mises a jour par d'autres utilisateurs
APA, Harvard, Vancouver, ISO, and other styles
35

Steff, Yann. "SMA et gestion coopérative de réseaux et systèmes : un cadre méthodologique pour une macro-organisation autonome." Toulouse 3, 2002. http://www.theses.fr/2002TOU30043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Duque, Hector. "Conception et mise en oeuvre d'un environnement logiciel de manipulation et d'accès à des données réparties : application aux grilles d'images médicales : le système DSEM / DM2." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0050/these.pdf.

Full text
Abstract:
La vision que nous défendons est celle de grilles biomédicales partenaires des systèmes médicaux (hôpitaux), à la fois fournisseuses de puissance de calcul et plates-formes de partage d'informations. Nous proposons une architecture logicielle de partage d'images médicales réparties à grande échelle. S'appuyant sur l'existence a priori d'une infrastructure de grille, nous proposons une architecture multi-couche d'entités logicielles communicantes (DSE : Distributed Systems Engines). Fondée sur une modélisation hiérarchique sémantique, cette architecture permet de concevoir et de déployer des applications réparties performantes, fortement extensibles et ouvertes, capables d'assurer l'interface entre grille, systèmes de stockage de données et plates-formes logicielles locales (propres aux entités de santé) et dispositifs d'acquisition d'images, tout en garantissant à chaque entité une maîtrise complète de ses données dont elle reste propriétaire
Our vision, in this thesis, is the one of a bio-medical grip as a partner of hospital's information systems, sharing computing resources as well as a platform for sharing information. Therefore, we aim at (i) providing transparent access to huge distributed medical data sets, (ii) querying these data by their content, and (iii), sharing computing resources within the grip. Assuming the existence of a grip infrastructure, we suggest a multi-layered architecture (Distributed Systems Engines – DSE). This architecture allows us to design High Performance Distributed Systems which are highly extensible, scalable and open. It ensures the connection between the grip, data storing systems, and medical platforms. The conceptual design of the architecture assumes a horizontal definition for each one of the layers, and is based on a multi-process structure. This structure enables the exchange of messages between processes by using the Message Passing Paradigm. These processes and messages allow one to define entities of a higher level of semantic significance, which we call Drivers and, which instead of single messages, deal with different kinds of transactions: queries, tasks and requests. Thus, we define different kinds of drivers for dealing with each kind of transaction, and in a higher level, we define services as an aggregation of drivers. The architectural framework of drivers and services eases the design of components of a Distributed System (DS), which we call engines, and also eases the extensibility and scalability of DS
APA, Harvard, Vancouver, ISO, and other styles
37

Guo, Chaopeng. "Allocation de ressources efficace en énergie pour les bases de données dans le cloud." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30065.

Full text
Abstract:
Aujourd'hui, beaucoup de techniques de cloud computing et de bases de données dans le cloud sont adoptées dans l'industrie et le monde universitaire pour faire face à l'arrivée de l'ère du big data. Parallèlement, l'efficacité énergétique et les économies d'énergie deviennent une préoccupation majeure pour les centres de données, qui sont en charge de grands systèmes distribués et de bases de données dans le cloud. Toutefois, l'efficacité énergétique et l'accord de niveau de service des bases de données dans le cloud souffrent d'un problème d'allocation en ressources, de sur-allocation et de sous-allocation, c'est-à-dire qu'il y a un écart entre les ressources fournies et les ressources requises. Comme l'utilisation des bases de données dans le cloud est dynamique, les ressources du système devraient être fournies en fonction de sa charge de travail. Dans cette thèse, nous présentons nos recherches sur l'allocation de ressources efficace en énergie pour les bases de données dans le cloud, utilisant des techniques d'ajustement dynamique de la tension et de la fréquence (dynamic voltage and frequency scaling, DVFS for short) pour résoudre les problèmes d'allocation en ressources. De plus, une approche de migration est introduite pour améliorer davantage l'efficacité énergétique des systèmes de bases de données dans le cloud. Notre contribution peut se résumer comme suit : Dans un premier temps, le comportement de l'efficacité énergétique du système de base de données dans le cloud utilisant des techniques DVFS est analysé. En fonction des résultats du benchmark, deux approches de sélection des fréquences sont proposées. Ensuite, une approche de type problème borné est introduite pour la sélection de la fréquence. Avec cette approche, la consommation d'énergie et le coût de migration sont traités séparément. Un programme linéaire et un algorithme multi-phases sont proposés. Puisque l'espace de solution est très grand, les deux algorithmes sont comparés avec un petit cas, tandis que l'algorithme multi-phases est évalué avec des cas plus grands. En outre, une approche de type problème d'optimisation est introduite pour la sélection de la fréquence. Avec cette approche, la consommation d'énergie et le coût de migration sont traités comme un tout. Un algorithme génétique ainsi qu'un algorithme fondé sur la recherche arborescente Monte-Carlo sont proposés. Chacun des deux algorithmes présente des avantages et des inconvénients. Enfin, une approche de migration est introduite pour migrer les données en fonction des fréquences données et de leur disposition actuelle. Un plan de migration peut être obtenu en temps polynomial grâce à l'algorithme Constrictif MTHM proposé
Today a lot of cloud computing and cloud database techniques are adopted both in industry and academia to face the arrival of the big data era. Meanwhile, energy efficiency and energy saving become a major concern in data centers, which are in charge of large distributed systems and cloud databases. However, energy efficiency and service-level agreement of cloud databases are suffering from resource provisioning, resource over-provisioning and resource under-provisioning, namely that there is a gap between resource provided and resource required. Since the usage of cloud database is dynamical, resource of the system should be provided according to its workload. In this thesis, we present our work on energy-efficient resource provisioning for cloud databases that utilizes dynamic voltage and frequency scaling (DVFS) technique to cope with resource provisioning issues. Additionally, a migration approach is introduced to improve the energy efficiency of cloud database systems further. Our contribution can be summarized as follows: At first, the behavior of energy efficiency of the cloud database system under DVFS technique is analyzed. Based on the benchmark result, two frequency selection approaches are proposed. Then, a frequency selection approach with bounded problem is introduced, in which the power consumption and migration cost are treated separately. A linear programming algorithm and a multi-phases algorithm are proposed. Because of the huge solution space, both algorithms are compared within a small case, while the multi-phases algorithm is evaluated with larger cases. Further, a frequency selection approach with optimization problem is introduced, in which the energy consumption for executing the workload and migration cost are handled together. Two algorithms, a genetic based algorithm and a monte carlo tree search based algorithm are proposed. Both algorithms have their pros and cons. At last, a migration approach is introduced to migrate data according to the given frequencies and current data layout. A migration plan can be obtained within polynomial time by the proposed Constrained MHTM algorithm
APA, Harvard, Vancouver, ISO, and other styles
38

Epimakhov, Igor. "Allocation des ressources pour l'optimisation de requêtes dans les systèmes de grille de données." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2017/.

Full text
Abstract:
Les systèmes de grille de données sont de plus en plus utilisés grâce à leur capacité de stockage et de calcul. L'un des problèmes importants de ces systèmes est l'allocation de ressources pour l'optimisation de requêtes SQL. Récemment, la communauté scientifique a publié plusieurs approches et méthodes d'allocation de ressources, en s'efforçant de tenir compte des différentes spécificités de systèmes de grille de données : l'hétérogénéité, l'instabilité du système et la grande échelle. La structure de gestion centralisée prédomine dans les méthodes proposées, malgré les risques encourus par cette solution dans les systèmes à grande échelle. Dans cette thèse nous proposons une méthode d'allocation de ressources hybride et décentralisée pour l'optimisation d'une requête. La partie statique de notre méthode constitue la stratégie d'allocation initiale de ressources par un 'broker' d'une requête. Quant à la partie dynamique, nous proposons une stratégie, qui utilise la coopération entre des opérations relationnelles mobiles autonomes et des coordinateurs stationnaires des nœuds pour décentraliser le processus de réallocation dynamique de ressources. Les éléments clés de notre méthode sont : (i) la limitation de l'espace de recherche pour résoudre les problèmes causés par la grande échelle, (ii) le principe de répartition des ressources entre les opérations d'une requête pour déterminer le degré de parallélisme des opérations et pour équilibrer la charge dynamiquement et (iii) la décentralisation du processus d'allocation dynamique. Les résultats de l'évaluation des performances de notre méthode montrent l'efficacité de nos propositions. Notre stratégie d'allocation initiale de ressources a donné des résultats supérieurs à la méthode de référence que nous avons utilisée pour la comparaison. La stratégie de réallocation dynamique de ressources réduit notablement le temps de réponse en présence de l'instabilité du système et du déséquilibre de charge
Data grid systems are utilized more and more due to their storage and computing capacities. One of the main problems of these systems is the resource allocation for SQL query optimization. Recently, the scientific community published numerous approaches and methods of resource allocation, striving to take into account different peculiarities of data grid systems: heterogeneity, instability and large scale. Centralized management structure predominates in the proposed methods, in spite of the risks incurred of the solution in the large scale systems. In the thesis we adopt the hybrid approach of resource allocation for query optimization, meaning that, we first make a static resource allocation during the query compile time, and then reallocate the resources dynamically during the query runtime. As opposed to the previously proposed methods, we use a decentralized management structure. The static part of our method consists of the strategy of initial resource allocation with a query 'broker'. As for the dynamic part, we propose a strategy that uses the cooperation between relational mobile operations and stationary coordinators of nodes in order to decentralize the process of dynamic resource reallocation. Key elements of our method are: (i) limitation of research space for resolve problems caused by the large scale, (ii) principle of resources distribution between query operations for determining the parallelism degree of operations and for balancing the load dynamically and (iii) decentralization of the dynamic allocation process. Results of performance evaluation show the efficiency of our propositions. Our initial resource allocation strategy gives results superior to the referenced method that we used for the comparison. The dynamic reallocation strategy decrease considerably the response time in the presence of the system instability and load misbalance
APA, Harvard, Vancouver, ISO, and other styles
39

Sauquet, Dominique. "Lied : un modèle de données sémantique et temporel : son intégration dans une architecture distribuée et son utilisation pour des applications médicales." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0586.

Full text
Abstract:
Le travail présenté propose une solution au traitement de l'information complexe et distribuée dans le contexte d'applications médicales. La solution repose à la fois sur un modèle de données qui facilite la représentation des données temporelles ou répétitives et des relations entre les données (le modèle LIED, langage interactif pour l'exploitation des données) et sur une architecture de communication (le HUB, HELIOS Unification Bus). Apres une rapide introduction sur le contexte médical d'expérimentation et sur une brève présentation du modèle, on y aborde en détails les aspects de modélisation. On y fait référence aux travaux de normalisation ou de recherche du domaine médical (travaux du CEN TC 251 ou de l'ODMG, projets HELIOS, GEHR, GALEN, …). On y décrit ensuite le modèle choisi pour la représentation des concepts médicaux et des items ainsi que la façon dont ces items sont agrégés pour former le modèle d'information. Les aspects temporels sont aussi abordés, à la fois d'un point de vue bibliographique portant sur les bases de données temporelles et d'un point de vue de la solution proposée dans le modèle LIED. L'auteur s'intéresse ensuite aux aspects de distribution et aux solutions en terme de logiciels pour assurer l'intégration des systèmes hétérogènes distribués. Les différentes solutions, connues sous le nom générique de middleware, sont présentées. Une proposition de classification des middlewares est aussi faite, ainsi qu'une présentation des tendances en matière d'évolution de ces logiciels. L'auteur s'intéresse ensuite à la solution middleware qu'il a mise en œuvre dans le cadre du projet HELIOS, le HUB, et à la façon dont LIED a bénéficié des apports du HUB. Les aspects d'interface homme-machine sont ensuite étudiés, avant d'aborder les résultats de l'implémentation et de la mise en production dans les différents services de l'hôpital Broussais. Le travail se termine sur une étude critique de positionnement par rapport aux « SGBD Orienté Objet » ainsi que sur les perspectives qu'il offre dans le cadre des projets de recherche européens Synapses et SynEx, références en terme de plateformes d'intégration du domaine médical. Ce travail résume l'investissement personnel de l'auteur depuis de nombreuses années (entre 12 et 15) ainsi que l'état de l'art du génie logiciel, dans le contexte des réalisations d'informatique médicale.
APA, Harvard, Vancouver, ISO, and other styles
40

Antoniu, Gabriel. "Contribution à la conception de services de partage de données pour les grilles de calcul." Habilitation à diriger des recherches, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00437324.

Full text
Abstract:
Ce manuscrit décrit les travaux de recherche que nous avons mené pendant les six dernières années sur le thème du partage transparent des données réparties à grande échelle. L'infrastructure visée a été celle des grilles de calcul. Notre objectif a été de répondre à la question: comment serait-il possible de construire un système fournissant un modèle transparent d'accès aux données, tout en tenant compte des contraintes spécifiques aux infrastructures physiques utilisées (architecture hiérarchique, distribution à grande échelle, volatilité, tolérance aux défaillances, etc.)? En réponse à ce défi, nous avons proposé le concept de service de partage de données pour grilles, pour lequel nous avons défini une spécification, une architecture et une mise en oeuvre. Ce travail se situe à la frontière de plusieurs domaines: systèmes à mémoire virtuellement partagée, systèmes pair-à-pair, systèmes tolérants aux fautes. En nous appuyant sur des résultats déjà existants qui proposaient des solutions partielles à notre problème, notre approche a consisté à étendre, adapter et coupler ces solutions partielles et à rajouter les "briques" manquantes, afin de construire une solution globale, plus complexe, mais qui satisfasse l'ensemble des propriétés recherchées. Un résultat issu de cette approche est la notion de groupe hiérarchique auto-organisant, qui combine des protocoles de cohérence issus des systèmes à mémoire virtuellement partagée avec des protocoles de gestion de groupe tolérants aux fautes. Sur cette notion repose notre approche pour la définition de protocoles de cohérence tolérants aux fautes, adaptés aux grilles. Nous avons attaché une importance particulière à la validation expérimentale} de notre proposition par une mise en oeuvre et par une évaluation sur des plates-formes réelles à travers des prototypes expérimentaux. Ceci nous a permis de réaliser des expériences multisites en grandeur nature sur la plate-forme Grid'5000, avec l'objectif d'évaluer les bénéfices apportés par notre service de partage de données aux environnements de calcul réparti sur grille. A cet effet, nous avons évalué la capacité de JuxMem à s'intégrer avec plusieurs modèles de programmation pour grille d'une part (GridRPC, modèles à base de composants) et avec d'autres technologies de stockage d'autre part (Gfarm, ASSIST). Cette intégration a été réalisée en collaboration avec des équipes françaises, telles que les équipes-projets REGAL et GRAAL de l'INRIA, mais aussi avec des équipes étrangères des universités de Pise et de Calabre en Italie, d'Illinois/Urbana-Champaign aux Etats-Unis et de Tsukuba au Japon. Enfin, nous avons travaillé en étroite concertation avec l'équipe JXTA de Sun Microsystems (Santa Clara, Etats-Unis), qui a soutenu nos efforts à travers un contrat de collaboration industrielle.
APA, Harvard, Vancouver, ISO, and other styles
41

Le, Sergent Thierry. "Méthodes d'exécution et machines virtuelles parallèles pour l'implantation distribuée du langage de programmation parallèle LCS." Toulouse 3, 1993. http://www.theses.fr/1993TOU30021.

Full text
Abstract:
L'objet de cette these est l'implantation d'un langage de programmation parallele de haut niveau sur des machines physiques paralleles a memoire partagee ou distribuee. Le langage support de l'etude, lcs, combine les aspects haut niveau du langage fonctionnel standard ml et le modele des processus communicants ccs. L'implantation repose sur une machine virtuelle parallele, composee d'un nombre limite de machines virtuelles sequentielles elementaires partageant l'ensemble des objets construits dans un tas. Les principales contributions sont: (1) la gestion du tas partage, qui fait appel a un ramasse miettes s'executant en parallele sur les machines elementaires, incrementalement avec le calcul sur chacune d'elles. Un mecanisme original de credit de tracage, et des algorithmes distribues d'allocation permettent une cooperation totale entre les machines. Sur des machines cibles a memoire distribuee, le tas est construit par la technique de memoire virtuelle partagee distribuee, integree efficacement avec le ramasse miettes grace a l'utilisation dans les deux cas des protections d'acces aux pages memoire. (2) la gestion de l'ensemble des processus, pour laquelle un algorithme de repartition de charge, base sur l'emploi de bornes dynamiques, a ete concu. Ses proprietes sont demontrees, et les resultats confirmes par simulation. L'implementation effectuee a permis d'apprecier les qualites du ramasse miettes paralleles developpe
APA, Harvard, Vancouver, ISO, and other styles
42

Kandi, Mohamed Mehdi. "Allocation de ressources élastique pour l'optimisation de requêtes." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30172.

Full text
Abstract:
Le Cloud Computing est devenu un moyen largement utilisé pour l'interrogation de bases de données. Les fournisseurs de cloud actuels proposent une variété de services implémentés sur des architectures parallèles. Les objectifs de performances et les éventuelles pénalités dans le cas de violation sont établis au préalable dans un contrat appelé Service-Level Agreement (SLA). Le but du fournisseur est de maximiser son bénéfice tout en respectant les besoins des locataires. Avant la naissance des systèmes cloud, plusieurs travaux ont considéré le problème d'allocation de ressources pour l'interrogation de bases de données sur des architectures parallèles. Le plan d'exécution de chaque requête est un graphe de tâches dépendantes. L'expression "allocation de ressources" dans ces travaux sous-entend souvent le placement des tâches sur les ressources disponibles et aussi leur ordonnancement qui tient compte des liens de dépendance. Le but consistait principalement à minimiser le temps d'exécution de requêtes et maximiser l'utilisation de ressources. Par contre, dans le cloud ce but ne garantit pas nécessairement le meilleur bénéfice économique pour le fournisseur. Afin de maximiser le bénéfice et satisfaire les besoins des locataires, il est essentiel d'inclure le modèle économique et les SLAs dans le processus d'allocation de ressources. En effet, les besoins des locataires en terme de performances sont différents, il serait donc intéressant d'allouer les ressources d'une façon qui favorise les locataires les plus exigeants en assurant quand même une certaine qualité de service pour les locataires les moins exigeants. De plus, dans le cloud le nombre de ressources attribuées peut augmenter/diminuer selon la demande (élasticité) et le coût monétaire dépend du nombre de ressources attribuées, il devient donc intéressant de mettre en place un mécanisme pour choisir automatiquement le moment adéquat pour ajouter ou supprimer des ressources en fonction de la charge (dimensionnement automatique). Nous nous intéressons dans le cadre de cette thèse à la conception de méthodes d'allocation de ressources élastique pour les services d'interrogation de bases de données dans le cloud : (1) une méthode d'allocation de ressources statique en deux phases pour assurer un bon compromis entre le bénéfice du fournisseur et la satisfaction des locataires, tout en garantissant un coût d'allocation raisonnable, (2) une méthode de réallocation de ressources dirigée par les SLAs pour limiter l'impact des erreurs d'estimation sur le bénéfice et (3) une méthode de dimensionnement automatique basée sur l'apprentissage par renforcement qui répond aux spécificités de l'interrogation de bases de données. Afin d'évaluer nos contributions, nous avons implémenté nos méthodes dans un environnement cloud simulé et nous les avons comparées à des méthodes de l'état de l'art en terme de coût monétaire de l'exécution de requêtes ainsi que le coût d'allocation
Cloud computing has become a widely used way to query databases. Today's cloud providers offer a variety of services implemented on parallel architectures. Performance targets and possible penalties in case of violation are established in advance in a contract called Service-Level Agreement (SLA). The provider's goal is to maximize its benefit while respecting the needs of tenants. Before the birth of cloud systems, several studies considered the problem of resource allocation for database querying in parallel architectures. The execution plan for each query is a graph of dependent tasks. The expression "Resource allocation" in this context often implies the placement of tasks within available resources and also their scheduling that takes into account dependencies between tasks. The main goal was to minimize query execution time and maximize the use of resources. However, this goal does not necessarily guarantee the best economic benefit for the provider in the cloud. In order to maximize the provider's benefit and meet the needs of tenants, it is important to include the economic model and SLAs in the resource allocation process. Indeed, the needs of tenants in terms of performance are different, so it would be interesting to allocate resources in a way that favors the most demanding tenants and ensure an acceptable quality of service for the least demanding tenants. In addition, in the cloud the number of assigned resources can increase/decrease according to demand (elasticity) and the monetary cost depends on the number of assigned resources, so it would be interesting to set up a mechanism to automatically choose the right moment to add or remove resources according to the load (auto-scaling). In this thesis, we are interested in designing elastic resource allocation methods for database queries in the cloud. This solution includes: (1) a static two-phase resource allocation method to ensure a good compromise between provider benefit and tenant satisfaction, while ensuring a reasonable allocation cost, (2) an SLA-driven resource reallocation to limit the impact of estimation errors on the benefit and (3) an auto-scaling method based on reinforcement learning that meet the specificities of database queries. In order to evaluate our contributions, we have implemented our methods in a simulated cloud environment and compared them with state-of-the-art methods in terms of monetary cost of the execution of queries as well as the allocation cost
APA, Harvard, Vancouver, ISO, and other styles
43

Benslimane, Djamal. "Etudes de l'apport des techniques de parallélisme dans l'amélioration des performances des systèmes à base de règles de production." Clermont-Ferrand 2, 1990. http://www.theses.fr/1990CLF21287.

Full text
Abstract:
Cette these a pour but l'etude de l'amelioration des performances d'un systeme a base de regles par recours aux techniques de parallelisme. L'etude est limitee aux cas de multiprocesseurs dont la memoire est soit distribuee, soit partagee. Differentes architectures fonctionnelles paralleles des systemes experts sont proposees. Elles permettent d'obtenir un parallelisme: 1) inter-regles; 2) inter-objets equivalent a un parallelisme inter-regles et intra-regle. Une methodologie de simulation de ces fonctionnements paralleles est proposee pour estimer les gains en temps d'execution en fonction du nombre de processeurs. Enfin, pour le cas d'un multiprocesseur a memoire distribuee, le probleme de la recherche d'un partitionnement optimal des regles est formalise. Un algorithme approche qui fournit une solution sous-optimale est ensuite propose
APA, Harvard, Vancouver, ISO, and other styles
44

Vilarem, Jean-François. "Contrôle de concurrence mixte en environnement distribué : une méthode fusionnant verrouillage et certification." Montpellier 2, 1989. http://www.theses.fr/1989MON20023.

Full text
Abstract:
Cette these se situe dans le cadre de controle de concurrence pour des systemes transactionnels repartis. Elle montre que les methodes pessimistes a base de verrouillage a deux phases et les methodes optimistes par certification peuvent coexister. Cette proposition, nouvelle en environnement distribue, peut se reveler avantageuse dans differentes situations ou l'heterogeneite est relative au type de controle exerce. Un modele de transaction distribuee, a base d'operations lire et ecrire, est propose. Differentes methodes de controle sont analysees a la lumiere d'un graphe de precedence engendre par les conflits entre operations de transactions concurrentes. Ce travail expose une methode par certification distribuee construisant un ordre de serialisation. Par la suite, celle-ci est adaptee de maniere a integrer le verrouillage a deux phases. Finalement cette solution mixte est mise en uvre en utilisant la technique des intervalles d'estampilles
APA, Harvard, Vancouver, ISO, and other styles
45

Brunie, Hugo. "Optimisation des allocations de données pour des applications du Calcul Haute Performance sur une architecture à mémoires hétérogènes." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0014/document.

Full text
Abstract:
Le Calcul Haute Performance, regroupant l’ensemble des acteurs responsables de l’amélioration des performances de calcul des applications scientifiques sur supercalculateurs, s’est donné pour objectif d’atteindre des performances exaflopiques. Cette course à la performance se caractérise aujourd’hui par la fabrication de machines hétérogènes dans lesquelles chaque composant est spécialisé. Parmi ces composants, les mémoires du système se spécialisent, et la tendance va vers une architecture composée de plusieurs mémoires aux caractéristiques complémentaires. La question se pose alors de l’utilisation de ces nouvelles machines dont la performance pratique dépend du placement des données de l’application sur les différentes mémoires. Dans cette thèse, nous avons développé une formulation du problème d’allocation de donnée sur une Architecture à Mémoires Hétérogènes. Dans cette formulation, nous avons fait apparaître le bénéfice que pourrait apporter une analyse temporelle du problème, parce que de nombreux travaux reposaient uniquement sur une approche spatiale. À partir de cette formulation, nous avons développé un outil de profilage hors ligne pour approximer les coefficients de la fonction objective afin de résoudre le problème d’allocation et d’optimiser l’allocation des données sur une architecture composée deux de mémoires principales aux caractéristiques complémentaires. Afin de réduire la quantité de modifications nécessaires pour prendre en compte la stratégie d’allocation recommandée par notre boîte à outils, nous avons développé un outil capable de rediriger automatiquement les allocations de données à partir d’un minimum d’instrumentation dans le code source. Les gains de performances obtenus sur des mini-applications représentatives des applications scientifiques codées par la communauté permet d’affirmer qu’une allocation intelligente des données est nécessaire pour bénéficier pleinement de ressources mémoires hétérogènes. Sur certaines tailles de problèmes, le gain entre un placement naïf est une allocation instruite peut atteindre un facteur ×3.75
High Performance Computing, which brings together all the players responsible for improving the computing performance of scientific applications on supercomputers, aims to achieve exaflopic performance. This race for performance is today characterized by the manufacture of heterogeneous machines in which each component is specialized. Among these components, system memories specialize too, and the trend is towards an architecture composed of several memories with complementary characteristics. The question arises then of these new machines use whose practical performance depends on the application data placement on the different memories. Compromising code update against performance is challenging. In this thesis, we have developed a data allocation on Heterogeneous Memory Architecture problem formulation. In this formulation, we have shown the benefit of a temporal analysis of the problem, because many studies were based solely on a spatial approach this result highlight their weakness. From this formulation, we developed an offline profiling tool to approximate the coefficients of the objective function in order to solve the allocation problem and optimize the allocation of data on a composite architecture composed of two main memories with complementary characteristics. In order to reduce the amount of code changes needed to execute an application according to our toolbox recommended allocation strategy, we have developed a tool that can automatically redirect data allocations from a minimum source code instrumentation. The performance gains obtained on mini-applications representative of the scientific applications coded by the community make it possible to assert that intelligent data allocation is necessary to fully benefit from heterogeneous memory resources. On some problem sizes, the gain between a naive data placement strategy, and an educated data allocation one, can reach up to ×3.75 speedup
APA, Harvard, Vancouver, ISO, and other styles
46

Bekele, Dawit. "Contribution à l'étude de la répartition d'applications écrites en langage ADA 83." Toulouse 3, 1994. http://www.theses.fr/1994TOU30069.

Full text
Abstract:
De nombreux problemes ont ete rencontres lors de l'utilisation du langage ada dans la programmation d'applications destinees aux systemes repartis. L'objectif de cette these est de fournir des solutions a certains problemes. Le premier chapitre detaille les objectifs de la these et introduit son contenu. Le second chapitre presente les systemes repartis et les langages qui leur sont dedies. Un etat de l'art de l'utilisation du langage ada dans le cadre de la repartition constitue le troisieme chapitre. Le quatrieme chapitre presente les principaux choix du projet strada sur lequel s'appuie le travail de cette these. Le chapitre suivant est consacre a l'etude de chacun des problemes qui decoulent des choix effectues dans le projet et a la presentation des solutions proposees. Le dernier chapitre fait un bilan de ce travail et de son apport dans la realisation d'applications reparties. Deux choix importants ont ete faits dans le cadre de ce travail. Le premier consiste a l'utilisation du modele des taches ada pour exprimer le parallelisme logique, la synchronisation et la communication entre unites paralleles d'une application repartie. Le deuxieme choix concerne l'adoption d'un modele de programmation en deux phases. Dans la premiere phase, les fonctionnalites et le parallelisme logique de l'application repartie sont programmes en ada. Dans la seconde phase de programmation, le programmeur peut eventuellement decider du placement des differentes taches. De plus, ce projet a permis une etude approfondie du probleme de la terminaison des taches dans un cadre reparti. Un algorithme specifique a ete defini et valide
APA, Harvard, Vancouver, ISO, and other styles
47

El, Attar Ali. "Estimation robuste des modèles de mélange sur des données distribuées." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00746118.

Full text
Abstract:
Cette thèse propose une contribution en matière d'analyse de données, dans la perspective de systèmes informatiques distribués non-centralisés, pour le partage de données numériques. De tels systèmes se développent en particulier sur internet, possiblement à large échelle, mais aussi, par exemple, par des réseaux de capteurs. Notre objectif général est d'estimer la distribution de probabilité d'un jeu de données distribuées, à partir d'estimations locales de cette distribution, calculées sur des sous- jeux de données locaux. En d'autres termes, il s'est agi de proposer une technique pour agréger des estimés locaux pour en faire un estimé global. Notre proposition s'appuie sur la forme particulière que doivent prendre toutes les distributions de probabilité manipulées : elles doivent se formuler comme un mélange de lois gaussiennes multivariées. Notre contribution est une solution à la fois décentralisée et statistiquement robuste aux modèles locaux aberrants, pour mener à bien l'agrégation globale, à partir d'agrégations locales de mélanges de lois gaussiennes. Ces agrégations locales ne requièrent un accès qu'aux seuls paramètres des modèles de mélanges, et non aux données originales.
APA, Harvard, Vancouver, ISO, and other styles
48

Benkrid, Soumia. "Le déploiement, une phase à part entière dans le cycle de vie des entrepôts de données : application aux plateformes parallèles." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0027/document.

Full text
Abstract:
La conception d’un entrepôt de données parallèle consiste à choisir l’architecture matérielle,à fragmenter le schéma d’entrepôt de données, à allouer les fragments générés, à répliquer les fragments pour assurer une haute performance du système et à définir la stratégie de traitement et d’équilibrage de charges. L’inconvénient majeur de ce cycle de conception est son ignorance de l’interdépendance entre les sous-problèmes liés à la conception d’un EDP et l’utilisation des métriques hétérogènes pour atteindre le même objectif. Notre première proposition définie un modèle de coût analytique pour le traitement parallèle des requêtes OLAP dans un environnement cluster. Notre deuxième proposition prend en considération l’interdépendance existante entre la fragmentation et l’allocation. Dans ce contexte, nous avons proposé une nouvelle approche de conception d’un EDP sur un cluster de machine. Durant le processus de fragmentation, notre approche décide si le schéma de fragmentation généré est pertinent pour le processus d’allocation. Les résultats obtenus sont très encourageant et une validation est faite sur Teradata. Notre troisième proposition consiste à présenter une méthode de conception qui est une extension de notre travail. Dans cette phase, une méthode de réplication originale, basée sur la logique floue, est intégrée
Designing a parallel data warehouse consists of choosing the hardware architecture, fragmenting the data warehouse schema, allocating the generated fragments, replicating fragments to ensure high system performance and defining the treatment strategy and load balancing.The major drawback of this design cycle is its ignorance of the interdependence between subproblems related to the design of PDW and the use of heterogeneous metrics to achieve thesame goal. Our first proposal defines an analytical cost model for parallel processing of OLAP queries in a cluster environment. Our second takes into account the interdependence existing between fragmentation and allocation. In this context, we proposed a new approach to designa PDW on a cluster machine. During the fragmentation process, our approach determines whether the fragmentation pattern generated is relevant to the allocation process or not. The results are very encouraging and validation is done on Teradata. For our third proposition, we presented a design method which is an extension of our work. In this phase, an original method of replication, based on fuzzy logic is integrated
APA, Harvard, Vancouver, ISO, and other styles
49

Luong, Duc-Hung. "On resource allocation in cloudified mobile network." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS031.

Full text
Abstract:
Le trafic mobile a considérablement augmenté ces dernières années motivant une évolution vers la prochaine génération de réseau mobile, la 5G. La virtualisation des fonctions du réseau (Network Function Virtualization, NFV), la programmabilité du réseau (Software-Defined Networking, SDN) et l’informatique en nuage (Cloud Computing) sont les technologies retenues pour la mise en œuvre de cette évolution. Ces technologies offrent la flexibilité et l'élasticité nécessaires pour répondre aux défis de la 5G. Cependant, même si ces technologies semblent nécessaires pour la conception de la 5G, reste à savoir si les exigences essentielles de la 5G, en termes de qualité de service et d’expérience d’utilisateur, peuvent être réalisées via ces technologies. Cette thèse traite donc spécifiquement de la façon d'appliquer efficacement ces technologies de virtualisation de réseaux pour la mise en œuvre de la 5G, de la conception au déploiement des services de télécommunication. Elle s’intéresse plus spécifiquement à l’allocation de ressources de façon flexible. Plus spécifiquement, nous avons étudié dans un premier temps l’utilisation de l’approche « cloud-native » et des « microservices » pour la création, de la conception au déploiement, des composants du réseau cœur et ceux du réseau d'accès radio (RAN) de la 5G. Ensuite, afin de maintenir un niveau de qualité de services cible, nous avons traité du problème de la mise à l’échelle automatique des microservices, via une approche prédictive que nous proposons pour éviter les dégradations des services. Celle-ci est intégrée à une plate-forme d'orchestration autonome pour les services de réseau mobile. Pour finir, nous avons également proposé et implémenté un ordonnanceur multi-niveaux, qui permet à la fois de gérer les ressources allouées pour un réseau mobile virtualisé, appelé « slice », mais aussi et surtout de gérer les ressources allouées à plusieurs instances de réseaux mobiles virtualisés, slices, déployés au sein de la même infrastructure physique. Toutes ces propositions ont été mises en œuvre et évaluées sur un banc d’essai réaliste, que nous avons construit
Mobile traffic had been dramatically increasing in recent years along with the evolution toward next generation of mobile network (5G). To face this increasing demands, Network Function Virtualization (NFV), Software Defined Networking (SDN) and Cloud Computing emerged to provide more flexibility and elasticity for mobile networks toward 5G. However, the design of these softwarization technologies for mobile network is not sufficient by itself as and the mobile services also have critical requirements in term of quality of services and user experiences that still need to be full field. Therefore, this thesis focuses on how to apply efficiently softwarization to mobile network services and associate to it flexible resource allocation. The main objective of this thesis is to propose an architecture leveraging virtualization technologies and cloud computing on legacy mobile network architecture. The proposal not only well adopts and provides flexibility as well as high availability to network infrastructure but also satisfies the quality of services requirements of future mobile services. More specifically, we first studied the use of the "cloud-native" approach and "microservices" for the creation of core network components and those of the radio access network (RAN) toward 5G. Then, in order to maintain a target level of quality of services, we dealt with the problem of the automatic scaling of microservices, via a predictive approach that we propose to avoid degradation of services. It is integrated with an autonomous orchestration platform for mobile network services. Finally, we have also proposed and implemented a multi-level scheduler, which allows both to manage the resources allocated for a virtualized mobile network, called "slice", but also and above all to manage the resources allocated to several network instances, deployed within the same physical infrastructure. All these proposals were implemented and evaluated on a realistic test bench
APA, Harvard, Vancouver, ISO, and other styles
50

Gara, Slim. "Allocation dynamique des ressources pour la transmission de la vidéo sur un réseau ATM." Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0007.

Full text
Abstract:
Le développement des applications multimédia avec des contraintes temps réels repose sur la réduction des besoins en ressources de ces applications à travers des mécanismes de compression, l'optimisation de l'allocation des ressources au niveau du réseau et la garantie d'une qualité constante aussi bien au niveau de la compression que de la transmission de l'information. Un environnement pour le contrôle de trafic et des congestions dans un réseau atm a été défini par l'uit-t et l'atm-forum. La transmission d'un trafic variable avec un contrat cbr conduit soit à une sous-utilisation des ressources du réseau soit à une augmentation du délai de transmission. Le gain obtenu avec un contrat rt-vbr grâce au multiplexage statistique induit inévitablement des pertes aléatoires de cellules au sein du réseau. Avec le contrat abt/dt, la transmission d'un bloc de données est précedée d'une phase de réservation préalable des ressources. Selon la version rigide du contrat abt/dt, une demande de bande passante échoue si la bande passante demandée n'est pas disponible. La mise en place du contrat abt devrait reposer sur l'utilisation du protocole frp. Dans le cadre de cette étude, nous avons présenté un schéma global de transport de la vidéo. Nous avons défini une version élastique du contrat abt/dt et du protocole frp/dt ou la bande passante réservée peut être inférieure a celle requise. Nous avons aussi proposé un mécanisme de régulation du codeur au niveau image afin d'adapter le codeur à la bande passante réservée ou au contrat négocié. Enfin, nous avons étudié les performances du protocole proposé. Avec la version rigide, le taux de réduction des fortes demandes de bande passante est de loin plus important que celui des faibles demandes de bande passante. Les résultats obtenus montrent que la version élastique réduit cette différence et assure ainsi un taux de réduction plus équitable entre les fortes et les faibles demandes de bande passante.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography