To see the other types of publications on this topic, follow the link: Bases de données relationnelles – Conception.

Dissertations / Theses on the topic 'Bases de données relationnelles – Conception'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Bases de données relationnelles – Conception.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Jault, Claude. "Méthodologie de la conception des bases de données relationnelles." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090011.

Full text
Abstract:
Cette thèse analyse les différentes méthodes de conception de bases de données relationnelles et, compte tenu de leurs insuffisances, propose une nouvelle méthode. Le 1er chapitre présente les concepts : schémas et modèles conceptuels et logiques, liens entre entités, cardinalités des liaisons, concepts du modèle relationnel (relations, dépendances, clefs primaires et étrangères), normalisation (avec la démonstration de la non inclusion de la 4ème forme normale dans la 3ème), contraintes d'intégrité (de domaine, de relation, de référence), valeurs nulles, et un nouveau type de contraintes, les contraintes entre liens. Le 2ème chapitre expose les différentes méthodes existantes qui peuvent être réparties en trois groupes. Celles qui utilisent le modèle entités-associations : les versions américaine et française de ce modèle (avec leurs extensions), la méthode Axial, la méthode Remora ; celles qui n'utilisent pas de schéma conceptuel : approche de la relation universelle, approche de Codd et date, approche par intégration des vues ; et la méthode IA (NIAM) qui utilise les réseaux sémantiques. Le 3ème chapitre expose la méthode entités-liens-relations élaborée dans cette thèse. Elle s'appuie sur un modèle conceptuel représentant les entités et leurs liens, avec les contraintes d'intégrité entre ces liens. Elle procède en trois phases : l'approche conceptuelle globale, centrée sur les entités et les liens (1:n et 1:1, les liens m:n étant transformes en 2 liens 1:n) ; l'approche conceptuelle détaillée, qui définit les attributs et les domaines sémantiques, normalise les entités, examine les dépendances non permanentes et les contraintes entre liens; l'approche logique, qui déduit le schéma relationnel, contrôle sa normalité, définit les contraintes d'intégrité et résout les inter-blocages référentiels. Le 4ème chapitre illustre la méthode entités-liens-relations par un cas concret
This thesis analyses the different relational data base design methods and, because of their insufficiencies, propose a new method. The first chapter presents the concepts: conceptual and logical schemas and models, links between entities, connection cardinalities, relational model concepts (relations, dependencies, primary and foreign keys), normalization (with the demonstration of the 4th normal form not included into the 3rd), integrity constraints (domain, relation, reference), null values, and a new type of constraints, the constraints between links. The second chapter gives an account of the different methods which can be dispatched in three groups. Those which utilize the entity-relationship model: the American and French model-versions (with their extensions), the axial method, the remora method; those which don't utilize conceptual schema: universal relation approach, godd and date approach, view integration approach; and the IA method (NIAM) using the semantic networks. The third chapter exposes the entity-link-relation method, elaborated in this thesis. It is supported by a conceptual model representing the entities and their links, with the integrity constraints between these links. It proceeds in three phases: the total conceptual approach, centered on entities and links (1:n and 1:1, the links m:n converted to two links 1:n) ; the detail conceptual approach, which defines the attributes and the semantic domains, normalizes entities, examines no-permanent dependencies and the link-constraints ; the logical approach, which gives the relational schema, controls its normality, defines integrity constraints and solves referential deadlocks. The fourth chapter gives one concrete case of the entity-link-relation method
APA, Harvard, Vancouver, ISO, and other styles
2

Redouane, Abdelkader. "Outil de conception et d'administration des bases de données relationnelles parallèles." La Rochelle, 2000. http://www.theses.fr/2000LAROS037.

Full text
Abstract:
Dans cette thèse, nous abordons le problème d'optimisation du placement de données sur disques pour une architecture parallèle à mémoire distribuée. Le placement de données sur plusieurs disques permet d'augmenter la bande passante en e/s en exploitant au maximum le parallélisme des opérations de lecture/écriture d'une ou plusieurs relations. Dans le domaine des bases de données relationnelles parallèles, le placement de données a été largement étudié pour les architectures à mémoire distribuée et différentes stratégies de placement ont été développées. Pour chaque relation, ce placement peut être réalisé soit par une répartition de la relation sur tous les nuds (un nud est constitué d'un processeur, d'une mémoire et d'un ou plusieurs disques), soit par une répartition sur un sous-ensemble de nuds. Un mauvais placement de données sur les disques peut augmenter le cout de communication entre les nuds et par conséquent dégrader les performances du système. Actuellement, le placement sur disque et la réorganisation périodique de ce placement sont à la charge de l'administrateur. Nous proposons un évaluateur de placement de données sur disques dans un environnement d'exécution parallèle, pour une architecture à mémoire distribuée. Il permet d'estimer le cout d'un placement de données dans un environnement multi-utilisateurs. Cet évaluateur s'appuie sur un modèle de cout. Nous étendons le modèle de cout proposé dans Zait 94 Zait 95 et nous validons ce modèle à l'aide d'études expérimentales connues. Cette extension consiste à prendre en compte les couts d'accès en lecture ou en écriture aux données sur disque, d'intégrer de nouvelles fonctions de cout pour certaines opérations relationnelles et les couts de communication lorsqu'une saturation éventuelle du réseau est engendrée. Finalement, toute exécution concurrente des transactions induit des conflits d'accès aux ressources processeurs et données. Nous les modélisons par un cout moyen d'attente pour accéder à la ressource partagée. Afin d'évaluer la charge du système lors de l'exécution concurrente, nous proposons un modèle stochastique de files d'attente. Nous avons réalisé plusieurs séries d'expériences. Cette expérimentation nous permet d'une part de valider notre évaluateur de placements et d'autre part d'obtenir le placement de moindre cout.
APA, Harvard, Vancouver, ISO, and other styles
3

Smine, Hatem. "Outils d'aide à la conception : des bases de données relationnelles aux bases d'objets complexes." Nice, 1988. http://www.theses.fr/1988NICE4213.

Full text
Abstract:
Cette thèse comporte deux parties : un outil d'aide à la conception de bases de données pour non spécialistes et la conception d'objets complexes. On propose un outil intégrant un système expert d'assistance sémantique d'un utilisateur profane pour la construction de son schéma conceptuel. Les dialogues à base de questions-réponses sont simples et riches. Pour la conception d'objets complexes, on définit un réseau sémantique associé au modèle de données B-relationnel et on introduit le concept de chemin de structure dans le réseau. On étudie les questions de modélisation et de manipulation d'objets complexes. On propose un outil d'aide à la conception de schéma B-relationnel avec pour supports des dialogues de langage naturel et le langage B-SQL
APA, Harvard, Vancouver, ISO, and other styles
4

Kezouit, Omar Abdelaziz. "Bases de données relationnelles et analyse de données : conception et réalisation d'un système intégré." Paris 11, 1987. http://www.theses.fr/1987PA112130.

Full text
Abstract:
Les utilisateurs de bases de données relationnelles ont de plus en plus souvent tendance à attendre des Systèmes de Gestion de Bases de Données (SGBD) des fonctionnalités qui aillent plus loin que l'organisation le stockage et la restitution d'un ensemble de données. D'un autre côté, les utilisateurs de l'analyse statistique multidimensionnelle, qui traitent des tableaux de données rectangulaires, ont de gros problèmes de gestion de leurs données et les outils dont ils disposaient jusqu'à présent manquaient souvent de souplesse, voire de possibilités. Pour répondre à cette préoccupation, cette thèse propose de rapprocher bases de données relationnelles et analyse statistique multidimensionnelle à travers la réalisation d'un système intégrant un SGBD relationnel et un système d'analyse de données, et de montrer par là même tout le bénéfice qui peut en être tiré du point de vue de l'interrogation des données. La première partie se propose de présenter les problèmes généraux naissant de l'intégration. Après une présentation des deux domaines et de certains travaux en bases de données statistiques, nous proposons une synthèse des notions de l'analyse statistique multidimensionnelle et des bases de données relationnelles. Ceci permettra de déboucher sur les spécifications d'un outil intégré de gestion et d'analyse des données et également de mettre en évidence un problème de cohérence particulier. Outre l'apport provenant de chaque part (gestion des données plus performante grâce au SGBD, interrogation statistique grâce au système d'analyse des données), des possibilités nouvelles naissent de l'intégration. Il s'agit principalement de la capacité d'effectuer des requêtes approximatives, que nous défroissons à cette occasion, sur une base de données et de la résolution dans certains cas du problème des données manquantes. La seconde partie est consacrée à la présentation d'une réalisation particulière. Nous avons pour cela intégré le SGBD relationnel PEPIN et le Système de classification automatique SICLA. Le prototype opérationnel permet ainsi de gérer une base de données relationnelle et de l'interroger statistiquement. Un exemple d'utilisation pour le traitement d'une enquête est donné.
APA, Harvard, Vancouver, ISO, and other styles
5

Barbar, Aziz. "Extraction de schémas objet pour la rétro-conception de bases de données relationnelles." Nice, 2002. http://www.theses.fr/2002NICE5762.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Coussoulet, Jean-Pierre. "Conception et réalisation d'un système relationnel documentaire : Campus-doc." Nice, 1988. http://www.theses.fr/1988NICE4233.

Full text
Abstract:
Les deux prototypes présentés, bâtis à part du système de gestion de bases de données relationnel Campus, intègrent les fonctionnalités suivantes : 1) gestion de thesaurus; 2) recherche de documents sur données analytiques et/ou signalétiques par requêtes booléennes complexes. Les différences entre ces deux systèmes résident dans leur conception : Minid'oc utilise simplement le modèle relationnel, Campus-doc l'enrichit par intégration de nouveaux types d'entrées
APA, Harvard, Vancouver, ISO, and other styles
7

Taladoire, Gilles. "Conception et réalisation d'un moteur relationnel documentaire multimédia." Nice, 1990. http://www.theses.fr/1990NICE4366.

Full text
Abstract:
Après avoir détecté des insuffisances dans les systèmes documentaires existants, nous avons voulu développer un système performant dans ce domaine. La première partie, destinée aux lecteurs qui ne sont pas spécialistes en logiciels documentaires, cherche à faire le point sur le marché des logiciels documentaires multimédia. Nous nous intéressons à la définition d'un système documentaire ainsi qu'aux supports multimédia disponibles puis au marché français de ces logiciels. La deuxième partie présente les différentes approches sur les systèmes documentaires effectuées en recherche. La troisième partie présente SOPHIADOC, le prototype développé, d'abord sur un plan théorique avec les différents types et opérateurs utilisés ainsi que la méthode d'accès aux données, puis la validation pratique avec l'implantation des différents types et méthodes
APA, Harvard, Vancouver, ISO, and other styles
8

Petit, Jean-Marc. "Fondements pour un processus réaliste de rétro-conception de bases de données relationnelles." Lyon 1, 1996. http://www.theses.fr/1996LYO19004.

Full text
Abstract:
La gestion des donnees permanentes prend une part de plus en plus importante dans tous les domaines de l'informatique. Pour beaucoup d'applications operationnelles, ces donnees sont indispensables a la perennite des entreprises. Pour autant, il n'est pas rare que l'organisation logique des donnees soit ignoree ou mal comprise. Les phases de maintenance de l'existant, notamment a des fins d'evolution ou d'interoperabilite avec d'autres applications, sont rendues difficiles. Nous avons defini un processus de retro-conception de bases de donnees relationnelles. Nous voulons fournir une abstraction des donnees sous la forme d'un schema conceptuel. Notre travail repose sur les fondements du modele relationnel et ameliore significativement l'automatisation de certaines parties du processus. Les travaux dans ce domaine font generalement des hypotheses peu realistes: disciplines de nommage des attributs cles, connaissances des dependances entre les donnees ou disponibilite des administrateurs. Nous proposons une approche modulaire et realiste. Le processus s'articule autour de cinq modules: comprehension de la navigation logique en analysant les jointures effectuees dans les programmes d'application ; extraction de la semantique des donnees a partir de cette navigation logique et de l'extension de la base ; restructuration du schema relationnel pour expliciter des objets caches et les transformer en relations ; traduction du schema relationnel ainsi restructure dans un schema conceptuel de type entite-association, et enfin validation du schema conceptuel obtenu. Si des connaissances sont remises en cause lors de cette validation, une partie du processus peut etre reiteree. Ce processus de retro-conception a ete valide sur un cas reel. Il faut noter qu'il semble etre prometteur pour realiser l'audit de bases de donnees relationnelles operationnelles
APA, Harvard, Vancouver, ISO, and other styles
9

Léonard, Michel. "Conception d'une structure de données dans les environnements de bases de données." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00327370.

Full text
Abstract:
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
APA, Harvard, Vancouver, ISO, and other styles
10

Saleh, Imad. "Rapport entre les bases de données relationnelles et l'intelligence artificielle : étude et conception du modèle H-Relation." Paris, EHESS, 1990. http://www.theses.fr/1990EHES0057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Toumani, Farouk. "Le raisonnement taxinomique dans les modèles conceptuels de données : application à la retro-conception des bases de données relationnelles." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0051.

Full text
Abstract:
Les logiques terminologiques, en tant que formalismes modernes de représentation des connaissances, suscitent actuellement beaucoup d'intérêt dans la communauté des bases de données. Elles permettent le développement de nouveaux modèles de données dotés de la capacité de raisonnement taxinomique. Cependant, ces formalismes s'avèrent peu adapté la représentation conceptuelle des bases de données ou l’accent doit être m1s sur la description précise et naturelle de l’univers du discours. Dans la première partie de ce travail, nous présentons une évaluation des logiques terminologiques en mettant en regard les caractéristiques de ces formalismes avec les exigences de la modélisation conceptuelle. Nous montrons que les logiques terminologiques ne permettent pas une modélisation directe de l'univers du discours et que les représentations proposées par ces formalismes souffrent du problème de la surcharge sémantique. Nous proposons ensuite le modèle qui résulte d’une formalisation d’un modèle sémantique, en l'occurrence un modèle entité-association (E / A), à l’aide d'une logique terminologique. Nous montrons qu'il y a une équivalence entre les schémas E/A et les schémas TERM par rapport à la mesure de la capacité d’information. Ce résultat permet de ramener le raisonnement sur un schéma E/A à un raisonnement sur le schéma TERM qui lui est équivalent. Comme application de ce travail, nous proposons d'utiliser le modèle TER. M dans un processus de rétro-conception de bases de données relationnelles. Celui-ci permet la construction automatique des schémas conceptuels, tout en assurant leur correction (consistance et minimaliste). Il offre également la possibilité de raisonner sur les schémas conceptuels pour les faire évoluer de manière incrémentale ou pour les enrichir en découvrant de nouvelles connaissances qui étaient implicites
Terrninological logics, as modem knowledge representation formalisms, are acknowledged to be one of the most promising artificial intelligence techniques in database applications. They allow the development of new data models equipped with taxonomic reasoning ability. However, these languages turned out to be inadequate in conceptual modelling area where emphasis must be put on the accurate and natural desc1iption of the universe of discourse. In this work, we first examine the features of terminological logics with respect to the requirements of conceptual modelling. We show that terminological logics do not support direct mode/ling requirement and constructs in these formalisms are semantically overloaded. Then we propose a model, called as a formalization of a semantic model, namely an Entity Relationship (E/R) model, using terminological logics. We demonstrate that E/R schemas and schemas are equivalent with respect to their formation capacity measure. This result ensure that the reasoning on an E/R schema can be reduced to a reasoning on its equivalent M schemas. As an application of this work, we propose to use in a relational database reverse engineering process in order to support automatic construction and enrichment of conceptual schemas and to maintain their correctness (consistency and minimality)
APA, Harvard, Vancouver, ISO, and other styles
12

Soutou, Christian. "Contribution à la conception d'une base de données fédérée : dérivation, évolution et intégration de schémas." Toulouse 3, 1994. http://www.theses.fr/1994TOU30187.

Full text
Abstract:
L'objectif d'un systeme federe est de faire cooperer un ensemble de bases de donnees. Cette these contribue a la conception des schemas d'une base de donnees federee heterogene dans un environnement constitue de systemes relationnels et orientes-objet. La demarche de conception adoptee comporte quatre etapes. A chaque etape, nous proposons aux administrateurs de bases de donnees des techniques de definition de schemas. Le modele oriente-objet ifo#2 joue le role de modele commun de donnees de la federation. Nous traduisons les schemas relationnels en schemas ifo#2 equivalents en deux temps: extraction des types d'association et derivation en structures ifo#2. La derivation s'effectue en trois phases: deduction des types de base ifo#2 a partir des relations principales, deduction des arcs et des fonctions a partir des dependances d'inclusion, et enfin, deduction des fragments. Dans la deuxieme etape, nous utilisons des regles de suppression et de modification de types ifo#2 afin de faire evoluer un schema ifo#2 en plusieurs sous-schemas. Nous etudions les consequences de la fragmentation des types sur la coherence d'un sous-schema. L'integration de schemas ifo#2 repose sur la comparaison et la transformation de structures. Nous appliquons au modele ifo#2 des principes de certaines methodes d'integration recentes. Nous adaptons des calculs de similitude afin de comparer des types. Les transformations de types sont regies par des regles d'integration que nous definissons. Nous abordons la notion de vue sous un double aspect: l'aspect prospectif dans lequel nous decrivons un schema virtuel derive d'un schema o#2, l'aspect operationnel dans lequel nous explicitons chacune des possibilites de definition de vues, offertes a un administrateur de federation. Nous appliquons ces principes a un cas concret lorsque nous definissons les schemas de la base de donnees federee gerant une partie de la scolarite des trois universites toulousaines
APA, Harvard, Vancouver, ISO, and other styles
13

Smine, Hatem. "Outils d'aide à la conception des bases de données relationnelles aux bases d'objets complexes /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37618625h.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Kezouit, Omar. "Bases de données relationnelles et analyse de données conception et réalisation d'un système intégré /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37606483f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Boufares, Faouzi. "Analyse et conception d'un optimiseur de requêtes dans un système relationnel." Paris 11, 1986. http://www.theses.fr/1986PA112356.

Full text
Abstract:
L'analyse et la conception d'un optimiseur de requêtes dans un système relationnel font l'objet de cette thèse. Nous explicitons les critères de choix entre les différents algorithmes des opérations de base considérées: la sélection, le tri, la projection et la jointure. Nous établissons les critères de choix d'une méthode d'exécution de la jointure en fonction des tailles des deux relations et de celle de la mémoire, du nombre moyen de nuplets par page, des chemins d'accès aux données et du taux de sélectivité. Enfin, nous spécifions des algorithmes pour les opérateurs groupés afin d'exécuter la jointure, la sélection et la projection simultanément. Ces algorithmes sont à la base de notre méthode d'optimisation de requêtes
This thesis deals with the analysis and the conception of a query optimizer in a Relational Data Base Management System. We consider the problem of the choice of algorithms for relational operations: selection, sort, projection and join. We established some useful criteria for this choice. We show that the choice of the join execution method depends on: size of the two relations, memory size, average of page tuples, data access path and selectivity rate. Finally, we specify some algorithms for grouped operators to execute join selection and projection simultaneously. Our method of query optimization stands on those algorithms
APA, Harvard, Vancouver, ISO, and other styles
16

Kaaniche, Abdelmonem. "Conception et réalisation d'une base de données géologiques et géotechniques ("Tunis-data-bank") orientée vers la cartographie géotechnique automatique ("Tunis-geo-map") : application à la ville de Tunis (Tunisie)." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0056.

Full text
Abstract:
Le présent travail correspond à la réalisation d'une base de données du sous-sol de Tunis et à l’élaboration de cartes géotechniques après une étude approfondie des divers systèmes exploités jusqu'alors. Partant de la connaissance géologique actuelle du site de la ville de Tunis, l'auteur a exploité 1000 sondages répartis sur la totalité du site. Cette base de données géologiques et géotechniques ("Tunis-DataBank") a été réalisée en utilisant un système de gestion de base de données (S. G. B. D. ) relationnel (système INFO). L’exploitation de cette base de données a permis l'obtention de coupes et de profils géologiques. Un système de cartographie automatique (système UNIRAS) a permis d'obtenir 35 cartes géotechniques qualitatives et quantitatives ("Tunis-Geo-Map"). L'outil ainsi mis au point, qui pourra être amélioré en fonction de reconnaissances nouvelle~ qui seront effectuées est utilisables par les ingénieurs. Il permet de définir les campagnes de reconnaissances les plus économiques et les plus fiables, d'optimiser les investissements et d'orienter l'urbanisation. De plus, son exploitation permet d'apporter des précision sur l'histoire géologique du site de Tunis
This research is the constitution of a data bank concerning the su bsoil of Tunis and to the drawing-up of geotechnical maps, following a thorough study of the various systems exploited until then. Proceeding from the present geological attainments relating to the site of Tunis, the author worked on 1000 ground drillings carried out on the whole site. This geological and geotechnical bank ("Tunis-Data-Bank") was elaborated though the use of a relational Data Base Management System (D. B. M. S. ) (INFO system). The exploiting of this data bank make it possible to obtain geological mono – and bi- dimensional sections. 35 qualitative and quantitative geological maps ("Tunis-GeoMap") were obtained throu gh an automatic cartography system (UNIRAS system). The instrument thus conceived, which it will be possible to improve according to new explorations to be carried out, can be used by engineers. It helps to determine the less expensive and the most reliable explorations, to make the most of investments and to direct urbanization. Besides it provides users with precise details about the geological history of the site of Tunis
APA, Harvard, Vancouver, ISO, and other styles
17

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Full text
Abstract:
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
APA, Harvard, Vancouver, ISO, and other styles
18

Léonard, Michel Delobel Claude Benzaken Claude Adiba Michel. "Conception d'une structure de données dans les environnements de bases de données." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00327370.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Youssefi, Abdelhakim El. "Conception et réalisation d'un système de gestion de base de données suivant un modèle objet : sgbd saad." Valenciennes, 1989. https://ged.uphf.fr/nuxeo/site/esupversions/15cd2400-18e9-4918-bb42-2da410672996.

Full text
Abstract:
Proposition d'un modelé objet reposant sur des concepts simples et puissants (classe, bien, agrégation, héritage) qui font de ce modelé un bon outil de modélisation : le monde réel peut être représenté de manière naturelle et intuitive. Les fonctionnalités du système de gestion de base de données SAAD développés autour du modèle proposé sont ensuite décrites. L'implantation du système en langage ADA est présentée ainsi qu'une architecture multi-utilisateur utilisant le parallélisme ADA.
APA, Harvard, Vancouver, ISO, and other styles
20

Bosco, Michel. "Contribution à la spécification et à la conception de systèmes d'information intelligents pour le génie logiciel." Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0004.

Full text
Abstract:
Les logiciels sont fréquemment, aujourd'hui, des ensembles d'outils, des "ateliers" dont l'aspect intégré est un point fort: Cette intégration, est, le plus souvent, obtenue par l'utilisation d'un Système d'Information qui supporte les informations partagées par les outils. Nos travaux ont consisté à examiner quelles étaient aujourd'hui les lacunes des logiciels proposés pour construire des Systèmes d'Information et de définir certains concepts qu'il fallait leur ajouter. Nous avons aussi réalisé un prototype qui les implémente, en nous appuyant sur un système de gestion de bases de données relationnelles, un langage logique (Prolog), et un système de gestion de fichiers. Ce travail a pris le nom d'Impish, et s'inscrit dans le cadre du projet ESPRIT P938, "Integrated Management Process Workbench", dont l'objectif est de réaliser un atelier de gestion de projets logiciels.
APA, Harvard, Vancouver, ISO, and other styles
21

Maranzana, Roland. "Intégration des fonctions de conception et de fabrication autour d'une base de données relationnelle." Valenciennes, 1988. https://ged.uphf.fr/nuxeo/site/esupversions/c2b1155d-a9f8-446e-b064-3b228bf8511b.

Full text
Abstract:
Après avoir exposé les raisons qui conduisent à préconiser l'emploi d'un système de gestion de base de données dans les systèmes de CFAO, le modèle de données relationnel est présenté de façon détaillée. Une méthode pour obtenir un schéma relationnel de bonne qualité est décrite et utilise le modèle sémantique OLE. La mise en œuvre du système de modélisation et l'élaboration des différents interfaces et opérateurs nécessaires à la manipulation des informations sont ensuite abordées. Elles montrent les problèmes posés par le SGBD relationnel et proposent des solutions.
APA, Harvard, Vancouver, ISO, and other styles
22

Khelifi, Mohammed Nedjib. "Méthode de conception d'un système d'information par ébauche systémique et aide à la décision." Paris 8, 1993. http://www.theses.fr/1993PA080795.

Full text
Abstract:
L'ebauche systemique est devenu un passage oblige d'une conception d'un systeme realisee dans une perspective de changement, elle est, dans cette etude, presentee comme une aide pedagogique aux futurs cadres (charges d'etude) dans divers domaines tels que la communication, sociale, l'economie, le commerce etc. . . Elle est destinee a l'amelioration des comportements de communication en situation d'entretiens individuels ou en collectant les informations afin d'atteindre efficacement l'objectif. Notre objectif est de munir le charge d'etude d'outils, d'arguments, de regles, de criteres et de parametres qui lui permettront, avec l'aide d'un informaticien, de conduire un projet d'informatisation. Le concept d'information s'est enrichi et se precise, de jour en jour, grace au developpement des techniques informatiques. La modelisation s'applique a toute representation ou transcription abstraite d'une realite concrete et qu'elle joue, au niveau scientifique, un role essentiel dans la recherche grace a des differentes representations. Une recherche theorique permettant d'apporter une solution au probleme de modelisation totale du systeme d'information permettrait d'envisager, pour l'avenir, une methodologie de conception de l'ensemble du systeme d'information dont les resultats pratiques seraient la conception et la structuration de la base de donnees
The systemic preliminary model has become a due way for the conception of a system realised in a perspective of change. In this research work, it is presented as a pedagogic help for future managers in various fields such as communication, economics, business, sociology etc. . . It is destined to improve the communication behaviours during individual interviews or to collect information in order to reach the aim in the most efficient way. Our aim (goal) is to give the survey manager tools, arguments, rules, criteria and parameters to enable him with the assistance of a programmer, to get through and to achieve a project. The concept of information has improved and gets more precise from day to day tanks to the developement of programming technics keeping in mind the fact that modelisation applies to every representation or abstract transcription of a concrete reality and plays at the scientific level an essential part in the research thanks to various representations. A theoretical research capable of solving the problem of complete modelisation of the system of information would allow to foresee for the future a conception methodology of the complete information system, the conception and structuration of overtated database
APA, Harvard, Vancouver, ISO, and other styles
23

Roche, Alain. "Définition et réalisation d'un logiciel d'aide à la conception de systèmes d'information." Montpellier 2, 1990. http://www.theses.fr/1990MON20145.

Full text
Abstract:
Dans la pratique, la gestion des informations necessaires a la definition d'une base de donnees s'avere tres difficile. Des outils de normalisation permettent de faciliter cette etape. La normalisation fine offre l'avantage de produire des schemas conceptuels irredondants et sous forme graphique. En prenant en compte les dependances d'inclusion dans le processus de normalisation, on obtient un modele pour definir les schemas de donnees encore plus puissant. Le processus de normalisation fine etendue aux dependances d'inclusion a ete automatise dans un logiciel, lacsi, fonctionnant un micro-ordinateur macintosh. Lacsi, qui offre en outre une ergonomie et une interactivite conviviale, est operationnel et rend bien compte de l'interet d'un tel outil
APA, Harvard, Vancouver, ISO, and other styles
24

Chang, Euy-Hyun. "Contribution à la représentation des données et des connaissances pour la modélisation d'objets tridimensionnels." Compiègne, 1988. http://www.theses.fr/1988COMPD138.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Castillo, Reitz Maria. "Etude d'un système d'extraction et présentation de résumés pour les bases de données." Montpellier 2, 1994. http://www.theses.fr/1994MON20277.

Full text
Abstract:
Ce travail traite de la creation et la representation de resumes d'information issues d'une base de donnees. Deux etapes cles sont particulierement examinees: la premiere concerne l'extraction proprement dite d'un resume qui resulte en general d'un processus d'agregation de donnees brutes. La seconde releve de la presentation de l'information resumee, i. E. Sa mise en forme. Nous avons developpe une application appelee ove (observatoire de la vie etudiante) exploitee par la cellule d'information de l'universite de montpellier ii pour repondre aux demandes du ministere de l'education nationale. Un de ses objectifs est la definition d'un langage qui puisse definir et representer aisement des donnees resumees selon une forme multidimensionnelle ou graphique. Un modele du systeme ove a ete elabore ; il definit la notion de resume et caracterise precisement les operations realisees par l'application. Ce modele se base sur une approche fonctionnelle typee d'un modele relationnel etendu, notamment par une operation d'agregation par filtrage ou les relations a attributs calcules
APA, Harvard, Vancouver, ISO, and other styles
26

Su, Yanhua. "Contribution aux études des réseaux électriques par la conception et la réalisation d'une base de données semi-relationnelle et des logiciels d'application." Ecully, Ecole centrale de Lyon, 1987. http://www.theses.fr/1987ECDL0008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Sirois, Martin. "Développement d'un système d'information pour la paléolimnologie : la base de données des diatomées circumpolaires (Circumpolar Diatom Database - CDD)." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28268/28268.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Hanatani, Yoshito. "Trompette à six trous ou Analyse sémantique de corrélation dans les bases de données." Paris 11, 1987. http://www.theses.fr/1987PA112488.

Full text
Abstract:
Cette thèse propose, dans le cadre des bases de données relationnelles: (1) un modèle de propagation de mises à jour, appelé propagation à deux niveaux et (2) une théorie de la représentation des contraintes de dépendances. La propagation à deux niveaux a pour but les mises à jour auto-déductives avec une optimisation du coût de propagation en boucle tout en respectant strictement la sémantique de l'Univers. La théorie de la représentation est développée comme outil de la consultation de la sémantique pour la conception du schéma correspondant. Par une réduction radicale de la complexité d'expressions due à l'utilisation des objets simples appelés "bases" des contraintes, cette théorie permet de saisir la puissance déductive et les autres caractéristiques des contraintes, qui sont nécessaires pour la conception du schéma correspondant Partant d'une représentation uniforme des contraintes FD + MVD (dépendances fonctionnelles et multi-valuées), nous sommes amenés à comprendre que son extension aux contraintes FD + multi-JD (dépendances de jointure) est plus naturelle et plus significative. Le fondement de cette extension nous a conduit à une méthode de saisie directe de la contrainte utilisant la CDDO qui peut être considérée comme expression de dépendance d'une nouvelle catégorie
This thesis addresses the following two issues of relational database theory: (1) a two-level update propagation model and (2) a representation theory of dependency constraints. The two-level propagation model is proposed for the auto-deductive updates with the minimum loop cost and with the strict respect of the semantics of the Universe. The theory of representation of constraints is developed as a design tool. By virtue of its radical reduction of the expression complexity through the use of the simple abject called "bases" of constraints, this theory enables us to seize the deductive power and all other characteristics of the constraints, which are necessary for the conception of the database scheme. Starting from a uniform representation of the FD + MVD constraints, we see that its extension to the FD + multi-JD constraints is more natural and significant. The foundation of this extension leads us to the direct grasp of the constraint using a configuration CDDO, which can be seen as a dependency expression of new category
APA, Harvard, Vancouver, ISO, and other styles
29

Granier, Jacques. "Un système d'ingénierie assisté par ordinateur pour la conception des équipements d'irrigation : une application réalisée en langage SNARX." Montpellier 2, 1990. http://www.theses.fr/1990MON20156.

Full text
Abstract:
Les connaissances mises en uvre pour la realisation d'un projet d'irrigation font appel aux sciences de l'ingenieur dans differents domaines (agronomie, hydraulique, technologie du materiel, economie). La simulation d'un processus de conception au cours duquel interviennent plusieurs specialistes de differentes disciplines a exige la definition d'un langage a regles de production (snarx), la construction d'un moteur d'inferences, et l'assemblage des connaissances de facon a en permettre une utilisation intelligente et interactive
APA, Harvard, Vancouver, ISO, and other styles
30

Ndiaye, Djibril. "Apport des technologies orientées objet dans l'étude et la mise en place d'un référentiel de conception pour les systèmes automatisés de production." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-192.pdf.

Full text
Abstract:
La coordination d'activites de plus en plus heteroclites des entreprises afin de former un ensemble d'elements synergiques, passe par la maitrise de l'information echangee et partagee par leurs differents moyens (methodes, outils, modeles). Plusieurs travaux (cimosa, grai, pera, base-pta etc. ) Inities dans ce sens ont fourni des cadres de reference utilises comme mecanisme d'unification semantique ou de partage de connaissances. Ces travaux definissent une approche qui permet de reutiliser par specialisation, un modele de reference afin d'obtenir un modele de donnees particulier. C'est une demarche qui convient plutot a la mise en place d'un nouveau systeme car l'integration des moyens preexistants suivant cette approche se fait difficilement
Dans le cadre de la mise en place d'un systeme d'information (referentiel) pour les systemes automatises de production, nous ne prejugeons pas de ce que devrait etre le systeme, mais nous partons des moyens et activites preexistants que nous devons integrer. De ce fait nous proposons une demarche qui, partant de moyens preexistants (les modeles definis par les intervenants), determine les intersections entre les concepts de modelisation afin d'obtenir un modele commun. Pour obtenir la coherence globale de l'ensemble des donnees manipulees, nous proposons : une integration syntaxique des modeles a travers leurs concepts de modelisation, en identifiant et formalisant les intersections afin d'obtenir une interpretation commune des modeles, independamment du systeme etudie ; une integration forte par les donnees, garantissant ainsi l'integrite des donnees manipulees qui supportent la stabilite des systemes d'information. Nous mettons en uvre notre demarche a l'aide d'outils et de methodes du genie logiciel : (1) une approche orientee objet (langage uml) ; (2) par metamodelisation ; (3) qui favorise la reutilisation de concepts de modelisation (patterns, frameworks)
APA, Harvard, Vancouver, ISO, and other styles
31

Kerkad, Amira. "L'interaction au service de l'optimisation à grande échelle des entrepôts de données relationnels." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00954469.

Full text
Abstract:
La technologie de base de données est un environnement adéquat pour l'interaction. Elle peutconcerner plusieurs composantes du SGBD : (a) les données, (b) les requêtes, (c) les techniques d'optimisationet (d) les supports de stockage. Au niveau des données, les corrélations entre les attributs sont très communesdans les données du monde réel, et ont été exploitées pour définir les vues matérialisées et les index. Au niveaurequêtes, l'interaction a été massivement étudiée sous le problème d'optimisation multi-requêtes. Les entrepôtsde données avec leurs jointures en étoile augmentent le taux d'interaction. L'interaction des requêtes a étéemployée pour la sélection des techniques d'optimisation comme les index. L'interaction contribue égalementdans la sélection multiple des techniques d'optimisation comme les vues matérialisées, les index, lepartitionnement et le clustering. Dans les études existantes, l'interaction concerne une seule composante. Danscette thèse, nous considérons l'interaction multi-composante, avec trois techniques d'optimisation, où chacuneconcerne une composante : l'ordonnancement des requêtes (niveau requêtes), la fragmentation horizontale(niveau données) et la gestion du buffer (niveau support de stockage). L'ordonnancement des requêtes (OR)consiste à définir un ordre d'exécution optimal pour les requêtes pour permettre à quelques requêtes debénéficier des données pré-calculées. La fragmentation horizontale (FH) divise les instances de chaque relationen sous-ensembles disjoints. La gestion du buffer (GB) consiste à allouer et remplacer les données dans l'espacebuffer disponible pour réduire le coût de la charge. Habituellement, ces problèmes sont traités soit de façonisolée ou par paire comme la GB et l'OR. Cependant, ces problèmes sont similaires et complémentaires. Uneformalisation profonde pour le scénario hors-ligne et en-ligne des problèmes est fournie et un ensembled'algorithmes avancés inspirés du comportement naturel des abeilles sont proposés. Nos propositions sontvalidées en utilisant un simulateur et un SGBD réel (Oracle) avec le banc d'essai star schema benchmark àgrande échelle.
APA, Harvard, Vancouver, ISO, and other styles
32

Bouzeghoub, Mokrane. "Secsi : un système expert en conception de systèmes d'informations, modélisation conceptuelle de schémas de bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066046.

Full text
Abstract:
Les principaux objectifs du système sont d'une part la constitution d'une base de connaissances regroupant à la fois des acquis théoriques sur les modèles et une expérience pratique en conception de bases de données, et d'autre part la réalisation d'un système d'outils ouvert, capable aussi bien de données, et d'autre part la réalisation d'un système d'outils ouvert, capable aussi bien d'expliquer et de justifier ses choix et ses résultats que d'intégrer de nouveaux concepts et de nouvelles règles de conception. Outre l'architecture générale et les fonctionnalités du système, cette thèse décrit le modèle de représentation de connaissances base sur les réseaux sémantiques, les règles d'inférence et la méthodologie de conception adoptée.
APA, Harvard, Vancouver, ISO, and other styles
33

Verlaine, Lionel. "Optimisation des requêtes dans une machine bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066532.

Full text
Abstract:
CCette thèse propose des solutions optimisant l'évaluation de questions et la jointure. Ces propositions sont étudiées et mises en œuvre à partir du SGBD Sabrina issu du projet SABRE sur matériel Carrousel à la SAGEM. L'évaluation de questions permet d'optimiser le niveau logique du traitement d'une requête. La décomposition la plus pertinente est établie en fonction d'heuristiques simples. L'algorithme de jointure propose utilise des mécanismes minimisant à la fois le nombre d'entrées/sorties disque et le nombre de comparaisons. Il admet un temps d'exécution proportionnel au nombre de tuples. L'ordonnancement de jointures est résolu par un algorithme original de jointure multi-relations et par une méthode d'ordonnancement associée permettant un haut degré de parallélisme.
APA, Harvard, Vancouver, ISO, and other styles
34

Jomier, Geneviève. "Bases de données relationnelles : le système PEPIN et ses extensions." Paris 5, 1989. http://www.theses.fr/1989PA05S008.

Full text
Abstract:
Cette thèse concerne le SGBD relationnel PEPIN et un certain nombre de travaux auxquels il a donné lieu. Ce système a été conçu pour une implantation sur un ensemble de micro-ordinateurs interconnectés par un réseau local de manière à réaliser un système réparti composé de serveurs de base de données et de sites d'accès faiblement couplés. L'architecture en couches du logiciel gérant une base monofichier, a permis de réaliser un système très souple dans ses fonctions, aisément adaptable à différents domaines d'application par ajoût, suppression, modification ou adaptation de fonctions internes ou extérieures au système, très facilement portable sur différents systèmes d'exploitation et évolutifs. L'atomocité des transactions est assurée par un mécanisme original et particulièrement performant d'espace fantôme. Celui-ci permet la réalisation de validations en deux phases, d'abandons et de reprises de transactions en cas de panne ayant détruit le contenu de la mémoire centrale très rapide. À la suite de la description du système sont présentés des travaux faisant le lien entre base de données et logique, bases de données et analyse des données, base de données relationnelles et orientation-objet. Ces travaux ont donné lieu à des extensions du système de référence. Le système PEPIN a été utilisé par de nombreuses équipes de recherche, et aussi par des industriels, pour le développement de nouveaux prototypes dans des domaines très divers, en finance et à l'étranger, ainsi que pour l'enseignement des bases de données dans des universités et écoles d'ingénieurs.
APA, Harvard, Vancouver, ISO, and other styles
35

Grison, Thierry. "Intégration de schémas de bases de données entité-association." Dijon, 1994. http://www.theses.fr/1994DIJOS005.

Full text
Abstract:
L'essor des fédérations de bases de données a réactualisé les besoins en méthodes d'intégration de schémas. Nous proposons une nouvelle approche pour le traitement des correspondances inter-schémas, approche fondée sur les idées de partition et de règles de déduction. Par ailleurs pour faciliter la détection des correspondances nous avons pensé enrichir, par des définitions, les schémas à intégrer en donnant la possibilité aux utilisateurs de décrire la sémantique de leurs concepts. Nous développons enfin une nouvelle méthode d'intégration de schémas dont l'objectif est de tirer un profit maximum des informations présentes dans les schémas (dont les définitions de concepts) et de minimiser le nombre nécessaire de comparaisons de concepts
APA, Harvard, Vancouver, ISO, and other styles
36

Lafaye, Julien. "Tatouage des bases de données avec préservation de contraintes." Paris, CNAM, 2007. http://www.theses.fr/2007CNAM0576.

Full text
Abstract:
Dans cette thèse, nous traitons du tatouage de bases de données. Le tatouage est une technique de dissimulation d'une information dans un contenu numérique, de manière robuste et discrète. L'application la plus connue du tatouage et qui constitue également l'objet principal de cette thèse est la protection des titulaires des droits sur ces contenus. Cette thèse est articulée en trois parties relativement indépendantes. La première présente une nouvelle technique de tatouage de bases de données relationnelles. L'originalité de la méthode proposée est de permettre d'introduire une signature dans une base de données relationnelles, tout en respectant un certain nombre de contraintes, prédéfinies dans une syntaxe proche de SQL. Dans une deuxième partie, nous traitons les problématiques du tatouage des flux XML et des données géographiques vectorielles. Nous y proposons deux méthodes de tatouage avec préservation de contraintes. La première permet d'introduire une marque dans un flux XML tout en en respectant le type. La seconde se concentre quant à elle sur la préservation des régularités naturellement présentes dans les formes des objets géographiques. Dans la troisième partie, nous étudions la problématique originale de la complexité d'obtenir des algorithmes de tatouage optimaux relativement à la pertinence de la détection et à la robustesse des marques insérées. Nous montrons que cette complexité est très élevée et en identifions les facteurs responsables
This thesis deals with databases watermarking. Watermarking is an information hiding method which enables to embed marks within digital contents. The first application of digital watermarking is copyright protection, which is also the main focus of this thesis. It is divided into three independent parts. In the first one, we present a novel watermarking method for numerical databases which permits to embed digital watermarks in relational tables while preserving the results of queries, previously defined using a language similar to SQL. In a second part, we consider XML streams and geographical databases. We introduce two novel constraint-preserving watermarking algorithms for these data types. For XML streams, our contribution is a watermarking scheme which translates the original content into a watermarked one with the same type. For geographical databases, we propose an algorithm which embeds the watermark without altering the shapes of the geographical objects. In the third part, we investigate the computational complexity of obtaining optimal watermarking schemes. We show that this task is highly intractable and identify the features responsible for it
APA, Harvard, Vancouver, ISO, and other styles
37

Audet, Érick. "Réingénérie des bases de données relationnelles pour la découverte d'informations décisionnelles." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0015/MQ48902.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Lagrange, Jean-Philippe. "Ogre : un système expert pour la génération de requêtes relationnelles." Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090035.

Full text
Abstract:
Le but du travail présenté ici est d'affranchir le développeur de programmes d'application de la nécessité de construire ses requêtes en fonction du schéma logique de la base de données. La démarche retenue est de proposer un langage d'interrogation ne faisant référence qu'au schéma conceptuel, le système assurant la construction des requêtes au SGBD à partir de spécifications écrites dans ce langage. Par ailleurs, un des objectifs vises, par opposition aux travaux antérieurs, est d'imposer le moins de contraintes possible pour le schéma logique (relationnel) et pour le schéma conceptuel associe. Pour cela on propose: une mise en correspondance souple entre le schéma relationnel et un schéma conceptuel exprime en fonction d'un modèle d'une grande puissance d'expression; de faire assurer la génération des requetés par un système à base de connaissances, qui s'appuie sur des connaissances relatives à la base de données, une méta-base, et sur des connaissances déductives, des règles d'analyse et de génération des requêtes. On trouvera ici une analyse de l'état de l'art dans le domaine des interfaces de requêtes, une définition du modèle conceptuel er#+, et du langage de requête de ogre, et une description des trois principaux modules du système: constitution de la méta-base, analyse et reformulation des spécifications et enfin génération des requêtes
APA, Harvard, Vancouver, ISO, and other styles
39

Jumaa, Hossam Aldin. "Automatisation de la médiation entre XML et des bases de données relationnelles." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0120/these.pdf.

Full text
Abstract:
XML has rapidly emerged as a de facto standard for data exchange among modern information systems. It offers simple and flexible means to exchange data among applications. In the meanwhile, relational databases are still the most used data storage technology in almost all information systems because of their unique features of scalability, reliability and performance. Thus, a crucial issue in the data management is to bring together the flexibility of the XML model for data exchange and the performance of the relational model for data storage and retrieval. However, the automation of bi-directional data exchange between the two remains a challenging task. In this dissertation, we present a novel mediation approach to automate data exchange between XML and relational data sources independently of the adopted data structures in the two data models. We first propose a generic mediation framework for the data exchange between any XML document and any existing relational database. The architecture of our proposed framework is based on the development of generic components, which will ease the setup of specific interfaces adapted to any XML source and any target relational database. The mediator components are independent of any application domain, and need to be customized only once for each couple of source and target data storage formats. Hence, our mediator provides automatic and coherent updates of any relational database from any data embedded in XML documents. It also allows to retrieve data from any relational database and to publish them into XML documents (or messages) structured according to a requested interchange format. The transformation from a Relational Model to XML represents a main key component of the proposed mediator. Thus, we proposed a methodology and devised two algorithms to efficiently and automatically transform the relational schema of a relational database management system into an XML schema. Our transformation methodology preserves the integrity constraints of the relational schema and avoids any data redundancy. It has been designed in order to preserve the hierarchical representation of the relational schema, which is particularly important for the generation of correct SQL updates and queries in the proposed mediation framework. Another key component is the automation of the SQL generation. Therefore, we devised a generic methodology and algorithms to automate the SQL queries generation that are required to update or retrieve data to/from the relational databases. Our proposed framework has been successfully applied and tested in the healthcare domain between an XML representation of SCP-ECG, an open format ISO standard communications protocol embedding bio-signals and related metadata, and an European relational reference model including these data. The mediation automation is especially relevant in this field where electrocardiograms (ECG) are the main investigation for the detection of cardiovascular diseases, and need to be quickly and transparently exchanged between health systems, in particular emergency, whereas the SCP-ECG protocol has numerous legacy implementations since most of the sections and of the data fields are not mandatory
XML offre des moyens simples et flexibles pour l'échange de données entre applications et s'est rapidement imposé comme standard de fait pour l'échange de données entre les systèmes d'information. Par ailleurs, les bases de données relationnelles constituent aujourd’hui encore la technologie la plus utilisée pour stocker les données, du fait notamment de leur capacité de mise à l’échelle, de leur fiabilité et de leur performance. Combiner la souplesse du modèle XML pour l'échange de données et la performance du modèle relationnel pour l’archivage et la recherche de données constitue de ce fait une problématique majeure. Cependant, l'automatisation des échanges de données entre les deux reste une tâche difficile. Dans cette thèse, nous présentons une nouvelle approche de médiation dans le but d’automatiser l'échange de données entre des documents XML et des bases de données relationnelles de manière indépendante des schémas de représentation des données sources et cibles. Nous proposons tout d’abord un modèle d’architecture de médiation générique des échanges. Pour faciliter la configuration d’interfaces spécifiques, notre architecture est basée sur le développement de composants génériques, adaptés à n'importe quelle source XML et n'importe quelle base de données relationnelle cible. Ces composants sont indépendants de tout domaine d'application, et ne seront personnalisés qu’une seule fois pour chaque couple de formats de données sources et de stockage cible. Ainsi notre médiateur permettra la mise à jour automatique et cohérente de toute base de données relationnelle à partir de données XML. Il permettra aussi de récupérer automatiquement et efficacement les données d'une base de données relationnelle et de les publier dans des documents XML (ou messages) structurés selon le format d'échange demandé. La transformation en XML Schema d'un modèle relationnel constitue l’un des éléments clé de notre médiateur. Nous proposons une méthodologie basée sur deux algorithmes successifs : l’un de stratification des relations en différents niveaux en fonction des dépendances fonctionnelles existant entre les relations et les clés des relations, le deuxième de transformation automatique du modèle relationnel en XML Schema à partir de la définition d’un ensemble de fragments types d’encodage XML des relations, des attributs, des clés et des contraintes référentielles. La méthodologie proposée préserve les contraintes d'intégrité référentielles du schéma relationnel et élimine toute redondance des données. Elle a été conçue pour conserver la représentation hiérarchique des relations, ce qui est particulièrement important pour la génération de requêtes SQL correctes et la mise à jour cohérente des données. Notre approche a été appliquée et testée avec succès dans le domaine médical pour automatiser l’échange de données entre une représentation XML du protocole de communication standard SCP-ECG, une norme ISO décrivant un format ouvert de représentation de bio-signaux et métadonnées associées, et un modèle relationnel européen de référence qui inclut notamment l’archivage de ces données. L'automatisation de la médiation est particulièrement pertinente dans ce domaine où les électrocardiogrammes (ECG) constituent le principal moyen d’investigation pour la détection des maladies cardio-vasculaires et doivent être échangés rapidement et de manière transparente entre les différents systèmes de santé, en particulier en cas d'urgence, sachant que le protocole SCP-ECG a de nombreuses implémentations puisque la plupart des sections et des champs de données sont optionnels
APA, Harvard, Vancouver, ISO, and other styles
40

Nachouki, Jalal. "Une approche pour l'inter-opérabilité de bases de données relationnelles géographiquement dispersées." Toulouse 3, 1990. http://www.theses.fr/1990TOU30055.

Full text
Abstract:
Cette these presente une nouvelle approche, appelee multibase de donnees reparties (mbdr), qui permet l'inter-operabilite d'un ensemble de bases de donnees relationnelles geographiquement dispersees. La methode de conception proposee est une methode ascendante. Elle suppose que les bases de donnees inter-operables qui sont localisees sur un meme site constituent une multibase de donnees selon l'approche multibase de donnees introduite par litwin a l'inria. Les multibases de donnees sur les sites participant au reseau sont regroupees dans une structure mbdr. Cette structure donne a l'utilisateur l'impression qu'il manipule une multibase de donnees. Dans l'approche multibase de donnees reparties, un site est constitue par un ou plusieurs ordinateurs sur lesquels est implantee une multibase de donnees. L'interet de cette approche reside dans l'optimisation du traitement des requetes destinees a manipuler plusieurs bases de donnees implantees sur des sites distincts. En effet dans notre approche les bases de donnees inter-operables sur un site peuvent etre manipulees conjointement grace a un systeme de gestion de multibase de donnees
APA, Harvard, Vancouver, ISO, and other styles
41

Abiteboul, Serge. "Cocktail de dépendances." Paris 11, 1985. http://www.theses.fr/1985PA112262.

Full text
Abstract:
Présentation et comparaison des différentes méthodes de spécification de contraintes d'intégrité dans les bases de données. Insistance particulière sur les approches nouvelles. Cinq grandes approches de spécification de dépendances sont distinguées. La première, la plus classique, utilise la logique des prédicats du premier ordre. La seconde est algébrique, et consiste à exprimer une dépendance comme une inclusion entre deux requêtes. Dans la troisième approche, les états légaux de la base sont les états accessibles en utilisant des mises à jour permises. La quatrième (approche synthétique) est fondée sur le concept de famille dépendance. La dernière approche consiste à intégrer la sémantique à l'intérieur même du modèle de données.
APA, Harvard, Vancouver, ISO, and other styles
42

Bechchi, Mounir. "Réponses approchées de résultat de requêtes par classification dans des bases de données volumineuses et distribuées." Nantes, 2009. http://www.theses.fr/2009NANT2033.

Full text
Abstract:
Les utilisateurs des bases de données doivent faire face au problème de surcharge d’information lors de l’interrogation de leurs données, qui se traduit par un nombre de réponses trop élevé à des requêtes exploratoires. Pour remédier à ce problème, nous proposons un algorithme efficace et rapide, appelé ESRA (Explore-Select-Rearrange Algorithm), qui utilise les résumés SAINTETIQ pré-calculés sur l’ensemble des données pour regrouper les réponses à une requête utilisateur en un ensemble de classes (ou résumés) organisées hiérarchiquement. Chaque classe décrit un sous-ensemble de résultatsdont les propriétés sont voisines. L’utilisateur pourra ainsi explorer la hiérarchie pour localiser les données qui l’intéressent et en écarter les autres. Les résultats expérimentaux montrent que l’algorithme ESRA est efficace et fournit des classes bien formées (i. E. , leur nombre reste faible et elles sont bien séparées). Cependant, le modèle SAINTETIQ, utilisé par l’algorithme ESRA, exige que les données soient disponibles sur le serveur des résumés. Cette hypothèse rend inapplicable l’algorithme ESRA dans des environnements distribués où il est souvent impossible ou peu souhaitable de rassembler toutes les données sur un même site. Pour remédier à ce problème, nous proposons une collection d’algorithmes qui combinent deux résumés générés localement et de manière autonome sur deux sites distincts pour en produire un seul résumant l’ensemble des données distribuées, sans accéder aux données d’origine. Les résultats expérimentaux montrent que ces algorithmes sont aussi performants que l’approche centralisée (i. E. , SAINTETIQ appliqué aux données après regroupement sur un même site) et produisent des hiérarchies très semblables en structure et en qualité à celles produites par l’approche centralisée
Database systems are increasingly used for interactive and exploratory data retrieval. In such retrievals, users queries often result in too many answers, so users waste significant time and efforts sifting and sorting through these answers to find the relevant ones. In this thesis, we first propose an efficient and effective algorithm coined Explore-Select-Rearrange Algorithm (ESRA), based on the SAINTETIQ model, to quickly provide users with hierarchical clustering schemas of their query results. SAINTETIQ is a domain knowledge-based approach that provides multi-resolution summaries of structured data stored into a database. Each node (or summary) of the hierarchy provided by ESRA describes a subset of the result set in a user-friendly form based on domain knowledge. The user then navigates through this hierarchy structure in a top-down fashion, exploring the summaries of interest while ignoring the rest. Experimental results show that the ESRA algorithm is efficient and provides well-formed (tight and clearly separated) and well-organized clusters of query results. The ESRA algorithm assumes that the summary hierarchy of the queried data is already built using SAINTETIQ and available as input. However, SAINTETIQ requires full access to the data which is going to be summarized. This requirement severely limits the applicability of the ESRA algorithm in a distributed environment, where data is distributed across many sites and transmitting the data to a central site is not feasible or even desirable. The second contribution of this thesis is therefore a solution for summarizing distributed data without a prior “unification” of the data sources. We assume that the sources maintain their own summary hierarchies (local models), and we propose new algorithms for merging them into a single final one (global model). An experimental study shows that our merging algorithms result in high quality clustering schemas of the entire distributed data and are very efficient in terms of computational time
APA, Harvard, Vancouver, ISO, and other styles
43

Dib, Saker. "L'interrogation des bases de données relationnelles assistée par le graphe sémantique normalisé." Lyon 1, 1993. http://www.theses.fr/1993LYO10122.

Full text
Abstract:
Dans ce travail nous proposons une interface d'interrogation graphique des bases de donnees: ruitalk. Le schema de la base est modelise par un graphe semantique normalise. Ce graphe est le schema de donnees dans le modele relation universelle avec inclusions (rui). Il herite de la rigueur du modele relationnel de donnees et est plus riche semantiquement qu'un diagramme entite-association. Il visualise un certain nombre de rapprochements naturels entre tables d'une base de donnees: multiarcs de dependance d'inclusion (di) et arcs d'attributs communs univoques. Nous completons ce graphe en explicitant tous les rapprochements possibles entre relations du graphe semantique: aretes d'attributs communs, eclatements de di entre les relations normalisees. Nous montrons aussi que des attributs compatibles sont a la source de liens semantiques entre relations supplementaires. Ruitalk reste convival et ergonomique bien que le nombre de liens de jointures possibles entre relations peut etre grand. En effet, il ne genere pas simultanement tous ces liens, mais il affiche un graphe d'interrogation evolutif, accompagnant l'avancement de l'utilisateur dans le processus d'expression d'une question. Ce graphe visualise, en plus du graphe semantique normalise binaire, pour le sommet designe par l'utilisateur, ses liens avec chaque autre sommet. L'utilisateur est assiste au maximum dans la formulation de ses requetes par ruitalk. Il a a tout moment devant les yeux le schema des donnees. Pour definir le graphe de sa requete, il n'a qu'a designer les colonnes a projeter et les liens du graphe d'interrogation evolutif representant une jointure. Il peut aussi facilement specifier des predicats de selection et des sous-requetes. Il est constamment guide par le support graphique de ruitalk
APA, Harvard, Vancouver, ISO, and other styles
44

Correa, Beltran William. "Découverte et exploitation de proportions analogiques dans les bases de données relationnelles." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S110/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux proportions analogiques dans le contexte des bases de données relationnelles. Les proportions analogiques permettent de lier quatre éléments dans une relation du type ''A est à B ce que C est à D''. Par exemple, « Paris est à la France ce que Rome est à l'Italie ». Nous avons étudié le problème de la prédiction de valeurs manquantes dans une base de données en utilisant les proportions analogiques. Un algorithme de classification fondé sur les proportions analogiques a été modifié afin de résoudre ce problème. Puis, nous avons étudié les propriétés des éléments appartenant à l'ensemble d'apprentissage des classificateurs analogiques fréquemment exploités pour calculer la prédiction. Ceci nous a permis de réduire considérablement la taille de cet ensemble par élimination des éléments peu pertinents et par conséquent, de diminuer les temps d'exécution de ces classificateurs. La deuxième partie de la thèse a pour objectif de découvrir de nouveaux patrons basés sur la relation d'analogie, i.e., des parallèles, dans les bases de données. Nous avons montré qu'il est possible d'extraire ces patrons en s'appuyant sur des approches de clustering. Les clusters produits par de telles techniques présentent aussi un intérêt pour l'évaluation de requêtes recherchant des patrons d'analogie dans les bases de données. Dans cette perspective, nous avons proposé d'étendre le langage de requêtes SQL pour pouvoir trouver des quadruplets d'une base de données satisfaisant une proportion analogique. Nous avons proposé différentes stratégies d'évaluation pour de telles requêtes, et avons comparé expérimentalementleurs performances
In this thesis, we are interested in the notion of analogical proportions in a relational database context. An analogical proportion is a statement of the form “A is to B as C is to D”, expressing that the relation beween A and B is the same as the relation between C and D. For instance, one may say that “Paris is to France as Rome is to Italy”. We studied the problem of imputing missing values in a relational database by means of analogical proportions. A classification algorithm based on analogical proportions has been modified in order to impute missing values. Then, we studied how analogical classifiers work in order to see if their processing could be simplified. We showed how some typeof analogical proportions is more useful than the others when performing classification. We then proposed an algorithm using this information, which allowed us to considerably reduce the size of the training set used by the analogical classificationalgorithm, and hence to reduce its execution time. In the second part of this thesis, we payed a particular attention to the mining of combinations of four tuples bound by an analogical relationship. For doing so, we used several clustering algorithms, and we proposed some modifications to them, in order tomake each obtained cluster represent a set of analogical proportions. Using the results of the clustering algorithms, we studied how to efficiently retrieve the analogical proportions in a database by means of queries. For doing so, we proposed to extend the SQL query language in order to retrieve from a database the quadruples of tuples satisfying an analogical proportion. We proposed severalquery evaluation strategies and experimentally compared their performances
APA, Harvard, Vancouver, ISO, and other styles
45

Exbrayat, Matthieu. "Evaluation parallèle de requêtes relationnelles sur le réseau de stations : le système ENKIDU." Lyon, INSA, 1999. http://theses.insa-lyon.fr/publication/1999ISAL0003/these.pdf.

Full text
Abstract:
Les Systèmes de Gestion de Bases de Données (SGBD) parallèles constituent la réponse classique aux besoins de hautes performances des utilisateurs de bases de données relationnelles. De tels systèmes sont d'une grande complexité et leur coût, ainsi que celui des machines utilisées, s'en trouvent particulièrement élevés. Or de nombreuses classes d'applications, telle l'interrogation de documents en ligne, caractérisées par une forte utilisation en "lecture seule", n'exploitent qu'une faible part des possibilités de tels SGBD (les gestions de cohérence et de transactions y étant très peu sollicitées). Aussi proposons-nous une approche alternative dans le cadre de telles bases de données. Cette approche s'appuie sur le développement d'une extension parallèle, appelée évaluateur parallèle de requêtes relationnelles, et fonctionnant sur un réseau de stations de travail. L'évaluateur de requêtes se connecte à un SGBD et en extrait les données souhaitées afin de les exploiter de façon parallèle sur un réseau de stations. Cet évaluateur offre ainsi des fonctionnalités de stockage et d'interrogation de données similaires à celles d'un SGBD parallèle. Ce mémoire introduit une architecture d'évaluateur parallèle, et se penche sur la gestion des données et des requêtes dans ce cadre. Nos propositions sont étayées par la présentation du prototype d'évaluateur parallèle ENKIDU développé durant notre thèse, et de mesures effectuées sur ce prototype. Nous proposons enfin de généraliser la notion d'extension parallèle comme applicable à d'autres domaines de l'informatique
The need for high performances management of relational data bases is nowadays mostly satisfied by using Parallel Data Bases Management Systems (P-DBMS). Unfortunately, the huge complexity of such systems leads to prohibitive prices. Numerous applications, such as on-line document querying, only exploit a restricted subset of the abilities offered by a parallel DBMS ( owing to the fact that coherency and transaction management are not much used). Considering this fact we propose an innovative approach to handle such « read-most » data bases. This approach is based on a parallel extension, called parallel relational queries evaluator, working over a network of workstations. This query evaluator connects itself to a DBMS, from which it extracts data in order to exploit it in a parallel way on the network of workstations. The storing and querying functions offered by this evaluator are by this way similar to the ones of a parallel DBMS. In this document we propose an architecture of the parallel relational queries evaluator, handling both data and queries management. We then introduce the ENKIDU prototype, which has been developed in order to implement our concepts. We also expose a set of tests and measurements, conducted over ENKJDU and highlighting [ts viability and efficiency. Finally, we propose to generalise the parallel extension concept, which appears to be portable to several other fields of computer science
APA, Harvard, Vancouver, ISO, and other styles
46

Kabbaj, Younnes el. "MATHUS, un éditeur de relations : contribution à la manipulation des bases de données relationnelles." Paris 11, 1986. http://www.theses.fr/1986PA112279.

Full text
Abstract:
MATHUS est un éditeur, multi-fenêtres et plein écran, de relations. Il sert d'interface utilisateur pour !e SGBD PEPIN. Il y est proposé une façon originale d'interroger une base de données. L'interrogation repose sur le parcours des données et leur marquage pour repérer les données recherchées. Nous présentons dans cette thèse les fonctionnalités de MATHUS et son implémentation. Nous présentons aussi la troisième version du SGBD PEPIN. Nous l'avons développé pour pouvoir lmplémenter MATHUS
Mathus is a full-screen relational editor. It is used as a user interface of the PEPIN data base management system. It offers a new way to query a data base. The user browses through relations and marks the data he is interested in. In this thesis the functionalities and the implementation of MATHUS are presented. The PEPIN's third version developed to make possible the imp!ementation of MATHUS, is also described
APA, Harvard, Vancouver, ISO, and other styles
47

Caron, Pierre-Yves. "Étude du potentiel de OLAP pour supporter l'analyse spatio-temporelle." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/mq33593.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Abouaddaoui, Zouhir. "Contributions à la définition d'un nouveau langage d'exploitation des bases de données relationnelles." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/5750.

Full text
Abstract:
Le but du projet DOMINUS est de définir un modèle de SGBD adapté au développement de services de dépôt de données autonomes capables de maintenir un haut standard d'intégrité et de fiabilité dans un contexte applicatif contemporain.Le présent mémoire, réalisé dans le cadre du projet DOMINUS, vise à contribuer à la définition d'un premier langage conforme à ce modèle, Discipulus, et à mettre en oeuvre un premier traducteur expérimental de ce langage. Le modèle DOMINUS demeure basé sur le modèle relationnel de E. F. Codd tout d'abord parce qu'il est simple, facile à appréhender, et repose sur de solides bases théoriques qui permettent notamment de définir de façon formelle les langages de manipulation associés et, en second lieu, parce qu'il est éprouvé, comme le démontrent plus de trente années de prédominance ininterrompue. L'évolution de la gestion d'information a vu apparaître de nouvelles applications (systèmes de gestion intégrée, traitement d'images, vidéo...) nécessitant l'utilisation de bases de données complexes de plus en plus importantes. Ces nouvelles applications ont mis en évidence les insuffisances majeures des systèmes relationnels existants fondés sur le langage SQL: (1) L'inadéquation du modèle relationnel à représenter directement des données complexes, comme des dossiers médicaux structurés, des images radiographiques ou des textes annotés. (2) Les performances insuffisantes dans la manipulation de ces mêmes données. Ces lacunes ont conduit certains à vouloir remplacer le modèle relationnel par le modèle orienté objet. En effet, la notion d'objet (plus exactement de classe) permet de modéliser des éléments complexes et composites du monde réel. En 1990 sont apparus les premiers systèmes de gestion de bases de données à objets, mais, vu les performances et la maturité des systèmes de bases de données relationnelles, les systèmes à objets n'ont pas pris une place significative au sein des organisations. La voie explorée ici est plutôt celle de l'intégration du modèle objet au modèle relationnel, ce dernier demeurant prééminent. L'adoption des deux structures (la relation et la classe) semble donc nécessaire afin de répondre aux besoins et aux exigences des applications complexes tout en gardant la simplicité et la cohésion conceptuelle nécessaire à la vérification et à la validation. Le modèle DOMINUS est donc inspiré des travaux fondamentaux de E. F. Codd et de ses continuateurs, dont C. J. Date et H. Darwen [S1] ainsi que des modèles algorithmiques et de typage de B. Meyer[L13] . Au final, le langage Discipulus retient plusieurs acquis du langage SQL, s'inspire également de langage Tutorial D et emprunte la structure générale et plusieurs mécanismes syntaxiques du langage Eiffel[L13] . Notre proposition comporte également de nombreuses différences sensibles tant sur le fond que sur la forme[L1,L7] . Ces apports sont présentés au fil du mémoire. Le langage Discipulus a été conçu dans le but de permettre l'expression rigoureuse de modèles complexes (intégration complète des classes, des tuples et des relations dans un seul système de typage homogène et cohérent) tout en favorisant la réutilisation (l'utilisation d'un système de paquetage destiné à développer des modules cohérents tout en permettant leur réutilisation simple pour le développement d'autres systèmes), l'évolutivité (l'adoption de l'héritage multiple permet d'éviter la redondance de code et facilite l'extensibilité du logiciel et, par conséquent, l'évolutivité sans compromettre son intégrité et sa fiabilité) et la fiabilité (incorporation des principes de programmation par contrat et leur extension aux opérateurs relationnels, traitement cohérent de l'annulabilité).
APA, Harvard, Vancouver, ISO, and other styles
49

Kerhervé, Brigitte. "Vues relationnelles : implantation dans les systèmes de gestion de bases de données centralisés et répartis." Paris 6, 1986. http://www.theses.fr/1986PA066090.

Full text
Abstract:
Nous décrivons les choix qui ont été faits dans le prototype SABRE. Nous analysons par la suite l'implantation de vues concrètes qui correspondent à la matérialisation des vues relationnelles. Nous montrons que ces vues concrètes permettent de définir un nouveau type de SGBD réparti où la définition et le stockage des données sont faits en fonction des interrogations sur les sites distants, de manière à maximiser les interrogations locales. Nous décrivons et analysons les mécanismes nécessaires à l'implantation d'un tel type de SGBD réparti par vues concrètes, notamment du point de vue des mises à jour.
APA, Harvard, Vancouver, ISO, and other styles
50

De, Marchi Fabien. "Découverte et visualisation par l'exemple des dépendances fonctionnelles et d'inclusion dans les bases de données relationnelles." Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF21461.

Full text
Abstract:
Les bases de données relationnelles sont couramment utilisées, en pratique, pour assurer la gestion des données. La notion de contrainte d'intégrité est un atout fondamental du modèle relationnel ; les contraintes les plus importantes sont les dépendances fonctionnelles (DF) et les dépendances d'inclusion (DI). De nombreux travaux exploitent ces dépendances pour améliorer les performances des opérations sur les données ; mais en général leur connaissance n'est pas disponible. Ce mémoire aborde tout d'abord la découverte exhaustive des DI satisfaites (ou approximativement satisfaites) dans une base de données relationnelle. Une méthode originale est donnée pour la découverte des DI unaires, qui améliore significativement les performances des algorithmes existants. Nous proposons ensuite un nouvel algorithme dédié à la découverte des DI n-aires. Son principal atout est d'être adaptatif en fonction des données rencontrées, en effectuant d'éventuels sauts optimistes pour atteindre des DI satisfaites de grande taille, et exploitant une mesure d'erreur pour orienter la suite du parcours. Toutes les propositions ont été implantées et testées sur une base réelle issue du web ainsi que sur des bases synthétiques. Une fois que les DF et les DI satisfaites dans une base de données sont découvertes, se pose alors le problème de la présentation des résultats à l'utilisateur. En alternative à une simple liste de règles, nous proposons de construire des bases de données d'Armstrong informatives (BDAI). Il s'agit de petits échantillons de la base initiale, satisfaisant exactement les mêmes DF et DI. Une telle représentation est une aide, pour un expert du domaine, à la visualisation des contraintes satisfaites. Les travaux présentés sont intégrés dans un outil, "DBA Companion", dédié à l'analyse et au réglage des bases de données relationnelles
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography