To see the other types of publications on this topic, follow the link: Géographie – Bases de données – Informatique.

Dissertations / Theses on the topic 'Géographie – Bases de données – Informatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Géographie – Bases de données – Informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kadri-Dahmani, Hakima. "Mise à jour incrémentale des bases de données géographiques et maintien de leur cohérence." Paris 13, 2005. http://www.theses.fr/2005PA132046.

Full text
Abstract:
Le travail présenté dans cette thèse concerne la problématique de l'évolution des bases de données géographiques (BDG). Nous donnons une solution pour le problème de maintien de la cohérence d'une BDG lors de sa mise à jour (m. à. J. ). Cette solution repose sur l'approche préventive à base de contraintes d'intégrités et l'approche de m. à. J incrémentale avec contrôle continu de la cohérence. Notre approche est composée de deux phases. La première a consisté à modéliser la BDG construite ou complétée, dans une optique de m. à. J. La seconde phase a consisté à s'appuyer sur cette modélisation pour mettre en place le mécanisme d'évolution composé d'algorithmes déterminant le déroulement du processus de m. à. J et aussi celui du maintien de la cohérence. Nous avons construit nos méthodes de propagation en travaillant sur des zones locales autour de l'objet ciblé par l'opération de m. à. J, puis nous avons établi une propriété qui prouve la cohérence globale d'une BDG à partir d'un traitement local de sa cohérence.
APA, Harvard, Vancouver, ISO, and other styles
2

Saint-Joan, Denis. "Données géographiques et raisonnement : le système GEODES." Toulouse 3, 1995. http://www.theses.fr/1995TOU30179.

Full text
Abstract:
Les utilisateurs de systemes d'information geographique (sig) sont de plus en plus demandeurs de systemes d'analyses et/ou d'aide a la decision spatiale pour la resolution de problemes complexes qui ne s'apparentent pas a une simple superposition de cartes. Nous avons donc concu et realise le systeme geodes (geographic decision expert system) qui permet a un utilisateur d'exprimer de maniere aisee les connaissances symboliques specifiant un probleme a travers une interface graphique tout en tenant compte, d'une part, du caractere spatial des donnees et des connaissances, et d'autre part, du caractere flou de cette connaissance. Le systeme utilise cette specification du probleme et les donnees geographiques pour fournir une carte de solutions du probleme pose montrant les zones favorables au probleme et celles qui le sont moins. Il peut etre utilise dans des domaines tels que la geographie, l'ecologie, l'agriculture, la gestion des ressources naturelles, l'industrie c'est un systeme expert flou utilisant plusieurs types de donnees (rasteur ou vecteur) et manipulant deux types de regles: des regles non spatiales basees sur l'union et l'intersection des connaissances et des donnees, et des regles spatiales basees sur les caracteristiques (surface, orientation,) et les relations spatiales (a droite, proche, inclus,) des donnees. Le moteur d'inferences utilise une strategie en chainage avant et en largeur d'abord avec une resolution geometrique des inferences floues a partir de la representation trapezoidale des sous-ensembles flous pour accelerer les temps de calculs et en evaluant par paquet les regles traitant des memes connaissances
APA, Harvard, Vancouver, ISO, and other styles
3

Ledreux, Christophe. "Bases de données géographiques réactives : le prototype SAPRISTI II (Système d'Aide à la PRédiction Intelligente des Sols par Traitements Informatiques)." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11028.

Full text
Abstract:
Cette these aborde le probleme de la representation des connaissances spatiales et plus particulierement les apports de la modelisation orientee objet au travers des bases de donnees reactives. Ces recherches ont ete realisees avec un objetif: construire un outil de prediction cartographique qui permette de reduire les couts de cartographie et qui fournisse a l'utilisateur une evaluation de la confiance que l'on peut accorder aux predictions realisees. Une analyse bibliographique presente les differents types de modelisation de l'information geographique. Un cahier des charges est ensuite elabore puis une modelisation est propose afin de satisfaire au mieux les contraintes induites par la demarche de cartographie predictive que nous avons adoptee. Cette demarche, issue de la science du sol, peut etre generalisee a d'autres thematiques. Le prototype sapristi ii qui met en uvre cette demarche est ensuite presente. Il s'agit d'un logiciel, developpe sur le sig uriah, qui permet de construire des cartes a partir d'un jeu restreint d'informations localisees et de mecanismes de raisonnement. Il permet de reduire de facon significative le nombre et donc le cout des prospections terrain necessaires a la realisation de cartes de qualite comparable a celles produites de facon classique. Le systeme construit en temps reel la carte et la revise chaque fois qu'une nouvelle prospection est effectuee. Pour cela, il met en uvre des mecanismes de classification, d'extrapolation spatiale des observations terrain et de revision des connaissances afin de proposer des predictions. Associee a la carte des predictions, le systeme propose une carte des erreurs de prediction. Le systeme est completement reactif et fonctionne grace a la modelisation des comportements des objets spatiaux. Une evaluation s'appuyant sur des cartes tests clos ce travail. Les resultats obtenus montrent que la modelisation des comportements spatiaux permet de construire de representer et de simuler le fonctionnement humain en cartographie
APA, Harvard, Vancouver, ISO, and other styles
4

Noël, de Tilly Antoine. "Le raisonnement à base de logique propositionnelle à l'appui de la fusion et de la révision de bases de données géospatiales." Master's thesis, Université Laval, 2007. http://hdl.handle.net/20.500.11794/19730.

Full text
Abstract:
Le but de ce mémoire était d’effectuer, dans un contexte géospatial, une comparai- son d’une approche de raisonnement qualitatif basée sur le PROLOG avec une autre approche reposant sur l’ASP. La principale question que nous posons est la suivante : Le moteur de raisonnement Smodels rendant possible la mise en oeuvre du raisonnement non monotone poussé et faisant intervenir le concept de modèle stable peut-il nous permettre de résoudre des problèmes de vérification de cohérence ontologique et des problèmes de révision dans le contexte de la géomatique ? Pour y répondre, nous avons procédé à une série de tests sur un échantillon de la Base nationale de données topographiques (BNDT). À la lumière des résultats obtenus, cette approche se montre très efficace et contribue à l’amélioration de la cohérence de l’information géospatiale et du raisonnement spatial réalisé à partir de cette dernière.<br>The objective of this thesis is to make a comparison between a qualitative reasoning approach based on PROLOG with another approach based on ASP. Our principal research question was the following : Can the Smodels reasoning engine, allowing for advanced non monotonic reasoning and introducing the stable model concept, allow us to solve ontological consistency checking problems as well as revision problems in a geomatic context ? To answer this question, we carried out a series of tests on a cross-section from the National Topographical Database (NTDB). In the light of the results obtained, this approach has proven very effective and contributes to the amelioration of geospatial information consistency and to the resultant improvement in spatial reasoning.
APA, Harvard, Vancouver, ISO, and other styles
5

Zoghlami, Asma. "Modélisation et conception de systèmes d’information géographique gérant l’imprécision." Paris 8, 2013. http://octaviana.fr/document/170325245#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
La problématique de notre travail porte sur la gestion de connaissances spatiotemporelles imprécises dans la construction des systèmes d’information géographique. Nous nous attachons plus particulièrement à leur conceptualisation, représentation et structuration à l’aide de la théorie des ensembles flous. La conception de systèmes d’information étant usuellement faite à l’aide de l’Unified Modeling Langage (UML), nous avons privilégié les approches le complétant. Comme le PERCEPTORY, avec ses PictograF, étend l’UML pour la modélisation des SIG, et comme Fuzzy UML enrichit l’UML pour la gestion de l’imprécision, nous avons proposé une approche intitulée F-PERCEPTORY exploitant leurs avantages respectifs. La deuxième partie de notre travail a porté sur l’implémentation (structuration, contraintes, règles) de SIG modélisés à l’aide de notre approche. Pour cela, nous avons opté pour une représentation des données par des ensembles flous connexes et normalisés stockés via des α-coupes. Enfin, la dernière partie de notre travail a eu pour objectif de proposer une méthodologie pour l’étude de la trajectoire d’une ville du passé au futur basée sur les informations stockées, la modélisation descriptive et logique des dynamiques spatiales tenant compte des aspects imprécis et sur des processus d’extraction de règles. Les précédentes contributions ont été introduites dans l’objectif de la gestion des données archéologiques rémoises d’une part, et l’étude des dynamiques spatiales de la ville de Saint-Denis d’autre part<br>Our work focuses on the management of imprecise spatiotemporal knowledge in the construction of geographic information systems. We more particularly deal with their conceptualization, representation and structure using the fuzzy set theory. As the information system design is usually done using the Unified Modeling Language (UML), we favored approaches extending it. Therefore, since PERCEPTORY, with its PictograF language, extends the UML for modeling GIS, and Fuzzy UML enriches UML for the management of imprecision, we proposed an approach called F-PERCEPTORY exploiting their respective advantages. The second part of our work is focused on the implementation (structure, constraints, rules) of GIS modeled using our approach. For this, we chose a data representation by connex, normalized fuzzy sets stored via α-cuts. Finally, the last part of our work aimed to propose a methodology for the study of urban trajectories from the past to the future based on the stored information, descriptive and logical modeling of spatial dynamics taking account of imprecise, and on rule mining processes. Previous contributions have been introduced with the aim of managing Reims archaeological data and the study of the spatial dynamics of the city of Saint-Denis
APA, Harvard, Vancouver, ISO, and other styles
6

Lacroix, Zoé. "Bases de données : des relations implicites aux relations contraintes." Paris 11, 1996. http://www.theses.fr/1996PA112264.

Full text
Abstract:
Le modele relationnel presente des limites dues, d'une part, au pouvoir d'expression du calcul relationnel, et, d'autre part, a la representation des donnees. Nous proposons des generalisations du modele relationnel dans ces deux directions. Nous definissons de nouveaux langages de requetes (logiques implicites, etc. ) permettant, notamment, de definir des requetes non-deterministes. Nous analysons la complexite de ces requetes et etudions les differents niveaux de non-determinisme, tant pour les definitions que pour les calculs. En particulier, nous montrons que les requetes deterministes definies avec un constructeur de choix de relation coincident avec les requetes implicites. Nous proposons aussi differentes techniques pour definir des requetes deterministes a partir d'outils non-deterministes. Le modele relationnel est adapte a l'information thematique (nom, annee, etc. ), mais ne convient pas a l'information spatiale. Les systemes d'information geographiques usuels sont bases sur le modele relationnel etendu a des primitives ad-hoc pour traiter l'information spatiale. Les relations du modele base sur les contraintes lineaires sont des ensembles de n-uplets generalises de la forme 2x + 3y 1 y 5, representant des ensembles de polygones. Nous montrons que ce modele permet de representer l'information thematique et l'information spatiale dans un cadre homogene. Nous introduisons des langages de requetes, tels que l'algebre relationnelle dont la semantique est adaptee aux ensembles de n-uplets generalises et proposons differentes techniques d'optimisation
APA, Harvard, Vancouver, ISO, and other styles
7

Sboui, Tarek. "A Conceptual Framework and a risk Management Approach for Interoperability Between Geospatial Datacubes." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27374/27374.pdf.

Full text
Abstract:
De nos jours, nous observons un intérêt grandissant pour les bases de données géospatiales multidimensionnelles. Ces bases de données sont développées pour faciliter la prise de décisions stratégiques des organisations, et plus spécifiquement lorsqu’il s’agit de données de différentes époques et de différents niveaux de granularité. Cependant, les utilisateurs peuvent avoir besoin d’utiliser plusieurs bases de données géospatiales multidimensionnelles. Ces bases de données peuvent être sémantiquement hétérogènes et caractérisées par différent degrés de pertinence par rapport au contexte d’utilisation. Résoudre les problèmes sémantiques liés à l’hétérogénéité et à la différence de pertinence d’une manière transparente aux utilisateurs a été l’objectif principal de l’interopérabilité au cours des quinze dernières années. Dans ce contexte, différentes solutions ont été proposées pour traiter l’interopérabilité. Cependant, ces solutions ont adopté une approche non systématique. De plus, aucune solution pour résoudre des problèmes sémantiques spécifiques liés à l’interopérabilité entre les bases de données géospatiales multidimensionnelles n’a été trouvée. Dans cette thèse, nous supposons qu’il est possible de définir une approche qui traite ces problèmes sémantiques pour assurer l’interopérabilité entre les bases de données géospatiales multidimensionnelles. Ainsi, nous définissons tout d’abord l’interopérabilité entre ces bases de données. Ensuite, nous définissons et classifions les problèmes d’hétérogénéité sémantique qui peuvent se produire au cours d’une telle interopérabilité de différentes bases de données géospatiales multidimensionnelles. Afin de résoudre ces problèmes d’hétérogénéité sémantique, nous proposons un cadre conceptuel qui se base sur la communication humaine. Dans ce cadre, une communication s’établit entre deux agents système représentant les bases de données géospatiales multidimensionnelles impliquées dans un processus d’interopérabilité. Cette communication vise à échanger de l’information sur le contenu de ces bases. Ensuite, dans l’intention d’aider les agents à prendre des décisions appropriées au cours du processus d’interopérabilité, nous évaluons un ensemble d’indicateurs de la qualité externe (fitness-for-use) des schémas et du contexte de production (ex., les métadonnées). Finalement, nous mettons en œuvre l’approche afin de montrer sa faisabilité.<br>Today, we observe wide use of geospatial databases that are implemented in many forms (e.g., transactional centralized systems, distributed databases, multidimensional datacubes). Among those possibilities, the multidimensional datacube is more appropriate to support interactive analysis and to guide the organization’s strategic decisions, especially when different epochs and levels of information granularity are involved. However, one may need to use several geospatial multidimensional datacubes which may be semantically heterogeneous and having different degrees of appropriateness to the context of use. Overcoming the semantic problems related to the semantic heterogeneity and to the difference in the appropriateness to the context of use in a manner that is transparent to users has been the principal aim of interoperability for the last fifteen years. However, in spite of successful initiatives, today's solutions have evolved in a non systematic way. Moreover, no solution has been found to address specific semantic problems related to interoperability between geospatial datacubes. In this thesis, we suppose that it is possible to define an approach that addresses these semantic problems to support interoperability between geospatial datacubes. For that, we first describe interoperability between geospatial datacubes. Then, we define and categorize the semantic heterogeneity problems that may occur during the interoperability process of different geospatial datacubes. In order to resolve semantic heterogeneity between geospatial datacubes, we propose a conceptual framework that is essentially based on human communication. In this framework, software agents representing geospatial datacubes involved in the interoperability process communicate together. Such communication aims at exchanging information about the content of geospatial datacubes. Then, in order to help agents to make appropriate decisions during the interoperability process, we evaluate a set of indicators of the external quality (fitness-for-use) of geospatial datacube schemas and of production context (e.g., metadata). Finally, we implement the proposed approach to show its feasibility.
APA, Harvard, Vancouver, ISO, and other styles
8

Duboisset, Magali. "Un système de contraintes d'intégrité OCL pour les bases de données spatiales." Phd thesis, Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21797.

Full text
Abstract:
Il est important d'assurer la qualité des données dans les applications géomatiques. Aussi, dès leur conception, un langage de contraintes peut être associé aux langages de modélisation classiques afin de spécifier formellement les contraintes alphanumériques et spatiales que le langage devra respecter. Le but de cette thèse était donc de proposer un langage de contraintes pour spécifier les conditions qu'un système agricole doit respecter pour être cohérent. Pour cela, nous avons étendu au niveau spatiale OCL, le langage de contrainte associé à UML. Par l'intégration de types spatiaux et de modèles de spécifications de relations topologiques, les extensions proposées permettent de décrire des contraintes spatiales à partir d'un modèle de classe UML étendu au spatial. L'expressivité de chaque proposition d'extension d'OCL a été étudiée. Ces langages ont été implémentés à travers l'extension d'un générateur de code, OCL2SQL et expérimenté au Cemagref dans le cadre SIGEMO
APA, Harvard, Vancouver, ISO, and other styles
9

Gesbert, Nils. "Étude de la formalisation des spécifications de bases de données géographiques en vue de leur intégration." Université de Marne-la-Vallée, 2005. http://www.theses.fr/2005MARN0261.

Full text
Abstract:
Objectif : faciliter l’utilisation conjointe de plusieurs bases de données géographiques, et en particulier leur intégration dans un système de bases de données fédérées, grâce à une description homogène entre les différentes bases et autant que possible formelle de la sémantique précise des données, c’est-à-dire des spécifications de contenu. Méthode : Les spécifications papier ont le défaut d’être structurées conformément aux schémas des bases de données, qui sont hétérogènes et influencés par des choix d’implémentation. Pour s’affranchir de ce problème, on fait l’hypothèse qu’on peut trouver dans les spécifications un certain nombre de termes consensuels correspondant à des concepts géographiques partagés. Ces concepts formeraient ce qu’on appelle une ontologie du domaine. L’idée n’est pas de créer cette ontologie de façon exhaustive mais de créer une ontologie partielle ad hoc, qu’on étendra au fur et à mesure qu’on rencontrera de nouveaux concepts dans les spécifications. Les spécifications sont alors représentées sous la forme de procédures de représentation qui à une entit géographique (instance d’un concept donné) associent une ou plusieurs représentations dans les différentes bases, en fonction de la nature et des propriétés de l’entité ; elles font donc le lien entre l’ontologie et les schémas des différentes bases. Résultats : sur les thèmes hydrographie de la BDCarto et de la BDTopo, deux bases de données de l’IGN, il semble que l’hypothèse soit vérifiée (on arrive assez facilement à une ontologie commune). On a pu d’autre part déterminer les principaux types de règles élémentaires nécessaires à la construction des procédures de représentation. Un langage formel dont la grammaire, définie en BNF, s’appuie sur ces règles élémentaires a alors été proposé pour décrire les procédures de représentation. Enfin, un prototype logiciel muni d’un parseur pour ce langage a été réalisé pour saisir, stocker et manipuler les spécifications formelle<br>Integrating them into a federated database system, by describing the precise data meaning in a way both homogeneous between databases and as formal as possible. This precise data meaning is contained in the databases’ content specifications (surveying rules). Method : The general organization of the present specifications follows that of the databases’ schemata, but these schemas are heterogeneous and influenced by implementation problems. To overcome this problem, we suppose that it will be possible to find, in the specifications’ text, a number of common terms referring to shared geographical concepts. All these concepts would constitute what is called a domain ontology. Our idea is not to create a complete ontology but rather a partial, ad hoc one, which would be extended to take new concepts into account as needed. The specifications would then be represented as a bundle of what we call representation procedures, which describe how, given a geographic entity (instance of some geographical concept), one or more representations of this entity are built up into the different databases depending on the nature and the properties of the entity. Thus these procedures describe the links between the ontology and the schemata of the databases. Results : For the example of hydrography in two different IGN databases, BDCarto and BDTopo, our hypothesis seems confirmed : a common ontology could rather easily be defined. Concerning the representation procedures, we were able to establish the main kinds of elementary rules from which they can be constructed. To describe formally these procedures, we then defined a formal language whose grammar has been described in BNF and is based on these elementary rules. Finally, we have made a software prototype, containing a parser for this language, for entering, saving and handling the formal specifications
APA, Harvard, Vancouver, ISO, and other styles
10

Follin, Jean-Michel. "Gestion incrémentale de données multi-résolutions dans un système mobile de visualisation d'informations géographiques." La Rochelle, 2004. http://www.theses.fr/2004LAROS131.

Full text
Abstract:
Nous proposons une solution pour présenter et gérer des données spatiales vectorielles multi-résolutions en tenant compte des contraintes liées au contexte mobile (limitations des capacités d'affichage, de stockage et du taux de transfert). Les données sont proposées à l'utilisateur avec une résolution adaptée à l'échelle en adoptant le principe de "zoom intelligent". Le volume de données échangées entre le client et le serveur est minimisé en réutilisant au maximum les donnée déjà disponibles du côté client avec le concept d'incrément". Ce dernier correspond à une série d'opérations permettant de "reconstruire" la représentation d'un objet à une certaine résolution à partir d'une autre résolution du même objet. Nous présentons des modèles de données et de transfert, et des principes pour une gestion incrémentale de données multi-résolutions dans un système mobile de visualisation d'information géographique et montrons leur intérêt par rapport à une stratégie mono-résolution<br>We propose a solution for presentation and management of vector multiresolution geodata by taking into account constraints related to mobile context (limitations of storage, displaying capacities and transfer rate). Our solution provides users with the LoD ("Level of Detail") in adequation with scale by respecting the well-known "principle of constant density of data". The amount of data exchanged between client and server is minimized in our system by reusing already locally available data when possible. Increment corresponds to an operation sequence allowing reconstruction of LoD of an object from an available LoD of the same object on the client side. Transferring only increment appears more interesting than downloading an "entire" LoD object. We present models of multi-resolution data and transfer, and principles allowing an incremental management of data in a mobile geodata visualization system. Then we prove interest of our multi-resolution strategy in relation to mono-resolution one
APA, Harvard, Vancouver, ISO, and other styles
11

Olteanu, Ana-Maria. "Fusion de connaissances imparfaites pour l'appariement de données géographiques : proposition d'une approche s'appuyant sur la théorie des fonctions de croyance." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00469407.

Full text
Abstract:
De nos jours, il existe de nombreuses bases de données géographiques (BDG) couvrant le même territoire. Les données géographiques sont modélisées différemment (par exemple une rivière peut être modélisée par une ligne ou bien par une surface), elles sont destinées à répondre à plusieurs applications (visualisation, analyse) et elles sont créées suivant des modes d'acquisition divers (sources, processus). Tous ces facteurs créent une indépendance entre les BDG, qui pose certains problèmes à la fois aux producteurs et aux utilisateurs. Ainsi, une solution est d'expliciter les relations entre les divers objets des bases de données, c'est-à-dire de mettre en correspondance des objets homologues représentant la même réalité. Ce processus est connu sous le nom d'appariement de données géographiques. La complexité du processus d'appariement fait que les approches existantes varient en fonction des besoins auxquels l'appariement répond, et dépendent des types de données à apparier (points, lignes ou surfaces) et du niveau de détail. Nous avons remarqué que la plupart des approches sont basées sur la géométrie et les relations topologiques des objets géographiques et très peu sont celles qui prennent en compte l'information descriptive des objets géographiques. De plus, pour la plupart des approches, les critères sont enchaînés et les connaissances sont à l'intérieur du processus. Suite à cette analyse, nous proposons une approche d'appariement de données qui est guidée par des connaissances et qui prend en compte tous les critères simultanément en exploitant à la fois la géométrie, l'information descriptive et les relations entre eux. Afin de formaliser les connaissances et de modéliser leurs imperfections (imprécision, incertitude et incomplétude), nous avons utilisé la théorie des fonctions de croyance [Shafer, 1976]. Notre approche d'appariement de données est composée de cinq étapes : après une sélection des candidats, nous initialisons les masses de croyance en analysant chaque candidat indépendamment des autres au moyen des différentes connaissances exprimées par divers critères d'appariement. Ensuite, nous fusionnons les critères d'appariement et les candidats. Enfin, une décision est prise. Nous avons testé notre approche sur des données réelles ayant des niveaux de détail différents représentant le relief (données ponctuelles) et les réseaux routiers (données linéaires)
APA, Harvard, Vancouver, ISO, and other styles
12

Gazel, Hervé. "La géographie à l'écran : un géographe projette une mise en scène du territoire ou la mise en mouvement d'une géomatique humaniste." Phd thesis, Université de Provence - Aix-Marseille I, 1996. http://tel.archives-ouvertes.fr/tel-00940507.

Full text
Abstract:
Partant d'un projet de base géographique (SIG), cette recherche compose un hypertexte, soit un réseau de nœuds et de liens instaurant un mode d'organisation de l'information indépendant d'une structure préétablie (structure web). Un examen des représentations actuelles et passées de la notion d'activité humaine, une analyse des pratiques et des conceptions de l'activité scientifique, une approche des multiples dimensions de l'activité informatique, et une exploration des connaissances géographiques du temps présent, constituent les nœuds majeurs de cet hypertexte. Ainsi, à partir de l'explicitation de nos propres raisonnements, des raisonnements des géographes et des opérations de pensée des utilisateurs s'organise la mise ne mouvement d'une géomatique humaniste.
APA, Harvard, Vancouver, ISO, and other styles
13

Djouadi, Yassine-Mansour. "Logique possibiliste & amélioration génétique pour la sélection et l'agencement d'objets cartographiques." Lyon 1, 1996. http://www.theses.fr/1996LYO10083.

Full text
Abstract:
Le probleme de selection et d'agencement d'objets spatiaux consiste a rechercher les objets les plus pertinents puis a les representer sur le support choisi compte tenu des contraintes que peut exiger une pareille visualisation. La pertinence de ces objets doit etre etablie de maniere graduelle afin de permettre une interrogation flexible. La selection d'objets dans les bases de donnees spatiales est generalement basee sur la notion de relation spatiale. Les relations spatiales permettent d'exprimer la topologie et la semantique. Il s'avere que ces relations peuvent presenter un caractere vague (flou) en ce qui concerne la topologie et presentent un caractere incertain en ce qui concerne la semantique. Aussi, la premiere partie de cette these consiste a proposer une approche pour la modelisation et l'analyse (manipulation) des connaissances spatiales vagues ou incertaines. Au niveau de la modelisation, la theorie des possibilites sera retenue pour representer les aspects incertain et vague conjointement. Tandis que nous proposerons l'extension de la logique du premier ordre a la logique possibiliste pour l'analyse des connaissances spatiales vagues ou incertaines. Au dela du probleme de selection d'objets, se pose le probleme de leur restitution. En effet, les resultats d'interrogation de bases de donnees spatiales doivent refleter la nature geometrique des informations manipulees et les concepts sous-jacents de geometrie et de topologie. D'autre part, la programmation logique contrainte proposee pour l'interrogation contrainte prend en charge une classe limitee de contraintes. Par consequent, les objets selectionnees peuvent ne pas satisfaire totalement les regles de placement. Notre proposition consiste a proposer une approche pour l'amelioration de l'agencement original des objets. Cette approche est base sur les algorithmes genetiques et constitue notre seconde contribution. Une variante d'algorithmes utilisant des probabilites adaptatives est proposee. La theorie des schemes sera utilisee pour valider l'approche proposee
APA, Harvard, Vancouver, ISO, and other styles
14

Zaghar, Halima. "Mise à jour de bases de données géographiques par fusion de sources à l'aide de transformations correctives élastiques sous contraintes : raboutement de cartes et insertion de portion dans un fond." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0014.

Full text
Abstract:
Le secteur de l'information géographique. Qui est actuellement en pleine expansion, contribue à la constitution de bases de données localisées provenant de sources différentes. De plus, afin d'assurer la pérennité des systèmes d'informations, il est impératif d'effectuer des mises à jour régulières. Si la mise à jour d'une base de données alphanumériques est une opération tout à fait simple et maîtrisée de nos jours. Il n'en est pas de même pour celle d'une base de données géographiques. Les cas de mises à jour peuvent provenir de l'évolution des objets réels ou de l'évolution des connaissances. Notre travail se situe dans le cadre de la mise à jour de base de données géographiques. Nous nous sommes efforcée à apporter des solutions à deux cas courants de mises à jour, le premier étant celui de l'extension de couverture où il s'agit de faire le raboutement de deux cartes représentant deux zones (quartiers, communes. Arrondissement, etc. . . ) géographiquement voisines et le second celui de l'insertion d'une portion dans un fond existant auparavant dans la base de données. L'originalité de nos solutions réside dans le fait que l'on ne se contente pas d'appliquer les méthodes de recalage utilisées comme dans le passé. En effet, celles-ci consistaient à effectuer des dilatations, rotations ou translations pour intégrer les documents sources dans le même système de coordonnées en se basant sur les positions des points de contrôle. Cependant, ces opérations donnaient des résultats insatisfaisants en entraînant la déformation de certains objets cartographiques et en ne respectant pas toujours la topologie après correction. Afin d'éviter ces problèmes, nous proposons d'effectuer des transformations correctives élastiques homéomorphes en tenant compte des contraintes portant sur ces objets, lesquelles peuvent être des contraintes de position, de longueur, d'orientation, de superficie, de parallélisme etc … Ainsi, pour le raboutement de cartes, les déplacements des objets situés dans une zone d'élasticité dépendront également de celui des points homologues ainsi que de leur proximité par rapport à la frontière. De même, en ce qui concerne l'intégration de portions, le déplacement des objets sera lié à celui des points homologues et de leur proximité par rapport au périmètre de la portion<br>[However if updating a conventional database (e. G. Changing the delive1y address in a custom file) can be done by means of a SQL-type language or via a form interface, in the domain of geographic databases, updating means different things and cannot be performed easily. The essential reason is because updating information is not only elementary, but rather coming from different sources such as new/y made measures, aerial photos, scanned maps and so on. In this work, we will give an overview of two problems of updating. The first updating is extension of the coverage; in other words. When we have to fusion maps of two neighbouring zones whose boundaries do not meet, if is necessary ta select control points and to perform rubber-sheeting at the vicinity of the boundary based on those control points. The second updating consist in integration of a new portion in database. For this, we based on position of control points and Finite Element Method. ]
APA, Harvard, Vancouver, ISO, and other styles
15

Runz, Cyril de. "Imperfection, temps et espace : modélisation, analyse et visualisation dans un SIG archéologique." Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000848.pdf.

Full text
Abstract:
Face aux enjeux urbains actuels, à la patrimonialisation des ressources archéologiques et grâce au développement de l’informatique, l’utilisation des systèmes d’information géographique devient essentielle pour l’exploitation des données archéologiques. Pour cela, il s’avère nécessaire de modéliser, d’analyser et de visualiser l’information archéologique en prenant en considération l’aspect temporel et spatial mais surtout les imperfections des données archéologiques. Cette thèse élabore une démarche globale pour l’utilisation de données spatiotemporelles imparfaites dans un SIG archéologique. Cette démarche contribue à une meilleure gestion de celles-ci tant pour leur représentation que pour leur traitement. Dans cette démarche scientifique, les concepts théoriques de taxonomie de l’imperfection et de représentation des données imparfaites permettent d’abord la modélisation des données archéologiques. Ce mémoire propose ensuite des méthodes d’analyse des données d’un SIG archéologique. La spécificité de leur caractère temporel implique une gestion plus flexible du temps par un indice quantifiant l’antériorité. L’aspect lacunaire de l’information est aussi considéré à travers une méthode d’interrogation sous critère de forme. Enfin, des outils originaux d’exploration et de visualisation de données archéologiques sont exposés afin de mieux définir les éléments les plus représentatifs. Par une approche interdisciplinaire liant informatique et géographie, cette thèse développe une vision transversale autour de la gestion des connaissances imparfaites dans le temps et l’espace. Cette approche est illustrée par l’utilisation de données archéologiques dans un SIG<br>This thesis develops a global approach for the handling of spatiotemporal and imperfect data in an archaeological GIS. This approach allows us a better management of those data in order to model or to represent them. In this approach, a new taxonomy of imperfection is proposed for the modeling of archaeological information. Using the modeling, this work presents some new methods for data analysis in an GIS. The temporal aspect of archaeological data implies to define an index which quantifies the anteriority. The lacunar aspect is also exploited through an interrogation method using a geometrical form. This work finally explores and visualizes archaeological dataset to extract the most representative elements. This thesis, which gives an approach on the management of imperfect knowledge in time and space, links computer science and geography. The use-case of this thesis is an archaeological database associated to a GIS
APA, Harvard, Vancouver, ISO, and other styles
16

Abadie, Nathalie. "Formalisation, acquisition et mise en œuvre de connaissances pour l’intégration virtuelle de bases de données géographiques : les spécifications au cœur du processus d’intégration." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1054/document.

Full text
Abstract:
Cette thèse traite de l'intégration de bases de données topographiques qui consiste à expliciter les relations de correspondance entre bases de données hétérogènes, de sorte à permettre leur utilisation conjointe. L'automatisation de ce processus d'intégration suppose celle de la détection des divers types d'hétérogénéité pouvant intervenir entre les bases de données topographiques à intégrer. Ceci suppose de disposer, pour chacune des bases à intégrer, de connaissances sur leurs contenus respectifs. Ainsi, l'objectif de cette thèse réside dans la formalisation, l'acquisition et l'exploitation des connaissances nécessaires pour la mise en œuvre d'un processus d'intégration virtuelle de bases de données géographiques vectorielles. Une première étape du processus d'intégration de bases de données topographiques consiste à apparier leurs schémas conceptuels. Pour ce faire, nous proposons de nous appuyer sur une source de connaissances particulière : les spécifications des bases de données topographiques. Celles-ci sont tout d'abord mises à profit pour la création d'une ontologie du domaine de la topographie. Cette ontologie est utilisée comme ontologie de support, dans le cadre d'une première approche d'appariement de schémas de bases de données topographiques, fondée sur des techniques d'appariement terminologiques et structurelles. Une seconde approche, inspirée des techniques d'appariement fondées sur la sémantique, met en œuvre cette ontologie pour la représentation des connaissances sur les règles de sélection et de représentation géométrique des entités géographiques issues des spécifications dans le langage OWL 2, et leur exploitation par un système de raisonnement<br>This PhD thesis deals with topographic databases integration. This process aims at facilitating the use of several heterogeneous databases by making the relationships between them explicit. To automatically achieve databases integration, several aspects of data heterogeneity must be detected and solved. Identifying heterogeneities between topographic databases implies comparing some knowledge about their respective contents. Therefore, we propose to formalise and acquire this knowledge and to use it for topographic databases integration. Our work focuses on the specific problem of topographic databases schema matching, as a first step in an integration application. To reach this goal, we propose to use a specific knowledge source, namely the databases specifications, which describe the data implementing rules. Firstly, they are used as the main resource for the knowledge acquisition process in an ontology learning application. As a first approach for schema matching, the domain ontology created from the texts of IGN's databases specifications is used as a background knowledge source in a schema matching application based on terminological and structural matching techniques. In a second approach, this ontology is used to support the representation, in the OWL 2 language, of topographic entities selection and geometry capture rules described in the databases specifications. This knowledge is then used by a reasoner in a semantic-based schema matching application
APA, Harvard, Vancouver, ISO, and other styles
17

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Full text
Abstract:
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
APA, Harvard, Vancouver, ISO, and other styles
18

Alatrista-Salas, Hugo. "Extraction de relations spatio-temporelles à partir des données environnementales et de la santé." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00997539.

Full text
Abstract:
Face à l'explosion des nouvelles technologies (mobiles, capteurs, etc.), de grandes quantités de données localisées dans l'espace et dans le temps sont désormais disponibles. Les bases de données associées peuvent être qualifiées de bases de données spatio-temporelles car chaque donnée est décrite par une information spatiale (e.g. une ville, un quartier, une rivière, etc.) et temporelle (p. ex. la date d'un événement). Cette masse de données souvent hétérogènes et complexes génère ainsi de nouveaux besoins auxquels les méthodes d'extraction de connaissances doivent pouvoir répondre (e.g. suivre des phénomènes dans le temps et l'espace). De nombreux phénomènes avec des dynamiques complexes sont ainsi associés à des données spatio-temporelles. Par exemple, la dynamique d'une maladie infectieuse peut être décrite par les interactions entre les humains et le vecteur de transmission associé ainsi que par certains mécanismes spatio-temporels qui participent à son évolution. La modification de l'un des composants de ce système peut déclencher des variations dans les interactions entre les composants et finalement, faire évoluer le comportement global du système.Pour faire face à ces nouveaux enjeux, de nouveaux processus et méthodes doivent être développés afin d'exploiter au mieux l'ensemble des données disponibles. Tel est l'objectif de la fouille de données spatio-temporelles qui correspond à l'ensemble de techniques et méthodes qui permettent d'obtenir des connaissances utiles à partir de gros volumes de données spatio-temporelles. Cette thèse s'inscrit dans le cadre général de la fouille de données spatio-temporelles et l'extraction de motifs séquentiels. Plus précisément, deux méthodes génériques d'extraction de motifs sont proposées. La première permet d'extraire des motifs séquentiels incluant des caractéristiques spatiales. Dans la deuxième, nous proposons un nouveau type de motifs appelé "motifs spatio-séquentiels". Ce type de motifs permet d'étudier l'évolution d'un ensemble d'événements décrivant une zone et son entourage proche. Ces deux approches ont été testées sur deux jeux de données associées à des phénomènes spatio-temporels : la pollution des rivières en France et le suivi épidémiologique de la dengue en Nouvelle Calédonie. Par ailleurs, deux mesures de qualité ainsi qu'un prototype de visualisation de motifs sont été également proposés pour accompagner les experts dans la sélection des motifs d'intérêts.
APA, Harvard, Vancouver, ISO, and other styles
19

Waller, Emmanuel. "Méthodes et bases de données." Paris 11, 1993. http://www.theses.fr/1993PA112481.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Voisard, Agnès. "Bases de données géographiques : du modèle de données à l'interface utilisateur." Paris 11, 1992. http://www.theses.fr/1992PA112354.

Full text
Abstract:
Les systemes d'information geographiques (sig) servent de support aux applications qui manipulent des donnees geographiques, telles que la planification urbaine, la regulation de la circulation, la gestion des ressources naturelles. Les problemes majeurs poses par la realisation de sig sont lies d'une part a la gestion d'un gros volume de donnees, d'autre part a la coexistence de deux types de donnees: la description des cartes (donnees alphanumeriques) et leur spatialite (geometrie et topologie). Les donnees spatiales posent de plus un double probleme car elles doivent etre manipulees par des operations specifiques et leur structuration est complexe et eminemment variable. Pour stocker, interroger et manipuler les donnees, les sig peuvent utiliser des systemes de gestion de bases de donnees (sgbd) dotes de fonctionnalites particulieres pour gerer des donnees spatiales. Notre travail a tout d'abord porte sur les problemes de modelisation de l'information geographique et a abouti a la proposition d'un modele original, base sur un modele a objets complexes, pour applications manipulant des cartes thematiques. Pour valider ce modele, nous avons implemente une maquette de sig au-dessus du prototype de sgrd oriente-objet o2. Cette experience nous a permis de degager des enseignements multiples. En particulier, la conception d'interfaces utilisateurs specifiques aux sig s'est averee etre une tache indispensable et complexe. Cette constatation a conduit a la proposition d'un modele d'interface pour concepteurs d'applications geographiques, premiere etape vers une boite a outils permettant de manipuler une large gamme d'applications geographiques. Les systemes d'information geographique et finalement les interfaces pour systemes d'information geographique sont les trois points auxquels nous nous interessons dans cette these
APA, Harvard, Vancouver, ISO, and other styles
21

Jault, Claude. "Méthodologie de la conception des bases de données relationnelles." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090011.

Full text
Abstract:
Cette thèse analyse les différentes méthodes de conception de bases de données relationnelles et, compte tenu de leurs insuffisances, propose une nouvelle méthode. Le 1er chapitre présente les concepts : schémas et modèles conceptuels et logiques, liens entre entités, cardinalités des liaisons, concepts du modèle relationnel (relations, dépendances, clefs primaires et étrangères), normalisation (avec la démonstration de la non inclusion de la 4ème forme normale dans la 3ème), contraintes d'intégrité (de domaine, de relation, de référence), valeurs nulles, et un nouveau type de contraintes, les contraintes entre liens. Le 2ème chapitre expose les différentes méthodes existantes qui peuvent être réparties en trois groupes. Celles qui utilisent le modèle entités-associations : les versions américaine et française de ce modèle (avec leurs extensions), la méthode Axial, la méthode Remora ; celles qui n'utilisent pas de schéma conceptuel : approche de la relation universelle, approche de Codd et date, approche par intégration des vues ; et la méthode IA (NIAM) qui utilise les réseaux sémantiques. Le 3ème chapitre expose la méthode entités-liens-relations élaborée dans cette thèse. Elle s'appuie sur un modèle conceptuel représentant les entités et leurs liens, avec les contraintes d'intégrité entre ces liens. Elle procède en trois phases : l'approche conceptuelle globale, centrée sur les entités et les liens (1:n et 1:1, les liens m:n étant transformes en 2 liens 1:n) ; l'approche conceptuelle détaillée, qui définit les attributs et les domaines sémantiques, normalise les entités, examine les dépendances non permanentes et les contraintes entre liens; l'approche logique, qui déduit le schéma relationnel, contrôle sa normalité, définit les contraintes d'intégrité et résout les inter-blocages référentiels. Le 4ème chapitre illustre la méthode entités-liens-relations par un cas concret<br>This thesis analyses the different relational data base design methods and, because of their insufficiencies, propose a new method. The first chapter presents the concepts: conceptual and logical schemas and models, links between entities, connection cardinalities, relational model concepts (relations, dependencies, primary and foreign keys), normalization (with the demonstration of the 4th normal form not included into the 3rd), integrity constraints (domain, relation, reference), null values, and a new type of constraints, the constraints between links. The second chapter gives an account of the different methods which can be dispatched in three groups. Those which utilize the entity-relationship model: the American and French model-versions (with their extensions), the axial method, the remora method; those which don't utilize conceptual schema: universal relation approach, godd and date approach, view integration approach; and the IA method (NIAM) using the semantic networks. The third chapter exposes the entity-link-relation method, elaborated in this thesis. It is supported by a conceptual model representing the entities and their links, with the integrity constraints between these links. It proceeds in three phases: the total conceptual approach, centered on entities and links (1:n and 1:1, the links m:n converted to two links 1:n) ; the detail conceptual approach, which defines the attributes and the semantic domains, normalizes entities, examines no-permanent dependencies and the link-constraints ; the logical approach, which gives the relational schema, controls its normality, defines integrity constraints and solves referential deadlocks. The fourth chapter gives one concrete case of the entity-link-relation method
APA, Harvard, Vancouver, ISO, and other styles
22

Guo, Yanli. "Confidentialité et intégrité de bases de données embarquées." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0038.

Full text
Abstract:
L’approche PDS (serveurs personnel données) prône une gestion totalement décentralisée des données personnelles. Elle s’appuie sur un nouveau composant matériel qui combine un microcontrôleur protégé contre toute attaque avec une mémoire de masse de type flash NAND. Il permet de stocker les données personnelles, les rendre disponibles et contrôler les droits d’accès. L’intégration d’un moteur de base de données permet le déploiement d’applications manipulant ces données. Cette thèse aborde deux problèmes concernant la confidentialité et l'intégrité des données personnelles: (i) la base de données est en dehors du périmètre de sécurité et peut être la cible d’attaques; (ii) des serveurs de support assurent la durabilité, la disponibilité des données, ou d'autres traitements globaux. Des protocoles appropriés doivent assurer qu’ils ne peuvent attaquer les données manipulées. Les solutions proposées s'appuyent sur des techniques cryptographiques et limitent les surcoûts générés<br>As a decentralized way for managing personal data, the Personal Data Server approach (PDS) resorts to Secure Portable Token, combining the tamper resistance of a smart card microcontroller with the mass storage capacity of NAND Flash. The data is stored, accessed and its access rights controlled using such devices. To support powerful PDS application requirements, a full-fledged DBMS engine is embedded in the SPT. This thesis addresses two problems with the confidentiality and integrity of personal data: (i) the database stored on the NAND Flash remains outside the security perimeter of the microcontroller, thus potentially suffering from attacks; (ii) the PDS approach relies on supporting servers to provide durability, availability, and global processing functionalities. Appropriate protocols must ensure that these servers cannot breach the confidentiality of the manipulated data. The proposed solutions rely on cryptography techniques, without incurring large overhead
APA, Harvard, Vancouver, ISO, and other styles
23

Soubra, Najwa. "La responsabilité des producteurs de bases et banques de données." Orléans, 1991. http://www.theses.fr/1991ORLE0502.

Full text
Abstract:
Le fonds documentaire de la bd est un ensemble de données constitue à partir d'informations primaires. Le producteur est donc assujetti au respect des droits de l'information. Interrogeable par voie informatique, le service de la bd donne lieu à une communication conversationnelle. Ce service télématique fourni par le producteur s'inscrit dans le cadre de la communication. La diffusion informatique et commerciale du service de la bd peut engager le producteur dans une chaine de relations. Il existe une succession d'intervenants : serveur, transmetteur, distributeur, broker et utilisateur. Le manquement aux obligations légales et réglementaires ainsi que l'inexécution des engagements contractuels ou leur mauvaise exécution entrainent la responsabilité du producteur. Selon le cas, cette responsabilité est donc une responsabilité civile ou pénale. Dans l'état actuel du droit positif, il n'y a pas réellement un régime juridique spécifique de de la fourniture de l'information en ligne. La bd, dans sa constitution doit donc s'inscrire dans le cadre juridique régissant les services télématiques interactifs. Quant aux relations contractuelles qui s'établissent entre les acteurs pour l'élaboration et l'exploitation de la bd, c'est le droit commun des contrats et de la responsabilité civile qui s'applique et doit s'appliquer<br>The documentary basis of a data bank is a set of data made up of primary information. The producer is therefore subject to information law. The data bank service which can be accessed through a computer system implies interactive communication. This telematic service supplied by the producer is part of the communication. The computer and commercial distribution of the data bank service may involve the producer in a series of links. A succession of operators is concerned : the service, the transmitter, the distributor, the broker and the user. The breach of legal and regulatory obligations, as well as the non-fulfillment of contractual agreements, or their poor execution involve the producer's liability is therefore either civil or criminal. In the current state of the positive law, there is no real specific legal system, which has emerged from the supply of on-line information. The data bank, for its formation, must then fit within the legal framework that governs telematic interactive services. As for the contractual relations that develop between the actors for the data bank development and operation, the common law for contracts and civil liability applies and must be applied
APA, Harvard, Vancouver, ISO, and other styles
24

Trybocki, Christine. "Elaboration d'un modèle conceptuel pour les bases de données lexicales." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30088.

Full text
Abstract:
Depuis une dizaine d'annees, des equipes scientifiques et des editeurs se penchent sur la transformation des dictionnaires editoriaux en bases de donnees destinees aux applications en langage naturel ou a la diffusion publique sous forme de cd-rom. Notre objectif ici est de decrire un nouveau schema de base de donnees dictionnairiques qui comble les manques des precedents modeles. Avant l'elaboration de ce schema, nous avons pris soin d'observer en detail plusieurs dictionnaires. En raison de leur structuration arbitraire, nous avons mis de cote le concept d'entree et propose une nouvelle unite dictionnairique. Nous avons defini formellement notre modele grace a un outil de reference: sgml, et nous avons choisi une representation informatique basee sur la representation objet. Enfin, nous avons constate sa validite sur un dictionnaire monolingue francais
APA, Harvard, Vancouver, ISO, and other styles
25

Berasaluce, Sandra. "Fouille de données et acquisition de connaissances à partir de bases de données de réactions chimiques." Nancy 1, 2002. http://docnum.univ-lorraine.fr/public/SCD_T_2002_0266_BERASALUCE.pdf.

Full text
Abstract:
Les bases de données de réactions, outils indispensables pour les chimistes organiciens, ne sont pas exemptes de défauts. Dans cette thèse, nous avons entrepris d'ajouter des connaissances structurant les données pour dépasser les limites des bases et envisager de nouveaux modes d'interrogation de ces bases. In fine, l'objectif est de concevoir des systèmes possédant des fonctionnalités de BD et de SBC. Dans le processus d'acquisition de connaissances, nous avons mis l'accent sur la modélisation des objets chimiques. Ainsi, nous sommes intéressés aux méthodes de synthèse que nous avons décrites en terme d'objectifs de synthèse atteints. Nous nous sommes ensuite appuyés sur le modèle élaboré pour appliquer des techniques de fouille de données et faire émerger des connaissances. Nos expérimentations dans Resyn-Assistant sur les méthodes de construction de monocycles et les interchanges fonctionnels donnent des résultats en accord avec les connaissances du domaine<br>Chemical reaction database, indispensable tools for synthetic chemists, are not free from flaws. In this thesis, we have tried to overcome the databases limits by adding knowledge which structures data. This allows us to consider new efficient modes for query these databases. In the end, the goal is to design systems having both functionalities of DB and KBS. In the knowledge acquisition process, we emphasized on the modelling of chemical objects. Thus, we were interested in synthetic methods which we have described in terms of synthetic objectives. Afterward, we based ourselves on the elaborated model to apply data mining techniques and to extract knowledge from chemical reaction databases. The experiments we have done on Resyn Assistant concerned the synthetic methods which construct monocycles and the functional interchanges and gave trends in good agreement with the domain knowledge
APA, Harvard, Vancouver, ISO, and other styles
26

Ykhlef, Mourad. "Interrogation des données semistructurées." Bordeaux 1, 1999. http://www.theses.fr/1999BOR1A640.

Full text
Abstract:
Nous proposons dans cette these deux langages de requetes du type calcul (graph-fixpoint et graph-while) pour interroger des donnees semistructurees modelisees par des graphes etiquetes (db-graphes). Ces deux langages expriment respectivement des requetes dans les classes fixpoint et while. Nous montrons ainsi qu'ils sont plus puissants que les langages existants. Nous proposons aussi une extension du modele de representation des donnees semistructurees en considerant une structure plus generale qui est celle des graphes imbriques. Ceci permet de mieux rendre compte de la nature hierarchique des donnees semistructurees et de leur origine. Aussi, nous exploitons cette structure pour integrer les formulaires presents sur le web. Le langage de requetes imbrique ngraph est considere pour interroger des donnees provenant de plusieurs sources qui sont integrees via le web.
APA, Harvard, Vancouver, ISO, and other styles
27

Champion, Nicolas. "Détection de changement 2D à partir d'imagerie satellitaire : Application à la mise à jour des bases de données géographiques." Paris 5, 2011. http://www.theses.fr/2011PA05S005.

Full text
Abstract:
La majorité des bases de données géographiques sont aujourd'hui constituées. Se pose désormais la question de leur mise à jour et plus particulièrement celle du processus industriel à mettre en place pour ce faire. Si ce travail est réalisé actuellemnt de manière entièrement manuelle, en comparant directement la base de données à des images plus récentes ou encores en rassemblant et vérifiant des informations provenant d'autres partenaires (en France, des préfectures, conseils généraux, etc. ), de nombreux travaux sont menés pour l'automatiser. L'idée ici est de développer des systèmes qui soient capables d'utiliser des données de télédétection plus récentes pour envoyer des alertes sur les zones de changement dans une base de données 2D de bâtiments à partir d'images satellitaires de type Pléiades-HR. La chaîne de traitement mise en place se base sur les images satellitaire, le Modèle Numérique d'Elévation (MNE) qui en est dérivé et un modèle Nmérique de Terrain (MNT). Elle décompose le processus en deux étapes: d'une part, la vérification de la base de données et d'autre pat, la détection des nouveaux bâtiments. La mise en oeuvre de la première étape repose sur l'extraction de primitives robustes correspondant soit à un nMNE défini comme la différence entre le MNE et le MNT), soit à des primitives linéaires 2D et 3D, extraites des images initiales. A chaque bâtiment contenu dans la base de données est alors associé deux mesures de dissimilarité (l'une liée au nMNE et l'autre aux primitives linéaires) qui sont utilisées dans une approche de type a contrario pour définir ceux qui n'ont pas changé. Les bâtiments à considérer changés s'infèrent de ce premier ensemble par complémentaire. D'une manière similaire aux méthodes développées dans le acadre de la théorie de la décision a contrario, notre système de détection de changement, pour la première étape, s'apparente donc à un système de détection de non-changement. La deuxième étape se focalise sur la recherche des bâtiments nouveaux dans la scène et se base sur des critères géométriques et des outils morphomathématiques. La méthode a été appliquée sur de nombreuses zones (qui illustrent des typologies urbaines et des types de paysages différents) et évaluée en utilisant les critères de succès mis en place et justifiés au cours de ce travail de thèse. Par ailleurs, des études de sensibilité nous ont permis de mettre en évidence les facteurs limitants à prendre en compte dans le futur pour construire un système de détection de changement et d'aide à la mise à jour opérationnel<br>In the past few years, 2D topographic databases have been completed in most industrialised countries. Most efforts in National Mapping Agencies are now devoted to the update of such databases. Because it is generally carried out manually, by visual inspection of orthophotos, the updating process is time-consuming and expensive. As a consequence, there is a growing need to automate it i. E. To develop semi-automatic tools that are able to detect the changes in a database from recent remotely-sensed data and to present them to a human operator for verification. In this PhD work, we tackle the particular issue of detecting changes in a 2D building database starting from more recent satellite (Pleiades-HR) images. In addition to input multiscopic satellite images, our method is based on a Digital Elevation Model (DEM) and a Digital Terrain Model (DTM). The workflow is divided into 2 steps: the verification of the database (Step I) and the detection of new buildings (Step II). The first step is based on robust primitives, correponding to an nDEM (defined as the difference between the DEM and the DTM) or correponding to 2D and 3D linear primitives, extracted from input DEM and satellite images. Two dissimilarity scores (the first score is related to the nDEM; the second one to linear primitives) are then computed and assigned to each building. In the end, the a contrario paradigm is used to detect unchanged buildings: the buildings to be considered changed are inferred from this first set by taking its complementary in the database. Similary to the other methods based on the idea that new buidings correspond to above-ground objects that neither correspond to a building (already described in the database) nor a tree (described in the vegetation mask). This detection is carried out by performing a morphological comparison between the above-ground mask, derived from the nDEM and an initial above-ground mask, derived from the partially updated (Step I) vector database and a vegetation mask, derived from input images. The method was applied to many test areas, very different regarding land use and topography. It was also assessed through the evaluation criteria, introduced and justified during the PhD work. Eventually, sensitivity studies were carried out and highlight the limiting factors to be considered in the future in order to build an operational system for change detection and map updating
APA, Harvard, Vancouver, ISO, and other styles
28

Nunez, Del Prado Cortez Miguel. "Attaques d'inférence sur des bases de données géolocalisées." Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00926957.

Full text
Abstract:
Au cours des dernières années, nous avons observé le développement de dispositifs connectés et nomades tels que les téléphones mobiles, tablettes ou même les ordinateurs portables permettant aux gens d'utiliser dans leur quotidien des services géolocalisés qui sont personnalisés d'après leur position. Néanmoins, les services géolocalisés présentent des risques en terme de vie privée qui ne sont pas forcément perçus par les utilisateurs. Dans cette thèse, nous nous intéressons à comprendre les risques en terme de vie privée liés à la dissémination et collection de données de localisation. Dans ce but, les attaques par inférence que nous avons développé sont l'extraction des points d'intérêts, la prédiction de la prochaine localisation ainsi que la désanonymisation de traces de mobilité, grâce à un modèle de mobilité que nous avons appelé les chaînes de Markov de mobilité. Ensuite, nous avons établi un classement des attaques d'inférence dans le contexte de la géolocalisation se basant sur les objectifs de l'adversaire. De plus, nous avons évalué l'impact de certaines mesures d'assainissement à prémunir l'efficacité de certaines attaques par inférence. En fin nous avons élaboré une plateforme appelé GEoPrivacy Enhanced TOolkit (GEPETO) qui permet de tester les attaques par inférences développées.
APA, Harvard, Vancouver, ISO, and other styles
29

Halfeld, Ferrari Alves Mírian. "Règles pour les mises a jour des bases de données déductives." Paris 11, 1996. http://www.theses.fr/1996PA112185.

Full text
Abstract:
Nous proposons une approche de bases de données déductives contenant deux types de règles: les règles de mise à jour de la forme l#0 l#1, ou l#0 et l#1 sont des littéraux, et des règles de requête, comme dans les programmes logiques normaux. Les règles de mise à jour sont vues comme des contraintes, dont toutes les conséquences doivent être satisfaites entre deux mises à jour consécutives. Les mises à jour sont toujours déterministes et préservent la cohérence de la base de données par rapport aux contraintes. La sémantique d'une base de données est calculée en considérant que les règles de mise à jour ont priorité sur les règles de requête: les règles de mise à jour peuvent engendrer des exceptions aux règles de requête. Dans ce contexte, nous présentons deux méthodes pour calculer la sémantique d'une base de données avec règles de mise à jour: l'approche bien fondée (qui utilise la sémantique bien fondée) et l'approche anser sets (qui utilise des programmes logiques avec négation classique). Nous proposons également une généralisation de notre modèle en termes d'operateurs monotones. Dans ce formalisme, nous généralisons de plus la notion de mise a jour concernant un seul fait (ou n-uplet) en ensemble de mises a jour. Nous montrons alors qu'il est possible d'appliquer ce formalisme général aux interfaces de type relation universelle
APA, Harvard, Vancouver, ISO, and other styles
30

Benzine, Mehdi. "Combinaison sécurisée des données publiques et sensibles dans les bases de données." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0024.

Full text
Abstract:
La protection des données sensibles est une problématique majeure dans le monde des bases de données. Plusieurs solutions logicielles et matérielles ont été proposées pour assurer une sécurité optimale lors du stockage et de la manipulation de ces données. Il est également nécessaire de sécuriser les opérations mettant en relation des données sensibles avec des données publiques. Pour cala, nous avons mis en place une architecture de stockage et d'interrogation offrant cette sécurité. Cette architecture est composée d'un serveur central regroupant les données publiques et d'un serveur sécurisé stockant les données privées. Ce serveur sécurisé est constitué (i) d'un microcontrôleur sécurisé associé à (ii) une mémoire persistante, de grande capacité, de type Flash NAND. Les requêtes mêlant données publiques et sensibles sont scinder en deux sous-requêtes, l'une portant sur les données publiques, l'autre sur les données sensibles. Chaque sous-requête est exécutée sur le serveur contenant les données appropriées. Enfin, le résultat de la sous-requête sur données publiques est envoyé au serveur sécurisé qui se charge de construire le résultat final en toute sécurité. Cette architecture résolvant les problèmes de sécurité introduit néanmoins de sévères problèmes de performances dues aux caractéristiques physiques du serveur sécurisé (peu de RAM, asymétrie des coûts de lecture et d'écriture. . . ) qu'il est impératif de résoudre par des techniques d'optimisation de requêtes<br>Protection of sensitive data is a major issue in the databases field. Many software and hardware solutions have been designed to protect data when stored and during query processing. Moreover, it is also necessary to provide a secure manner to combine sensitive data with public data. To achieve this goal, we designed a new storage and processing architecture. Our solution combines a main server that stores public data and a secure server dedicated to the storage and processing of sensitive data. The secure server is a hardware token which is basically a combination of (i) a secured microcontroller and (ii) a large external NAND Flash memory. The queries which combine public and sensitive data are split in two sub queries, the first one deals with the public data, the second one deals with the sensitive data. Each sub query is processed on the server storing the corresponding data. Finally, the data obtained by the computation of the sub query on public data is sent to the secure server to be mixed with the result of the computation on sensitive data. For security reasons, the final result is built on the secure server. This architecture resolves the security problems, because all the computations dealing with sensitive data are done by the secure server, but brings performance problems (few RAM, asymmetric cost of read/write operations. . . ). These problems will be solved by different strategies of query optimization
APA, Harvard, Vancouver, ISO, and other styles
31

Plazanet, Corinne. "Enrichissement des bases de données géographiques : analyse de la géométrie des objets linéaires pour la généralisation cartographique (application aux routes)." Marne-la-Vallée, 1996. http://www.theses.fr/1996MARN0001.

Full text
Abstract:
Le but du travail presente ici est de proposer des methodes et des algorithmes pour l'analyse de la geometrie des objets geographiques lineaires (en particulier les routes) necessaire a la generalisation automatisee (processus permettant de deriver une vue simplifiee d'un espace geographique). Nous proposons de decrire les objets lineaires par segmentations recursives sous la forme d'un arbre comportant des attributs descriptifs : qualification des formes et mesures morphologiques de plus en plus fines. La construction de cet arbre repose sur deux techniques : 1) la segmentation en portions homogenes (i. E. Pour un niveau d'analyse donne, l'evaluation du critere d'homogeneite fournit des resultats equivalents), 2) l'analyse de ces portions afin de pouvoir choisir les operations de generalisation adequates. Ces techniques sont appliquees de facon recursive et modulee pour permettre une analyse de plus en plus fine de la geometrie et des situations locales des formes dans les formes. Elles s'appuient fortement sur la detection (de plus en plus fine au fur et a mesure de la progression dans l'analyse) des points caracteristiques (points d'inflexion et sommets). Une reflexion a egalement ete menee sur le processus de generalisation automatique des objets lineaires (independante du contexte). Les problemes delicats de choix des solutions de generalisation (sequences d'operations et d'algorithmes appropries) adequates pour chaque feuille de l'arbre en fonction de l'objectif vise (theme de la carte, echelle, symbolisation, etc. ) ainsi que le reglage des valeurs parametriques sont discutes. Des experiences pour automatiser ces choix ont ete realisees, notamment par utilisation de systemes d'apprentissage. Outre l'utilisation pour guider les choix des operations et algorithmes de generalisation, la description hierarchique des objets lineaires fondee sur les points caracteristiques offre plusieurs interets dont celui de proposer de nouveaux outils de generalisation pour l'evaluation de la qualite (respect des formes) et pour realiser de nouveaux algorithmes. En particulier, ce travail a debouche sur la conception d'un nouvel algorithme, baptise l'accordeon, dedie a l'ecartement longitudinal des virages en serie dans les routes de montagne. L'enrichissement des connaissances geometriques propose permet donc a la fois d'appliquer des operations de facon plus pertinente et de concevoir de nouveaux algorithmes de generalisation automatique
APA, Harvard, Vancouver, ISO, and other styles
32

Wurbel, Nathalie. "Dictionnaires et bases de connaissances : traitement automatique de données dictionnairiques de langue française." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30035.

Full text
Abstract:
L'utilisation des versions informatisees de dictionnaires courants comme sources d'informations en traitement automatique du langage naturel a ete encouragee par la masse de connaissances lexicales et semantiques qu'ils contiennent. Cependant, apres 15 annees de recherches, les resultats apparaissent decevants et n'ont pas debouche sur une evaluation des bases de connaissances dictionnairiques, ni sur l'etude des retombees de ces recherches. Nous avons realise l'evaluation d'un dictionnaire francais. En nous placant dans le cadre de la construction automatique de taxinomies, nous avons repertorie les anomalies et les imperfections des informations extraites de facon automatique dont nous donnons une classification detaillee. Ces observations ont ete utilisees pour definir un modele de dictionnaire informatise destine a la fois a des utilisateurs humains et a des systemes de traitement automatique du langage naturel, ou les informations dictionnairiques sont representees dans une base de connaissances orientee objets. Nous proposons un automate de generation de definitions, fournissant un outil puissant d'aide a la redaction pour les lexicographes
APA, Harvard, Vancouver, ISO, and other styles
33

Beldjilali, Tarik. "Évolution des schémas dans un système de gestion de bases de données orientées objets." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0035.

Full text
Abstract:
L'évolution du schéma d'une base de données orientées objets (BDOO) relève d'une stratégie qui dépend de l'existence ou non d'objets persistants dans la base. Actuellement les SGBDOO posent trop de contraintes pour permettre une évolution souple, sans dommage pour les instances. Pour répondre à ce problème nous définissons une nouvelle caractéristique pour le modèle objet, à savoir la hiérarchie mixte dont le but est de prendre en compte l'évolution d'une BDOO de façon souple et performante. La hiérarchie mixte est possible grâce au mécanisme d'abstraction que constitue la généralisation ainsi qu'à d'héritage inverse. Pour gérer une telle hiérarchie, nous avons introduit la notion de β-schéma considéré comme l'ensemble des transformations d'un schéma, suite à une opération, qui n'est validé que si la transaction qui le supporte se termine sans incohérences. En outre, afin d'augmenter la puissance de conception et améliorer l'organisation des objets, le modèle de G* que nous proposons incorpore la notion de classe abstraite, permettant ainsi de prendre en compte l'aspect évolutif des applications en phase post-conceptuelle (phase d'exploitation). Cette thèse donne la définition du modèle G*, ses propriétés communes aux modèles OO ainsi que celles qui lui sont spécifiques. L'approche de G* pour la modification d'un schéma ainsi que ses opérations d'évolution spécifiques sont proposées. Les principales propriétés à vérifier pour qu'un schéma soit cohérent, adaptées au modèle G* et à sa hiérarchie mixte, sont synthétisées. Aussi, les problèmes de cohérence des objets de la BD ainsi que ceux liés à la cohérence structurelle des méthodes sont traités<br>Schema evolution of an object oriented data base depends on the existence of persistent objects populating the database. Actually object oriented DBMS put too many constraints to allow flexible evolution which does not cause adverse consequences on the instances. In order to overcome this problem we defined a new characteristic for the object model which is mixed hierarchy whose goal is to make easy schema evolution. A mixed hierarchy is possible due to a mechanism of abstraction made of generalization and inverse inheritance. To manage such a hierarchy we introduced the notion of β-schema that is the set of schema modifications following an evolution operation. A β-schema is validated only when its dependent transaction terminates successfully. Furthermore, to enhance conception and objects organization, the G* model is proposed, which integrates the notion of abstract class that takes into account evolution in the post-conception phase (exploitation phase). This thesis introduces the G* model definition, what has in common with object oriented models as well as its specific prope1ties. The G* approach for schema modification and its specific evolution operations are given. The main prope1ties to be checked for a coherent schema adapted to the G* model and to its mixed hierarchy are introduced. Also, problems of objects coherence and those related to the structural coherence of the methods are discussed
APA, Harvard, Vancouver, ISO, and other styles
34

Mammar, Amel. "Un environnement formel pour le développement d'applications bases de données." Paris, CNAM, 2002. http://www.theses.fr/2002CNAM0437.

Full text
Abstract:
Ce travail présente une approche formelle pour le développement d'applications bases de données sûres. Cette approche consiste en la génération d'une implémentation relationnelle à partir de spécifications formelles. On décrit préalablement l'application à l'aide de notations UML, puis un processus automatique est appliqué afin de les traduire en spécifications B. En utilisant le processus de raffinement, un ensemble de règles de raffinement; opérant sur les données et les opérations, est utilisé sur les spécifications obtenues. Ces phases de raffinement ont pour but de rendre les spécifications proches du langage d'implémentation cible choisi, la dernière phase de codage devient intuitive et naturelle. De manière générale, le raffinement est manuel, relativement coûteux, en particulier en phase de preuve. Grâce au caractère générique de ces règles de raffinement, un outil de raffinement assisté peut être réalisé, permettant la réduction du côut du processus de raffinement<br>This work presents a formal approach for developing safety database applications. This approach consists of generating relational database implementations from formal specifications. We begin by designing the application with graphical notations such as UML, OMT,. . . Then an automatic process is used to translate them into B formal specifications. Using the B refinement process, a set of refinement rules, acting on both data and operations (programs), are applied on the specifications. These refinement process is generally a manuel and very costy task especially in proff phase. Thanks to the generic feauture of the refinement rules, an assistant refiner can be elaborated, allowing the cost of the refienement process to be reduced
APA, Harvard, Vancouver, ISO, and other styles
35

Najjar, Ahmed. "Forage de données de bases administratives en santé." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28162.

Full text
Abstract:
Les systèmes de santé actuels sont de plus en plus informatisés et dotés de systèmes de collecte et de stockage des données. Une énorme quantité des données est ainsi stockée dans les bases de données médicales. Les bases de données, conçues à des fins administratives ou de facturation, sont alimentées de nouvelles données à chaque fois que le patient fait appel au système de soins de santé. Cette spécificité rend ces bases de données une source riche en information et extrêmement intéressante et utile. Elles rassemblent ainsi toutes les données de prestation de soins et pourraient permettre de construire et de dévoiler les processus de soins des patients. Toutefois, malgré cet intérêt évident que représente ces banques de données administratives, elles sont jusqu’à date sous-exploitées par les chercheurs. Nous proposons donc dans cette thèse une approche de découverte de connaissances qui à partir des données administratives brutes permet de détecter des patrons des trajectoires de soins des patients. Nous avons tout d’abord proposé un algorithme capable de regrouper des objets complexes qui représentent les services médicaux. Ces objets sont caractérisés par un mélange de variables numériques, catégorielles et catégorielles multivaluées. Nous proposons pour cela d’extraire des espaces de projection pour les variables multivaluées et de modifier le calcul de la distance entre les objets afin de prendre ces projections en compte. La deuxième nouveauté consiste à la proposition d’un modèle de mélange en deux étapes, capable de regrouper ces objets. Ce modèle fait appel à la distribution gaussienne pour les variables numériques, multinomiales pour les variables catégorielles et aux modèles cachés de Markov (HMM) pour les variables multivaluées. Nous obtenons ainsi deux algorithmes capables de regrouper des objets complexes caractérisés par un mélange de variables. Par la suite, une approche de découverte de patrons des trajectoires de soins a été mise en place. Cette approche comporte plusieurs étapes. La première est l’étape de prétraitement qui permet de construire et de générer les ensembles des services médicaux. Ainsi, on obtient trois ensembles des services médicaux : un pour les séjours hospitaliers, un pour les consultations et un pour les visites. La deuxième étape est l’étape de modélisation et regroupement des processus de soins comme une succession des étiquettes des services médicaux. Ces processus sont complexes et ils nécessitent une méthode sophistiquée de regroupement. Nous proposons ainsi un algorithme de regroupement basé sur les HMM. Finalement, une approche de visualisation et d’analyse des patrons des trajectoires est proposée pour exploiter les modèles découverts. L’ensemble de ces étapes forment le processus de découvertes des patrons des trajectoires à partir des bases de données administratives en santé. Nous avons appliqué cette approche aux bases de données sur la prestation des soins pour les personnes âgées de 65 ans et plus souffrant d’insuffisance cardiaque et habitant à la province de Québec. Ces données sont extraites de trois bases de données : la banque de données MED-ÉCHO du MSSS, la banque de la RAMQ et la base contenant les données concernant les certificats de décès. Les résultats issus de ce projet ont montré l’efficacité de notre approche et de nos algorithmes en détectant des patrons spéciaux qui peuvent aider les administrateurs de soins de santé à mieux gérer les soins de santé.<br>Current health systems are increasingly equipped with data collection and storage systems. Therefore, a huge amount of data is stored in medical databases. Databases, designed for administrative or billing purposes, are fed with new data whenever the patient uses the healthcare system. This specificity makes these databases a rich source of information and extremely interesting. These databases can unveil the constraints of reality, capturing elements from a great variety of real medical care situations. So, they could allow the conception and modeling the medical treatment process. However, despite the obvious interest of these administrative databases, they are still underexploited by researchers. In this thesis, we propose a new approach of the mining for administrative data to detect patterns from patient care trajectories. Firstly, we have proposed an algorithm able to cluster complex objects that represent medical services. These objects are characterized by a mixture of numerical, categorical and multivalued categorical variables. We thus propose to extract one projection space for each multivalued variable and to modify the computation of the distance between the objects to consider these projections. Secondly, a two-step mixture model is proposed to cluster these objects. This model uses the Gaussian distribution for the numerical variables, multinomial for the categorical variables and the hidden Markov models (HMM) for the multivalued variables. Finally, we obtain two algorithms able to cluster complex objects characterized by a mixture of variables. Once this stage is reached, an approach for the discovery of patterns of care trajectories is set up. This approach involves the followed steps: 1. preprocessing that allows the building and generation of medical services sets. Thus, three sets of medical services are obtained: one for hospital stays, one for consultations and one for visits. 2. modeling of treatment processes as a succession of labels of medical services. These complex processes require a sophisticated method of clustering. Thus, we propose a clustering algorithm based on the HMM. 3. creating an approach of visualization and analysis of the trajectory patterns to mine the discovered models. All these steps produce the knowledge discovery process from medical administrative databases. We apply this approach to databases for elderly patients over 65 years old who live in the province of Quebec and are suffering from heart failure. The data are extracted from the three databases: the MSSS MED-ÉCHO database, the RAMQ bank and the database containing death certificate data. The obtained results clearly demonstrated the effectiveness of our approach by detecting special patterns that can help healthcare administrators to better manage health treatments.
APA, Harvard, Vancouver, ISO, and other styles
36

Claramunt, Christophe. "Un modèle de vue spatiale pour une représentation flexible de données géographiques." Dijon, 1998. https://hal.archives-ouvertes.fr/tel-01275819.

Full text
Abstract:
Cette thèse propose la définition d'un modèle de vue spatiale dynamique adapte aux systèmes d'information géographiques. La notion de vue spatiale proposée permet une relative indépendance dans l'interprétation d'un schéma de bases de données spatiales. Les mécanismes classiques de vue, dans le domaine des bases de données, n'intégrant pas la composante spatiale, cette recherche propose la définition d'un formalisme de vue adapté aux bases de données spatiales. Le modèle proposé est défini comme une extension de la vue classique telle qu'elle est identifiée par les bases de données. Le modèle de vue spatiale intègre la représentation de données spatiales et non spatiales. Une vue spatiale est un ensemble ordonné d'atomes de vue spatiale. Chaque atome de vue spatiale est construit à partir de relations et d'opérateurs spatiaux et non spatiaux. Un ensemble d'opérateurs de manipulation de vues spatiales est défini. Ces operateurs permettent la manipulation et la dérivation de nouvelles vues spatiales. La vue spatiale autorise la représentation de modèles spatiaux structurés et cognitifs. La proposition définit un modèle et les opérations qui permettent la décomposition et la représentation d'un processus de déplacement. Le modèle de vue spatiale permet de situer la représentation d'un déplacement dans son contexte géographique à partir de niveaux d'abstraction complémentaires qui intègrent des connaissances partielles. Il associe la description d'un processus de déplacement dans un contexte d'espaces multidimensionnels. La continuité de la représentation d'un déplacement est assurée par l'application de constructeurs de graphes appliqués au cadre de la vue spatiale à travers des concepts de collages et de connexions de vues spatiales. L'application d'opérateurs de graphe permet des changements de niveau d'abstraction dans la représentation des processus navigationnels. La vue spatiale apporte une flexibilité aux utilisateurs dans la représentation de données géographiques. Du point de vue de la modélisation, la vue spatiale permet la représentation de différentes interprétations utilisateurs d'une base de données spatiales. Elle facilite l'évolution du schéma des bases de données spatiales. Elle constitue une forme originale de manipulation et de consultation d'applications géographiques.
APA, Harvard, Vancouver, ISO, and other styles
37

Yesse, Thierry. "Etude du parallélisme massif appliquée à la visualisation interactive de grandes bases de données scientifiques." Rouen, 1998. http://www.theses.fr/1998ROUES086.

Full text
Abstract:
Un moyen de validation et d'interprétation des résultats de calcul numérique intensif est la visualisation graphique. Les exigences de plus grandes précisions conduisent à générer et à traiter des masses importantes de données de l'ordre de plusieurs centaines de millions à quelques dizaines de milliards d'informations et ce, dans des délais courts. Nous avons proposé différents moyens et méthodes permettant d'accélérer le processus de visualisation graphique sur machines à parallélisme massif. Cela va de l'acquisition des données sur disque, à leur traitement où le volume de données peut être bien supérieur à l'espace mémoire, jusqu'au moyen pratique d'appréhender les résultats affichés. Ainsi, nous avons étudié dans un premier temps les moyens de mieux exploiter le potentiel de la machine parallèle ; puis, dans un second temps nous avons complété la visualisation interactive par le traitement des grandes bases de données. C'est après avoir analysé et quantifié les performances des diverses possibilités de répartition en mémoire distribuée, en ayant pris connaissance des différents modèles de représentation visuelle de données scientifiques, que nous avons proposé le meilleur compromis pour placer les données en mémoire pour la visualisation graphique : la 7-views. La base de données est un ensemble d'objets ou DPO dans un espace topologique de processeurs virtuels. L'activité de ces processeurs est régie par l'évolution dynamique des DPO suite aux requêtes de l'utilisateur. L'introduction des processus d'équilibrage de charge à différents niveaux du traitement graphique, a permis de diviser jusqu'a 300 certains temps de traitement sur la MP-1 de 16 k processeurs. Nous avons proposé de nouveaux algorithmes principalement l'expansion-pixel et l'expansion-objet. Les modèles volumiques Maille et Voxelise présentent des qualités particulières en visualisation scientifique. Ils nécessitent néanmoins différents post-traitements pour répondre à l'interactivité des données de grandes tailles. Nous avons développé, dans cette seconde partie du document, un moyen de gérer les données dans une mémoire virtuelle partagée. Celui-ci s'articule autour d'une décomposition automatique des données à la fois en cellules et en niveaux de détails. Enfin, l'exploitation systématique d'un double fenêtrage, permet des investigations plus pratiques et plus conviviales de la masse d'information : il s'agit du concept de fenêtres duales.
APA, Harvard, Vancouver, ISO, and other styles
38

Manouvrier, Maude. "Objets similaires de grande taille dans les bases de données." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090033.

Full text
Abstract:
Le but de notre recherche est d'aborder les problèmes de versions d'objets de grande taille dans les bases de données. Les images sont des objets de grande taille, faiblement structurés, qu'il est possible d'organiser par des structures telles que l'arbre quaternaire. En traitement d'images, les utilisateurs ont besoin de conserver différents états d'une même image, chaque état correspondant au résultat d'une opération ou d'une série d'opérations particulières sur l'image. Ces états peuvent être considérés comme des versions d'images. Nous proposons une structure, l'arbre quaternaire générique, qui stocke des images similaires, la similarité étant définie par une distance entre les arbres quaternaires représentant les images. Deux images sont similaires si leurs arbres quaternaires diffèrent seulement sur un nombre relativement faible de nuds. L'arbre quaternaire générique minimise l'espace de stockage, par partage de parties communes entre images, et permet d'appliquer des opérations sur les images, comme la comparaison d'images, la comparaison d'une même région dans différentes images ou la mise à jour simultanée de différentes images. Les objets de grande taille, fortement structurés, se trouvent naturellement dans les SGBDOO, lors de la manipulation de racines de persistance (ensemble d'identificateurs d'objets), par exemple. Nos travaux permettent également de répondre aux problèmes de redondance lors du stockage des versions d'ensemble ou de collection d'objets. Ces objets de grande taille sont gérés le plus souvent a l'aide de structures d'index comme les arbres b+. Nous proposons des mécanismes de gestion de versions d'arbre b+ pour optimiser la gestion de versions de collection d'objets. Les mécanismes proposés dans cette thèse peuvent être généralisés aux structures d'index arborescentes en général, offrant par conséquent un large domaine d'applications couvrant en particulier les systèmes d'informations géographiques et les entrepôts de données.
APA, Harvard, Vancouver, ISO, and other styles
39

Ubéda, Thierry. "Contrôle de la qualité spatiale des bases de données géographiques : cohérence topologique et corrections d'erreurs." Lyon, INSA, 1997. http://theses.insa-lyon.fr/publication/1997ISAL0116/these.pdf.

Full text
Abstract:
La contribution de ce travail s'inscrit dans le contrôle de la qualité spatiale des données géographiques. Les bases traitées sont les bases existantes et dont les données sont stockées dans un format vecteur (ou filaire). Nous ne nous attacherons pas à un modèle de données particulier, mais nous développerons des techniques adaptables à tout type de bases répondant aux deux critères donns ci-dessus. Les apports de cette étude dans le domaine de l'amélioration de la qualité des données géographiques se situent à deux niveaux complémentaires, conceptuel et sémantique, pour chacun desquels des méthodes de mise en oeuvre sont définies : Au niveau conceptuel sont définies des proporiétés géométriques applicables à des types d'objets géographiques en fonction de la dimension de la forme qui les représente (0,1 ou 2). Cette approche est indépendante du modèle de données et permet la construction d'une liste de propriétés à lui appliquer en fonction des objets qui le composent ; Au niveau sémantique, les relations spatiales entre les objets de la base sont prises en compte au moyen de contraintes d'intégrité topologiques. Elles ont pour but la définition de situations qui doivent ou ne doivent pas exister entre deux entités de la base<br>This work concerns spatial data quality checking in geographical data sets, and especially existing geographical vector databases. Methods developed in this work are not dedicated to a particular data model, but can be adapted to all database fulfilling the two criteria previously given. Concerning the issue of data quality enrichment, this study concerns two complementary levels, namely the conceptual and the semantic level. For each level, processes are developed :- At the conceptual level, geometric properties applicable to geographical data types depending on the dimension of the shape that represents them (0, 1 or 2) are defined. This approach is only based on the objects that compose the database and not on the data model itself. It can then be adapted to every vector geographical data set. - At the semantic level, spatial relation among objects of the database are taken into account by means of topological integrity constraints. They allow to define topological situation that should or should not happen
APA, Harvard, Vancouver, ISO, and other styles
40

Mizi, Mohammed. "Conception et réalisation d'un système de gestion de bases de formulaires." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0055.

Full text
Abstract:
L'objectif de cette étude est le développement d'un système de gestion de base de formulaires (S. G. B. F. ) utilisant tous les outils et les mécanismes internes d'un S. G. B. D. , bâti sur le concept de la relation universelle, pour concevoir et manipuler des formulaires. Dans notre étude nous avons abordé les problèmes de conception de description, de manipulation de formulaires ainsi que des applications combinant un ensemble de formulaires, facilités par l'utilisation du concept de la relation universelle. La description du formulaire a été réalisée à partir des structures des relations de la base qui ont permis la création de schémas simples à partir desquels par composition ou par recouvrement (en utilisant des règles d'héritage), on obtient la structure des formulaires. Cette approche a été enrichie par les extensions apportées au modèle relationnel (spécialisation/généralisation) pour offrir plus de flexibilité dans la conception des formulaires en permettant le partage des objets et l'élaboration des versions. La manipulation a été effectuée grâce aux outils hérités du couplage avec le S. G. B. D. Relationnel et des modules propres tels que: calcul, valorisation, archivage, recherche, restitution, etc. . . Une gestion de l'historique des données permet des reconstitutions fidèles des occurrences de formulaires sans risques d'altération lors d'une mise a jour de la base. Le formulaire est un objet de la base de données. Une occurrence de formulaire sera engendrée à partir de une ou plusieurs relations de la base. Une application sera définie comme un ensemble de formulaires subissant des opérations de traitement<br>The aim of the work deal with the development of form base management system (FBMS) using all tools and intervals mechanisms of a DBMS, built upon the concept universal relation, for to conceive and manipulate forms. We focus on the problems of conception, description, manipulation of forms and applications that combine a set of forms. The description of form is realised from the structure of relations of the Database which allows the creation of sample schema from which we obtain the form structure, by composition (using the inheritance rules). This approach is enriched with the extension of relational model (generalisation/specialization) offering flexibility by abject sharing and manipulation of versions. The manipulation is realised with the tools inherited from coupling with relational DBMS and specific modules : calculation, evaluation, recording, searching, restitution etc. . . The management of historical data facilitate the appropriate occurrence of form without alteration during the update of database. The form is on abject of the database. An occurrence of form will be generated from one or many relations. An application will be defined with form that forms it's interface and data that use it. All forms of an application are stocked in the database.
APA, Harvard, Vancouver, ISO, and other styles
41

Redouane, Abdelkader. "Outil de conception et d'administration des bases de données relationnelles parallèles." La Rochelle, 2000. http://www.theses.fr/2000LAROS037.

Full text
Abstract:
Dans cette thèse, nous abordons le problème d'optimisation du placement de données sur disques pour une architecture parallèle à mémoire distribuée. Le placement de données sur plusieurs disques permet d'augmenter la bande passante en e/s en exploitant au maximum le parallélisme des opérations de lecture/écriture d'une ou plusieurs relations. Dans le domaine des bases de données relationnelles parallèles, le placement de données a été largement étudié pour les architectures à mémoire distribuée et différentes stratégies de placement ont été développées. Pour chaque relation, ce placement peut être réalisé soit par une répartition de la relation sur tous les nuds (un nud est constitué d'un processeur, d'une mémoire et d'un ou plusieurs disques), soit par une répartition sur un sous-ensemble de nuds. Un mauvais placement de données sur les disques peut augmenter le cout de communication entre les nuds et par conséquent dégrader les performances du système. Actuellement, le placement sur disque et la réorganisation périodique de ce placement sont à la charge de l'administrateur. Nous proposons un évaluateur de placement de données sur disques dans un environnement d'exécution parallèle, pour une architecture à mémoire distribuée. Il permet d'estimer le cout d'un placement de données dans un environnement multi-utilisateurs. Cet évaluateur s'appuie sur un modèle de cout. Nous étendons le modèle de cout proposé dans Zait 94 Zait 95 et nous validons ce modèle à l'aide d'études expérimentales connues. Cette extension consiste à prendre en compte les couts d'accès en lecture ou en écriture aux données sur disque, d'intégrer de nouvelles fonctions de cout pour certaines opérations relationnelles et les couts de communication lorsqu'une saturation éventuelle du réseau est engendrée. Finalement, toute exécution concurrente des transactions induit des conflits d'accès aux ressources processeurs et données. Nous les modélisons par un cout moyen d'attente pour accéder à la ressource partagée. Afin d'évaluer la charge du système lors de l'exécution concurrente, nous proposons un modèle stochastique de files d'attente. Nous avons réalisé plusieurs séries d'expériences. Cette expérimentation nous permet d'une part de valider notre évaluateur de placements et d'autre part d'obtenir le placement de moindre cout.
APA, Harvard, Vancouver, ISO, and other styles
42

Mendiboure, Catherine. "Dohql : Une interface avancée pour l'interrogation de bases de données orientées objet et documentaires." Toulouse 3, 1994. http://www.theses.fr/1994TOU30014.

Full text
Abstract:
Dohql (documentary object oriented query language) est une interface de type hypertexte pour l'interrogation d'une base de donnees orientee-objet. Elle propose différents modes d'interrogation qui coopèrent lors de l'expression des recherches: - le mode graphique permet d'exprimer des requêtes portant sur les données factuelles gérées dans la base. Le schéma de la base est représente par un graphe constitue de classes d'objets et de liens sémantiques entre ces classes. La requête est exprimée par manipulation des entités du graphe. - le mode d'expression de requêtes en langage pseudo-naturel permet la recherche d'informations textuelles portant sur le contenu sémantique des documents. - le mode de recherche navigationnelle dans lequel l'utilisateur procède de façon non linéaire, par association d'idées. Différents outils assistent l'utilisateur dans sa démarche de recherche d'information. Au niveau de l'expression des requêtes graphiques, deux aides sont fournies: - un graphe de contexte est associe a chaque classe d'utilisateurs manipulant la base. A l'intérieur du graphe global, il représente les données pertinentes pour la classe. Des requêtes-types sont présentées. Elles décrivent des types de comportement de consultation fréquemment utilises. Au niveau de la recherche documentaire, des graphes représentant le réseau de documents et le thesaurus sont proposes a l'utilisateur. Ils offrent différentes visions du contenu structurel et sémantique de la base
APA, Harvard, Vancouver, ISO, and other styles
43

Schaefer, Xavier. "Bases de données orientées objet, contraintes d'intégrité et analyse statique." Paris 1, 1997. http://www.theses.fr/1997PA010098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Bouaziz, Tarik. "Spécification et contrôle d’intégrité dans les bases de données objet." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0008.

Full text
Abstract:
Nous présentons une approche utilisant des règles actives pour spécifier et contrôler l'intégtité d'une base de données objet. Nous proposons une typologie composée des contraintes structurelles, comportementales et explicites. Les contraintes structurelles sont celles inhérentes aux mécanismes d'abstraction. Les contraintes comportementales permettent de contrôler le comportement local et global des objets, elles correspondent aux préconditions et aux postconditions appliquées aux méthodes et aux transactions. Les contraintes explicites correspondent aux propriétés invariantes de l'application. Nous distinguons deux sous-classes de contraintes explicites : les contraintes statiques qui portent sur la cohérence d'un seul état de la base et les contraintes dynamiques qui portent sur les changements d'états permis de la base. L'influence de 1'héritage sur ces types de contraintes d’intégrité a été étudié, ce qui nous a mené à un ensemble de règles d'héritage des contraintes. Les contraintes structurelles sont définies de manière déclarative à l'aide de constructeurs. En revanche, les contraintes comportementales et explicites sont décrites à l'aide de règles actives. Le comportement des contraintes d'intégrité structurelles est connu en fonction des opérations de mise à jour, ce qui permet la génération automatique des règles actives associées. Nous avons développé un modèle de règles actives spécifique au problème de contrôle d'intégrité. Ce modèle est défini par les trois composantes qui sont, le langage de règles actives, les modèles de représentation et d'exécution des règles. Les principes de ce modèle sont mis en œuvre à l'aide d'un prototype de système d'intégrité, nommé ARIS, qui est implanté sous forme de sur-couche au-dessus du SGBD 02<br>[We present an approach using active rules to specify and control the integrity of an object- oriented databases. We suggest a typology composed of structural, behavioral and explicit constraints. The structural constraints are those inherent to abstraction mechanisms. The behavioral constraints allow to control the local and global behavior of objects, they correspond to preconditions and post conditions applied to methods and transactions. We distinguish two sub-classes of explicit constraints: the static constraints which ensure the consistency of a current state of the database and the dynamic constraints which carry on the changes of authorized states of the database. The int1uence of the inheritance on these integrity constraints was studied, this leads us to propose a set of integrity constraints inheritance rules. The structural constraints are specified in a declarative manner with constructors. However, the behavioral and explicit constraints are specified using active rules. The behavior of structural integrity constraints is known on basis of updates operations, this allows the automatic generation of associated active rules. We developed an active rule mode! adapted to the consistency problem, this model is defined by three components : the active rule language, the knowledge and the execution models. The principles of this model are realized using a prototype of an integrity system, named ARIS, which is implemented with a layered architecture "on top"' of 02 DBMS. ]
APA, Harvard, Vancouver, ISO, and other styles
45

Bordes, Ghislaine. "Interprétation d'images aériennes guidée par une base de données cartographiques : application à l'extraction automatique des routes." Université de Marne-la-Vallée, 1997. http://www.theses.fr/1997MARN0012.

Full text
Abstract:
L'interpretation automatique des images aeriennes pour des applications cartographiques est une tache extrement complexe. Une des solutions pour guider et fiabiliser l'interpretation consiste a utiliser des donnees externes. Dans cette these, l'interpretation des images est guidee par une base de donnees cartographiques : la bd carto. Le theme d'application est l'extraction automatique des routes. La bd carto apporte des connaissances qui permettent de localiser grossierement les routes dans l'image, de connaitre leurs caracteristiques semantiques et contextuelles et donc d'adapter les algorithmes de detection. Toutefois les donnees de la bd carto sont imprecises par rapport aux images aeriennes. La demarche d'interpretation proposee est une demarche descendante. La bd carto est utilisee pour generer des hypotheses de route. L'interpretation de la scene consiste alors a extraire dans l'image les routes correspondant a ces differentes hypotheses, c'est a dire a trouver la position exacte de la route dans l'image. Pour chaque hypothese, le systeme d'interpretation selectionne l'algorithme d'extraction de route le plus adapte et regle ses parametres en fonction des caracteristiques intrinseques et contextuelles de l'hypothese. Pour limiter les effets de l'imprecision des donnees de la bd carto, une strategie de traitement des hypotheses par ordre de facilite est mise en oeuvre : les hypotheses de route qui sont a priori les plus fiables et les plus visibles dans l'image sont traitees en priorite. La strategie d'interpretation proposee a ete implementee dans un systeme-test utilisant deux algorithmes de suivi de route. Une part importante du travail a ete consacree a l'acquisition des connaissances operatoires-notamment des connaissances de controle du systeme- et a la validation de la demarche proposee
APA, Harvard, Vancouver, ISO, and other styles
46

Baujoin, Corinne. "Analyse et optimisation d’un système de gestion de bases de données hiérarchique-relationnel : proposition d’une interface d’interrogation." Compiègne, 1985. http://www.theses.fr/1985COMPI209.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

El, Nemr Ghassan. "Evolution de schéma et d'instances dans les bases de données orientées objet." Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0084.

Full text
Abstract:
La conception et l'exploitation des bases de données orientées objet se fait actuellement selon un processus interactif dans lequel l'évolution du schéma conceptuel et l'évolution des objets sont fortement corrélées. Le traitement de l'évolution est complexe : l'évolution se fait dans certains systèmes avec oubli du passé et perte des données, et dans d'autres systèmes avec maintien du passé par la gestion des versions des objets et la propagation retardée ou immédiate de toute évolution de schéma vers les instances. Dans cette thèse, nous proposons une nouvelle approche de la gestion de l'évolution, basée sur les contraintes. Une logique à quatre valeurs traduisant les états d'une proposition (nécessaire, possible, impossible ou aberrante) est introduite. La définition du type découle de ces quatre valeurs le type est alors formalisé par une conjonction de toutes les contraintes existentielles liées aux attributs du dictionnaire de données, partitionné en univers sémantiques. La classe est représentée par un type et un ensemble de contraintes ; elle est de plus décrite par une expression logique : sa fonction caractéristique. L'objet possède une structure libre, exprimée par des contraintes sur l'un des univers d'attributs, et représenté par une expression logique. Cela permet de définir une relation d'appartenance d'un objet à une classe dès lors que l'expression logique de l'objet implique la fonction caractéristique de la classe. L'appartenance multiple d'un objet à plusieurs classes est ainsi immédiate. L'évolution d'un objet se traduit soit par un changement de l'objet lui-même (valeurs ou structure) soit par le changement d'une des classes du schéma<br>The OODB Conception and Exploitation are made actually within an interactive process where conceptual schema evolution and objects evolution are strongly correlate. Evolution handling is very complex: the evolution is made in some systems by past erasing and in other systems by maintaining objects versions and immediate propagation or differ propagation of any schema evolution towards the objects. In this thesis we propose a new constraint-based approach for the evolution management. A four valued logic is introduced and translate the different proposition states (such necessary, possible, impossible or less meaningful). The type definition result from different combinations of these four values. The type is formalized by conjunction of existential constraints attached to attributes of a data dictionary. The data dictionary is divided to many semantic worlds. The class is represented by a type and a set of constraints: Its characteristic function. Object possesses a free structure expressed by constraints under one semantic world, and represented by a logical expression. This allow to define the object bellowing to a given class, every time the object logical expression verify the class characteristic function. This allow to define the object bellowing to each class which has characteristic function verified by the object logical expression. So, multiple belonging to several classes is immediate. Object evolution is translate by the direct change of object or by change of one class
APA, Harvard, Vancouver, ISO, and other styles
48

Ingold, Ambroise. "Couplage entre les bases de données factuelles et bases de données bibliographiques : Identification dans Medline des gènes décrits dans Flybase et application à l'extraction d'informations sur les interactions génétiques ou moléculaires à partir de publications." Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30009.

Full text
Abstract:
La thèse propose des solutions pour mettre automatiquement en relation des informations bibliographiques avec des informations factuelles. Il s'agit de documenter des encyclopédies en ligne avec des références bibliographiques ou d'extraire des informations directement à partir de la littérature scientifique. Nous avons pris l'exemple des gènes et de leurs interactions chez la mouche (Drosophile). Nous avons mis au point un logiciel qui permet d'identifier dans Medline des gènes décrits dans Flybase (encyclopédie sur la Drosophile) et de reconnaître les textes décrivant des interactions entre ces gènes. La difficulté dans l'automatisation de cette tâche réside dans la complexité de la nomenclature (existence d'alias et d'abréviations, composition de termes utilisant des noms de gènes. Etc. ), dans la confusion possible entre certains noms de gènes et des mots du vocabulaire courant et dans l'absence de mots clefs suffisamment univoques pour marquer les phrases décrivant une interaction<br>This thesis provides solutions to the problems of interaction between bibliographical information and factual information databases by informing on-line encyclopedias of other bibliographical references, and extracting information directly from on-line scientific literature. The case study we took was genes and their interactions in the fly "Drosophila" We created software to find sentences or phrases describing at least one gene's interaction, and to identify genes in Medline (a famous bibliographical database) from their descriptions in Flybase (an on-line encyclopedia of the fly). Difficulties in the computerization of this task were: The absence of high-quality keywords for sentences that describe interactions Possible confusion between some genes' names and common words Gene naming complexity: existence of alias' and abbreviations, composition of terms using names of genes,etc. The program was tested successfully, and the details of the implementation are given in the document
APA, Harvard, Vancouver, ISO, and other styles
49

Benadjaoud, Ghazi Nourdine. "Dee : Un environnement d'échange de données pour l'intégration des applicatons." Ecully, Ecole centrale de Lyon, 1996. http://www.theses.fr/1996ECDL0027.

Full text
Abstract:
L'environnement d'echanges de donnees (dee) remedie a l'isolement des applications. Il permet une coordination et un controle des echanges de donnees entre des applications qui peuvent etre geographiquement eloignees et qui travaillent sur des systemes de gestion de donnees eventuellement differents. Le modele de reference, appele mer (modele extensible de reference), que nous proposons, sert de schema unificateur des donnees traitees par les differentes applications. Le mer est exprime grace au modele objet que nous avons egalement concu. Ce modele, appele mo-mer, est un modele objet qui s'inspire du modele standard defini par le groupe odmg (object database mangement group) odmg 93. Une demarche de construction du mer pour soutenir les concepteurs dans toutes les etapes de modelisation du mer a ete definie. Elle est constituee d'un ensemble de directives et de conseils guidant les concepteurs dans la construction, le maintien et l'evolution du mer. Elle s'appuie sur le caractere extensible du mer et met l'accent sur l'etape d'integration qui nous parait importante pour favoriser une demarche incrementale pour la construction du mer. Nous avons egalement concu un outil qui facilite la conception et le developpement des interfaces locales, les composants necessaires au transfert des donnees des applications vers le dee et vice versa. Cet outil, baptise list (local interface specification tool) prend en compte la diversite des gestionnaires de donnees utilises par les applications. Pour valider nos propositions, nous avons construit le mer des applications septen, realise un outil de generation de translateurs specialises dans le transfert de donnees des bases de donnees relationnelles vers les fichiers, et nous avons egalement realise une maquette du dee.
APA, Harvard, Vancouver, ISO, and other styles
50

Spéry, Laurent. "Historique et mise à jour de données géographiques : application au cadastre français." Avignon, 1999. http://www.theses.fr/1999AVIG1020.

Full text
Abstract:
Le travail présenté est relatif au vaste problème de l'historique et de la mise à jour de données géographiques. Dans cette problématique nous nous sommes plus particulièrement attachés aux opérations d'intégration de données livrées par un producteur à la suite de changements du domaine de référence, au sein d'une application utilisateur. Le domaine visé concerne l'information cadastrale, dans de nombreux pays cette information a fonction de donnée de référence dans de nombreuses applications de type gestion du territoire car les limites de la propriété y figurent. La confrontation avec les pratiques existantes, dans le contexte spécifique de l'informatisation du plan cadastral français nous amène a proposer, pour l'utilisateur une démarche basée sur la détection a priori des modifications que le producteur a effectuées. Il s'agit de limiter l'opération d'intégration aux seuls objets modifiés en les extrayant des données livrées. La démarche s'appuie sur des indicateurs de changement : identifiant et métadonnées d'actualité et de généalogie
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography