To see the other types of publications on this topic, follow the link: Gestion des données (systèmes d'information).

Dissertations / Theses on the topic 'Gestion des données (systèmes d'information)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Gestion des données (systèmes d'information).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pollet, Yann. "Un système de gestion de bases de données opérationnelles pour les systèmes d'information et de communication." Rouen, 1995. http://www.theses.fr/1995ROUES047.

Full text
Abstract:
Le présent mémoire s'inscrit dans le cadre des recherches actuellement menées autour des systèmes d'information et de communication (SIC). Il synthétise nos travaux réalisés dans le but de définir des principes de gestion des données pour les SIC du proche futur, tant en termes de fonctionnalités qu'en termes d'architectures logicielles et de principes d'implémentation. En nous appuyant sur les besoins précis des SIC, et sur les acquis actuels dans le domaine des systèmes de gestion de bases de données (SGBD) sur les plans scientifique (modèles théoriques) et technique (progiciels existants), nous proposons ici un modèle de données spécifiquement adapté aux besoins des SIC, incluant en particulier une représentation de l'espace et des données géographiques. A ce modèle est associé un formalisme d'interface de haut niveau entre applicatifs et base de données, reposant sur l'utilisation d'un langage à objet standard (C++), et s'inscrivant dans la logique de développements de nature industrielle. Nous avons étudié par ailleurs des principes d'architecture permettant la réalisation d'implémentations simples et efficaces de ce modèle sur la base des progiciels de gestion industriellement éprouvés existant aujourd'hui (SGBD relationnels, systèmes d'information géographique, systèmes de gestion électronique de documents, etc. ), ou encore sur leurs évolutions prévues à court terme dans le respect des standards. Enfin, à partir de ces principes, un prototype d'un tel composant de gestion de données a été développé dans le but de confirmer l'apport des concepts proposés
APA, Harvard, Vancouver, ISO, and other styles
2

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Full text
Abstract:
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
APA, Harvard, Vancouver, ISO, and other styles
3

Hajji, Hicham. "Gestion des risques naturels : une approche fondée sur l'intégration des données." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0039/these.pdf.

Full text
Abstract:
La mise en oeuvre d'architectures ou de solutions de systèmes d'information géographique peut différer d'un cas à l'autre en fonction des objectifs et des besoins des applications. Dans la gestion des risques naturels, la conception de tels systèmes doit répondre à plusieurs problématiques comme l'hétérogénéité sémantique des données, la diversité des formats et des modèles de données, le caractère spatio-temporal de la gestion. Dans cette thèse, nous avons essayé de répondre à ces besoins en présentant une architecture de référence pour un système d'information pour la gestion des risques. Deux aspects ont été détaillés dans cette architecture: l'intégration des données et le développement d'une ontologie pour les risques. Le problème d'intégration des données a été abordé en utilisant le standard OpenGIS qui offre à la fois une définition équivoque des types de primitives géométriques, une prise en compte de la dimension temporelle, et un mécanisme pour la description des métadonnées. Une méthodologie d'intégration a été proposée comme un cadre pour assister: 1) à la transformation des schémas des données vers le modèle OpenGIS, 2) à l'identification des correspondances entre les éléments identiques, et 3) leur intégration dans un schéma intégré. L'ontologie a été développée pour éliminer la confusion sémantique entre les acteurs de la gestion des risques, et pour la modélisation du domaine en proposant un ensemble de concepts nécessaires à la description de la procédure de gestion des risques. Finalement, en relation avec le contrat CIFRE dont j'ai bénéficié, quelques systèmes d'information opérationnels sont présentés traitant de la procédure de gestion des risques
There is a huge geographic data available with many organizations collecting geographic data for centuries, but some of that is still in the form of paper maps or in traditional files or databases, and with the emergence of latest technologies in the field of software and data storage some has been digitized and is stored in latest GIS systems. However, too often their reuse for new applications is a nightmare, due to diversity of data sets, heterogeneity of existing systems in terms of data modeling concepts, data encoding techniques, obscure semantics of data,storage structures, access functionality, etc. Such difficulties are more common in natural hazards information systems. In order to support advanced natural hazards management based on heterogeneous data, this thesis develops a new approach to the integration of semantically heterogeneous geographic information which is capable of addressing the spatial and thematic aspects of geographic information. The approach is based on OpenGIS standard. It uses it as a common model for data integration. The proposed methodology takes into consideration a large number of the aspects involved in the construction and the modelling of natural hazards management information system. Another issue has been addressed in this thesis, which is the design of an ontology for natural hazards. The ontology design has been extensively studied in recent years, we have tried throughout this work to propose an ontology to deal with semantic heterogeneity existing between different actors and to model existing knowledge present for this issue. The ontology contains the main concepts and relationships between these concepts using OWL Language
APA, Harvard, Vancouver, ISO, and other styles
4

Petiot, Guillaume. "Fusion d'informations symboliques et de données numériques pour la gestion des crues." Toulouse 3, 2005. http://www.theses.fr/2005TOU30291.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Boumediene, Mohamed Salah. "Définition d'un système générique de partage de données entre systèmes existants." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0125/these.pdf.

Full text
Abstract:
Le travail de ma thèse s'inscrit dans la problématique de l'intégration de bases de données et de la confidentialité des données échangées. Le but est de résoudre les problèmes liés à la création des schémas médiateurs. Nous avons proposé une solution qui génère une vue unifiée de différentes bases de données en minimisant au maximum les interventions manuelles. Pour ce faire nous décrivons en premier chaque schéma à intégrer à l'aide de termes issus d'une ontologie. Cette description crée pour chaque base de données un document XML. Ces documents sont ensuite utilisés pour la création du schéma médiateur et des règles de correspondances. Afin d'exploiter le schéma médiateur nous avons créé un médiateur qui permet aux utilisateurs d'interroger les différentes bases de données via la vue unifiée. Afin d'alléger le processus de saisie des données nous avons utilisé le système DRUID qui permet aux utilisateurs de saisir les données sous forme de documents qui seront ensuite traités pour alimenter les bases de données. Afin de gérer la confidentialité dans la saisie et la consultation des données nous avons proposé d'utiliser des modèles de documents (DTD) pour chaque profil utilisateur, que ce soit pour les documents en écriture ou en lecture. Ces DTD sont générés automatiquement à partir du schéma de la base de données et modifiées ensuite pour chaque type d'utilisateur à partir des droits sur la base de données. Notre solution a été appliquée dans le domaine médical en consultant un dossier médical réparti
My thesis deals with the database integration problems and the confidentiality of the exchanged data. My aim, however, is to solve the problems related to the mediator schema creation. We proposed a solution which will generate a global view of the different databases by reducing, considerably, the manual interventions. To achieve this, we will describe, at the beginning, each schema using ontologic terms. This description will create for each database an XML file which will be used ,then, for the creation of mediator schema and the matching rules. In order to process the mediator schema, we created a mediator that allows users to query the different databases trough the global view. To lighten the data input process, we used the DRUID system which allows users to input their data under the form of files which will be processed, then, to populate the databases. To handle the confidentiality of the data entry and access, however, we proposed the use of (DTD) documents models and files to each type of user's profil, whether, for writing or reading files. These DTD are generated, automatically, from the database schema and then modified, for each user type according to their rights on the database. Our solution was applied in the medical domain through the consulting of a distributed medical file
APA, Harvard, Vancouver, ISO, and other styles
6

Tea, Céline. "Retour d'expérience et données subjectives : quel système d'information pour la gestion des risques ?" Phd thesis, Paris, ENSAM, 2009. http://pastel.archives-ouvertes.fr/pastel-00005574.

Full text
Abstract:
Cette étude traite de la problématique de la mise en œuvre et de la définition d'une stratégie de gestion de risques à partir de l'étude du système d'information. Le retour d'expérience est conçu, dans une vision classique comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio techniques complexes. Le futur n'est pas déterminé par le passé. Il s'avère nécessaire de compléter le système d'information supportant la gestion des risques. Il faut passer d'un système fondé sur des informations extraites des expériences incidentelles du système à piloter à un système d'information qui intègre au mieux l'expérience des hommes qui le font fonctionner. Les connaissances tacites des employés doivent alors être élicitées. Une aide à la décision issue du courant de l'analyse de la décision le permet. Les analyses de risques à mener sont des lieux d'élaboration de sens collectif. Nous ouvrons ainsi la voie à une véritable ingénierie du subjectif fondement d'un système de management au sein duquel la vision d'ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales peuvent cohabiter.
APA, Harvard, Vancouver, ISO, and other styles
7

Levy, Philippe. "Développement de produits en ingénierie concourante : système d'information pour la gestion des problèmes d'interfaces." Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX30057.

Full text
Abstract:
Le développement de produits complexes en ingénierie concourante implique la décomposition des produits en sous-ensembles puis leur intégration et la coordination des équipes responsables des sous-ensembles. Or, de nombreuses imperfections dans la coordination de ces équipes débouchent pendant les phases avancées de développement sur des problèmes techniques appelés problèmes d'interfaces, pénalisants en terme de coût et de délais. Nous avons pu définir l'origine des problèmes de coordination et nous avons constaté le manque actuel de démarche globale pour aider à la gestion des interfaces. Il nous est alors apparu important de s'intéresser à l'analyse des besoins en informations, aux transactions et aux communications nécessaires pour que les équipes puissent prendre les bonnes décisions. Dans ce contexte, notre contribution consiste à formaliser le processus de résolution d'un problème d'interface. .
The development of complex products in a concurrent engineering approach implies the decompsition of the products in subsets then their integration and the coordination of the teams responsible for the subsests. However, many imperfections in the coordination of these teams come out during the advanced phases of development onto tecnical problems called interfaces problems, penalizing in term of cost and times. We could define the origin of the coordination problems and we noted the current lack of approach to contribute to the management of the interfaces. It then appeared significant to be interested in the analysis of the information requirements, the transactions and the communication necessary so that the teams can make the good decisions. .
APA, Harvard, Vancouver, ISO, and other styles
8

Dubois, Gilles. "Apport de l'intelligence artificielle à la coopération de systèmes d'information automatisée." Lyon 3, 1997. http://www.theses.fr/1997LYO33004.

Full text
Abstract:
Le developpement des technologies de gestion des donnees et de communication entre les systemes provoque la creation d'un nombre toujours plus important de systemes d'information repartis tant a l'echelle de l'organisation qu'a celle de la planete. L'interoperabilite entre ces systemes, autonomes et heterogenes, necessite la definition de processus cooperatifs capables de coordonner les echanges d'information et de reduire les conflits qui en resultent. Une structure federative a base d'objets de differentes granularites est proposee. Cette structure exploite des techniques d'intelligence artificielle pour resoudre les conflits d'ordre structurel et semantique. Une representation dynamique des sources d'information cooperantes permet de suivre leur evolution au cours du temps et assure une description semantique adaptee au traitement de requetes globales. L'autonomie des sources d'information locales est ainsi respectee. Un modele canonique oriente objet assure l'homogeneite de la representation des informations (donnees et connaissances) dans la federation. Une extension de l'architecture proposee exploite les interactions entre agents pour apporter une composante cognitive a la cooperation. Une complementarite entre la structure federative orientee objet et les systemes multi-agents est finalement argumentee. Les choix d'implantation d'un prototype en environnement oriente objet sont presentes
Recent advances in distributed systems, computer network and database technology have changed the information processing needs of organizations. Current information systems should integrate various heterogeneous sources of data and knowledge according to distributed logical and physical requirements. An automated information system is perceived as a set of autonomous components which work in a synergistic manner by exchanging information expertise and coordinating their activities. In order for this exchange to be judicious, the individual systems must agree on the meaning of their exchanged information to solve conflicts due to heterogeneity. We have chosen an object oriented model as canonical model. The object model overcomes component heterogeneity and respects the autonomy of local systems in a distributed context. The cooperation structure uses artificial intelligence techniques to solve both structural and semantic conflicts. A dynamic description of information sources deals with local evolution and is involved in global queries treatment. An extension of the proposal exploits agents interactions to bring cognitive capabilities to the cooperation structure. The contribution of multi-agent systems to information system cooperation is argued. Technical choices to implement a prototype in an object oriented environment are described
APA, Harvard, Vancouver, ISO, and other styles
9

Meyer, Elise. "Acquisition 3D, documentation et restitution en archéologie : proposition d'un modèle de Système d'Information dédié au patrimoine." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10109/document.

Full text
Abstract:
L'activité de documentation du patrimoine archéologique évolue avec le développement des Nouvelles Technologies de l'Information et de la Communication (NTIC). Traditionnellement associée à de l'archivage, la documentation d'un site archéologique peut aujourd'hui également être synonyme de publication, puisqu'elle peut être diffusée en ligne aussi bien à d'autres professionnels qu'au grand public. Cette thèse propose un modèle de Système d'Information dédié à la documentation sur Internet de sites patrimoniaux. Il permet de conserver, gérer et représenter des documents traditionnels, des données issues de relevés bi- et tridimensionnels, mais aussi des résultats de travaux de restitution et d'imagerie. Dans un premier temps, l'étude établit un état de l'art qui permet d'appréhender les moyens actuels et les besoins des professionnels du patrimoine en termes de conservation, visualisation et publication de leurs données. Puis, notre approche considère ces préoccupations pour définir les fonctionnalités du Système d'Information que nous proposons. Sur la base d'exemples issus du patrimoine luxembourgeois (le Château de Vianden et la Villa d'Echternach), nous décrivons la manière dont nous conservons les données et les métadonnées associées, ainsi que les outils développés pour la représentation de ces informations. Nous présentons aussi nos principes de gestion des données, basés sur les liaisons spatio-temporelles qui peuvent exister entre les différents documents. Ces liaisons nous permettent de proposer l'utilisation de graphiques bidimensionnels ou de modèles tridimensionnels comme des supports privilégiés de navigation et d'interaction avec tous les autres documents conservés. Une modélisation globale du Système d'Information, pouvant servir de métamodèle de système de documentation en ligne, nous permet finalement d'ouvrir notre champ d'application à d'autres domaines comme l'architecture ou le génie civil
The documentation of archaeological heritage is an activity that evolves with the development of the New Information and Communication Technologies (NICT). Traditionally associated with recording, the documentation of an archeological site is also today synonym of publication, because it can be disseminated on-line both to other professionals and to the general public. This PhD thesis proposes a model of Information System dedicated to the documentation on Internet of patrimonial sites. It allows to record, to manage and to represent traditional documents, data coming from bi-and three-dimensional surveys, but also results of restitution and imagery works. At first, the study establishes a state of the art that allows knowing the current means and the needs of the heritage professionals in terms of conservation, visualization and publication of their data. Then, our approach considers these preoccupations to define the features of the Information System that we propose. On the basis of examples stemming from the Luxemburg heritage (the Castle of Vianden and the Villa of Echternach), we describe the way we keep the data and the associated metadata, as well as the tools developed for the representation of this information. We also present our principles of data management, based on the spatiotemporal connections that may exist between the various documents. These connections allow us to propose the use of bi-dimensional graphics or three-dimensional models as privileged supports of navigation and interaction with all other preserved documents. A global modeling of the Information System, being able to serve as a metamodel of system of on-line documentation, allows us finally to open our scope to other domains like architecture or civil engineering
APA, Harvard, Vancouver, ISO, and other styles
10

El, Khalkhali Imad. "Système intégré pour la modélisation, l'échange et le partage des données de produits." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0052/these.pdf.

Full text
Abstract:
Dans le contexte d'Ingénierie Simultanée et d'Entreprise Virtuelle, un grand nombre d'informations sont utilisées et manipulées. L'exploitation de ces données pose des problèmes de communication tels que l'accès, l'échange et le partage d'informations entre des sites distants et entre des systèmes hétérogènes bien souvent incompatibles. Pour y répondre le projet STEP a été introduit. L'objectif de STEP est de définir une représentation non ambigue͏̈ des données de produit, interprétable par tout système informatique, et couvrant un très vaste domaine de connaissances. Cependant les acteurs travaillant simultanément au développement d'un produit sont nombreux et de spécialités très différentes : Concepteurs, Fabricants, Clients, Marketing, etc. Les points de vue qu'ils portent sur le même produit sont également très différents. Malheureusement les modèles STEP ne permettent pas de prendre en compte cette notion de point de vue. Ainsi, le travail présenté dans cette thèse a pour objectif de mettre en place un cadre méthodologique pour la représentation des points de vue des acteurs de la conception et de la fabrication à différents niveaux d'abstraction. Une infrastructure informatique pour la modélisation, l'échange et le partage des données de produit est également proposée
In Virtual Enterprise and Concurrent Engineering environments, a wide variety of information is used. A crucial issue is the data communication and exchange between heterogeneous systems and distant sites. To solve this problem, the STEP project was introduced. The STandard for the Exchange of Product model data STEP is an evolving international standard for the representation and exchange of product data. The objective of STEP is to provide the unambiguous computer-interpretable representation of product data in all phases of the product’s lifecycle. In a collaborative product development different types of experts in different disciplines are concerned by the product (Design, Manufacturing, Marketing, Customers,. . . ). Each of these experts has his own viewpoint about the same product. STEP Models are unable to represent the expert’s viewpoints. The objective of our research work is to propose a methodology for representation and integration of different expert’s viewpoints in design and manufacturing phases. An Information Infrastructure for modelling, exchanging and sharing product data models is also proposed
APA, Harvard, Vancouver, ISO, and other styles
11

Cyril, Labbé. "Le sens au coeur des systèmes d'information." Habilitation à diriger des recherches, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00809360.

Full text
Abstract:
La mise en réseau des dispositifs de gestion de l'information, qu'ils soient de petite taille (capteur - dispositif) ou de grande taille (cluster -super calcu- lateur) accompagnent et accélèrent l'émergence d'une informatique ubiquitaire. Ce mouvement de fond entraîne une explosion, tant de la quantité que de la diversité de l'information disponible. Le sens même de ces informations est souvent ignoré par les traitements opérés dans les couches basses des systèmes qui gèrent ces informations. Dans un contexte où les sources d'information deviennent surabondantes, l'exé- cution de l'opération la plus élémentaire, portant sur la plus élémentaire des in- formations, passe par la maîtrise du sens associé aux données manipulées. Une des évolutions majeures à venir est donc, l'intégration, au cœur des systèmes, du sens associé à l'information et aux processus de traitement. Les domaines plus particulièrement développés sont la recherche de sens dans les textes et la gestion de données dans les systèmes ubiquitaires à grande échelle. Ces recherches ont été conduites au sein de la communauté IMAG et se poursuivent aujourd'hui dans l'équipe SIGMA - laboratoire LIG et de l'Université Joseph Fourier.
APA, Harvard, Vancouver, ISO, and other styles
12

Follin, Jean-Michel. "Gestion incrémentale de données multi-résolutions dans un système mobile de visualisation d'informations géographiques." La Rochelle, 2004. http://www.theses.fr/2004LAROS131.

Full text
Abstract:
Nous proposons une solution pour présenter et gérer des données spatiales vectorielles multi-résolutions en tenant compte des contraintes liées au contexte mobile (limitations des capacités d'affichage, de stockage et du taux de transfert). Les données sont proposées à l'utilisateur avec une résolution adaptée à l'échelle en adoptant le principe de "zoom intelligent". Le volume de données échangées entre le client et le serveur est minimisé en réutilisant au maximum les donnée déjà disponibles du côté client avec le concept d'incrément". Ce dernier correspond à une série d'opérations permettant de "reconstruire" la représentation d'un objet à une certaine résolution à partir d'une autre résolution du même objet. Nous présentons des modèles de données et de transfert, et des principes pour une gestion incrémentale de données multi-résolutions dans un système mobile de visualisation d'information géographique et montrons leur intérêt par rapport à une stratégie mono-résolution
We propose a solution for presentation and management of vector multiresolution geodata by taking into account constraints related to mobile context (limitations of storage, displaying capacities and transfer rate). Our solution provides users with the LoD ("Level of Detail") in adequation with scale by respecting the well-known "principle of constant density of data". The amount of data exchanged between client and server is minimized in our system by reusing already locally available data when possible. Increment corresponds to an operation sequence allowing reconstruction of LoD of an object from an available LoD of the same object on the client side. Transferring only increment appears more interesting than downloading an "entire" LoD object. We present models of multi-resolution data and transfer, and principles allowing an incremental management of data in a mobile geodata visualization system. Then we prove interest of our multi-resolution strategy in relation to mono-resolution one
APA, Harvard, Vancouver, ISO, and other styles
13

Souris, Marc. "La construction d'un système d'information géographique : principes et algorithmes du système Savane." La Rochelle, 2002. http://www.theses.fr/2002LAROS087.

Full text
Abstract:
Cette thèse présente un travail de recherche et de développement informatique visant à apporter une réponse concrète à la question suivante : comment construire un système d'information géographique complet et opérationnel, en suivant les principes théoriques de la gestion de données et en les adaptant aux données géographiques ? Son objet principal est de montrer sur un exemple concret l'implication des principes théoriques de la gestion de données dans la réalisation pratique d'un logiciel de type SIG. Elle présente l'architecture et la réalisation d'un système d'information géographique opérationnel le système SAVANE - à partir des nombreux concepts, techniques et algorithmes nécessaires à cette réalisation. Ce travail de recherche a été effectué dans le cadre de l'IRD (Institut de recherche pour le développement). Le mémoire reprend l'ensemble des travaux réalisés, en décrivant chaque aspect nécessaire à la construction du système et en expliquant les choix effectués, selon la démarche que nous avons suivie tout au long de ce travail, à savoir : - exposer avec précision tous les aspects concernant la définition et l'utilisation de l'information géographique ; - exposer et développer les principes de la gestion de données (modèle relationnel et objet) pour les étendre aux données localisées ; - développer ou mettre en oeuvre les algorithmes nécessaires à l'implantation de ces principes dans un système d'information ; - construire un système opérationnel, mettant en oeuvre les principes théoriques et répondant à un cahier des charges fonctionnel couvrant l'ensemble des besoins nécessaires à l'utilisation de ce système dans le cadre de projets appliqués, notamment en géographie et dans le cadre de la recherche pour le développement. . L'exposé des méthodes est souvent suivi de la présentation d'algorithmes et de leur réalisation concrète. Des références renvoient fréquemment le lecteur à une annexe contenant l'implantation effective des structures et des algorithmes
This thesis present a work in computer sciences and software development. This purpose is to try to give an answer to the question : " How to build a full geographic information system following the principles of database management adapting it to geographical data ? ". We try to show with the full example of the Savane system how general theory of geographical data and algorithms in computational geometry may be use to build a GIS software. This work is part of a research program from the IRD (Institut de Recherche pour le Développement). The thesis expose all the architecture, methods and algorithms of the system, trying to explain all the options of the system building, in the different areas : definition and utilization of geographical information ; principles of database management systems and extension to geographical data ; algorithms to use to the implementation of this principles in an information system ; construction of an operational system build from the theoretical principles and functional requirements for the use in projects in geography and research for the development
APA, Harvard, Vancouver, ISO, and other styles
14

Léveillé, Valérie. "De l'organisation des données dans les systèmes d'information. Réalisation d'un outil de gestion de données hétérogènes et formelles appliqué à la veille technologique." Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX30003.

Full text
Abstract:
Dans le contexte actuel de la societe de l'information, toute organisation doit disposer d'une information pertinente et fiable pour la prise de decision. Cette attitude active consiste a transformer les informations en connaissances exploitables dans un champ d'action determine. Ce memoire expose la reflexion menee pour concevoir et developper un logiciel d'aide a l'elaboration d'information a valeur ajoutee dans le cadre du systeme de veille technologique. Le premier volet traite des besoins en information des acteurs de l'entreprise et du role-cle joue par les experts dans la phase de creation d'informations utiles a la prise de decisions. Pour mener a bien cette phase, il est necessaire d'organiser les donnees pour faciliter la demarche de creation de sens par les experts. L'organisation des donnees pour la memorisation doit alors etre dissociee de celle destinee a leur interpretation. Un systeme de presentation des donnees doit permettre a la fois leur mise en relation ainsi que l'exploration de l'ensemble de ces donnees par propagation. Apres un etat de l'art des systemes informatiques mis en uvre dans le cadre des systemes d'information, nous avons defini un nouvel outil, regate, plus adapte a l'analyse, par les experts, des donnees formelles du dossier de veille. En octroyant des possibilites de parcours non sequentiel du dossier de veille, regate offre a l'expert les moyens d'explorer l'ensemble des donnees par propagation hypertextuelle. Regate permet une representation synthetique de l'information par compilation des donnees presentee sous forme d'arbre. Les fonctionnalites de regate sont presentees ainsi que trois etudes de cas illustrant la pertinence de l'utilisation de cet outil. En structurant le dossier de facon objective, ce nouvel outil permet un acces guide dans le parcours du dossier d'informations et offre des possibilites de navigation transversale entre les donnees.
APA, Harvard, Vancouver, ISO, and other styles
15

Boukhari, Sanâa. "Les facteurs explicatifs du comportement de contribution aux systèmes de gestion des connaissances intégratifs : le cas des bases électroniques de connaissances." Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX24017.

Full text
Abstract:
La présente thèse a pour objectif d’étudier le comportement de partage des connaissances au moyen des Systèmes de Gestion des Connaissances (SGC). Plus précisément, il s’agit de fournir un cadre explicatif au comportement de contribution aux Bases Electroniques de Connaissances (BEC). La revue de littérature a permis, d’une part de préciser et définir les principaux concepts et les principales notions utilisés dans le cadre de ce travail, et d’autre part de présenter et discuter un cadre théorique mixte sur lequel est basée l’élaboration de notre modèle de recherche. Suivant un raisonnement hypothético-déductif, un modèle explicatif du comportement de contribution aux BEC est proposé. Ce modèle intègre deux variables à expliquer « Partage de connaissances » et « Utilisation du SGC », neuf variables explicatives de type motivationnel, culturel, relationnel, technologique et informationnel, et six variables modératrices de type démographique. Ce modèle est ensuite testé auprès de 388 individus appartenant à un leader mondial de produits alimentaires et une entreprise mondiale spécialisée dans les solutions technologiques. Les données collectées sont traitées en utilisant une analyse exploratoire et une analyse confirmatoire par les méthodes des équations structurelles. Les résultats permettent de mettre en avant les facteurs déterminant le comportement de partage de connaissances au moyen des SGC. Ils permettent ainsi sur le plan théorique d’enrichir les travaux antérieurs portant sur le partage des connaissances, et sur le plan pratique de fournir aux responsables de gestion des connaissances un cadre explicatif du comportement de contribution aux BEC
This thesis aims at studying the knowledge sharing behavior through Knowledge Management Systems (KMS). More specifically, it intends to provide an explanation of contribution behavior to Electronic Knowledge Repositories (EKR). The literature review has allowed to clarify and define key concepts used in this work, and has enabled us to propose and discuss a conceptual framework for the development of our research model. Following a hypothetico-deductive reasoning, a explanatory model of contribution behavior to EKR is proposed. The model included two dependent variables “Knowledge sharing” and “KMS use”, nine independent variables namely motivational, cultural, relational, technological and informational, as well as six moderating variables. The model was later tested with 388 individuals belonging to two companies i. E. A world leader in food industry and a global company specializing in technology solutions. The data collected was analyzed using exploratory and confirmatory analyses through the structural equation modeling techniques. The results showed several factors determining the knowledge sharing behavior through EKR. These results enriched previous studies about knowledge sharing and provided managers an explanation about contribution behavior to EKR
APA, Harvard, Vancouver, ISO, and other styles
16

Jugnet, Albane. "Evaluation des performances des données stratégiques non exprimées en termes de cout : une recherche à partir du cas de l'industrie de l'automobile." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Foissac, Véronique. "Conception et protection du système de gestion de données personnelles d'un établissement de santé." Montpellier 1, 2003. http://www.theses.fr/2003MON10002.

Full text
Abstract:
Grâce au développement des techniques informatiques, sont collectées des quantités importantes d'informations sur des données médicales, considérées comme "données sensibles" par les juristes. Ces progrès offrent des aperçus inattendus d'ordre épidémiologique, biologique mais aussi clinique ou thérapeutique qui s'ouvrent à la faveur de la statistique médicale. La médecine n'en devient que plus ambitieuse mais, en contrepartie, c'est une véritable révolution intellectuelle que les établissements doivent affronter. Cette nouvelle médecine, aujourd'hui à l'état d'ébauche, sera pour tous de manière évidente organisée et coordonnée autour du dossier médical partagé. A terme, le dossier médicale doit devenir le maillon clé du système d'information de santé, véritable réseau de soins partageable entre les différents professionnels de santé. Un des moyens privilégiés dont dispose l'hospitalisation privée pour "sortir de ses murs" est de s'intégrer dans des réseaux dont il faut aujourd'hui définir les éléments. Mais ceci augmente encore le risque de voir ces données utilisées à mauvais escient et de porter préjudice au patient, confronté à une information de plus en plus pointue qui rend difficile la transmission vers des personnes profanes. La problématique est complexe et les intervenants sont multiples. On peut cependant obtenir une vision d'ensemble de la protection juridique existante que ce soit dans le domaine de la santé ou dans le domaine, plus technique, de l'informatique. Cette étude, réalisée dans le cadre d'un contrat CIFRE sous un angle très pratique et pluridisciplinaire permet de s'apercevoir que l'application du droit médical au quotidien peut être plus aléatoire et bien plus difficile qu'il n'y paraît au premier abord
APA, Harvard, Vancouver, ISO, and other styles
18

Hsu, Lung-Cheng. "Pbase : une base de données déductive en Prolog." Compiègne, 1988. http://www.theses.fr/1988COMPD126.

Full text
Abstract:
Ce travail présente un SGBD (Système de Gestion de Base de Données) couplant PROLOG II et VAX RMS (Record Management System). Les LDD (Langage de Définition de Données) et le LMD (Langage de Manipulation des Données) sont implantés en PROLOG et la gestion du stockage et de la recherche des enregistrements correspondant aux faits est déléguée à RMS. L'organisation indexée est adoptée pour fournir un temps de réponse satisfaisant. Une interface écrite en PASCAL assure la communication entre PROLOG et RMS. L'intérêt de PBASE est qu'il peut fonctionner comme un SGBD général ou bien qu'il peut coopérer avec un système expert pour gérer des faits volumineux stockés en mémoire secondaire. L'ouverture vers VAX RDB (Relational DataBase) est aussi possible. Bien que PBASE s'applique aussi bien aux relations normalisées que celles non-normalisées, un module de normalisation est inclus afin d'éviter les problèmes créés par la redondance de données
This thesis describes a relational database system coupling PROLOG II and VAX RMS (Record Management Services). The SQL-like DDL (Data Definition Language) and DML (Data Manipulation Language) are implemented in PROLOG and the management of storage and research of fact record is delegated to RMS. The indexed file organization is adopted to provide a satisfactory response time. An interface written in PASCAL is called to enable the communication between PROLOG and RMS. Once the interface is established, access to the database is transparent. No precompilation is requiert. PBASE can be used as a general DBMS or it can cooperate with an expert system (Our SQL translation module can be considered as such) to manage the voluminous facts stored in the secondary memory. It can also cooperate with VAX RDB (Relational DataBase) to constitute a powerful deductive database. Although PBASE works for normalized relations as well as non-normalized ones, a normalization module is included to avoid the problems caused by the redundancy of data
APA, Harvard, Vancouver, ISO, and other styles
19

Castelltort, Arnaud. "Historisation de données dans les bases de données NoSQLorientées graphes." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20076.

Full text
Abstract:
Cette thèse porte sur l'historisation des données dans les bases de données graphes. La problématique des données en graphes existe depuis longtemps mais leur exploitation par des moteurs de système de gestion de bases de données, principalement dans les moteurs NoSQL, est récente. Cette apparition est notamment liée à l'émergence des thématiques Big Data dont les propriétés intrinsèques, souvent décrites à l'aide des propriétés 3V (variété, volume, vélocité), ont révélé les limites des bases de données relationnelles classiques. L'historisation quant à elle, est un enjeu majeur des SI qui a été longtemps abordé seulement pour des raisons techniques de sauvegarde, de maintenance ou plus récemment pour des raisons décisionnelles (suites applicatives de Business Intelligence). Cependant, cet aspect s'avère maintenant prendre une place prédominante dans les applications de gestion. Dans ce contexte, les bases de données graphes qui sont de plus en plus utilisées n'ont que très peu bénéficié des apports récents de l'historisation. La première contribution consiste à étudier le nouveau poids des données historisées dans les SI de gestion. Cette analyse repose sur l'hypothèse selon laquelle les applications de gestion intègrent de plus en plus en leur sein les enjeux d'historisation. Nous discutons ce positionnement au regard de l'analyse de l'évolution des SI par rapport à cette problématique. La deuxième contribution vise, au-delà de l'étude de l'évolution des sytèmes d'information, à proposer un modèle innovant de gestion de l'historisation dans les bases de données NoSQL en graphes. Cette proposition consiste d'une part en l'élaboration d'un système unique et générique de représentation de l'historique au sein des BD NoSQL en graphes et d'autre part à proposer des modes d'interrogation (requêtes). Nous montrons qu'il est possible d'utiliser ce système aussi bien pour des requêtes simples (c'est-à-dire correspondant à ce que l'on attend en première intention d'un système d'historisation~: récupérer les précédentes versions d'une donnée) mais aussi de requêtes plus complexes qui permettent de tirer parti aussi bien de la notion d'historisation que des possibilités offertes par les bases de données graphes (par exemple, la reconnaissance de motifs dans le temps)
This thesis deals with data historization in the context of graphs. Graph data have been dealt with for many years but their exploitation in information systems, especially in NoSQL engines, is recent. The emerging Big Data and 3V contexts (Variety, Volume, Velocity) have revealed the limits of classical relational databases. Historization, on its side, has been considered for a long time as only linked with technical and backups issues, and more recently with decisional reasons (Business Intelligence). However, historization is now taking more and more importance in management applications.In this framework, graph databases that are often used have received little attention regarding historization. Our first contribution consists in studying the impact of historized data in management information systems. This analysis relies on the hypothesis that historization is taking more and more importance. Our second contribution aims at proposing an original model for managing historization in NoSQL graph databases.This proposition consists on the one hand in elaborating a unique and generic system for representing the history and on the other hand in proposing query features.We show that the system can support both simple and complex queries.Our contributions have been implemented and tested over synthetic and real databases
APA, Harvard, Vancouver, ISO, and other styles
20

Koussa, Chokri. "Implantation d’un système d’information géographique 3D sur Internet pour la gestion des modèles urbains." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/KOUSSA_Chokri_2011.pdf.

Full text
Abstract:
Grâce à des facteurs multiples (progrès continu des outils informatiques en termes de logiciels et matériel, puissance de plus en plus remarquable des outils d’acquisition des données spatiales, généralisation des applications et données spatiales pour un usage de plus en plus étendu, etc. ), on voit naître des applications spatiales de plus en plus sophistiquées que ce soit aux niveaux des outils libres ou commerciaux. Les Systèmes d’Information Géographiques (SIG) se révèlent être des « consommateurs » incontournables des données géo-référencées. Ils constituent des outils très adéquats, voire les plus appropriés, pour l’exploitation de tel type de données. En effet, ils proposent des fonctionnalités diverses qui se focalisent principalement autour de la gestion, l’interrogation et la représentation des données spatiales. Les SIG ont commencé à se généraliser réellement pendant les années 1990. Cependant à l’époque, vu les limites des outils informatiques, les SIG s’intéressaient principalement à des données spatiales 2D. Vers la fin des années 1990 et pendant la première décennie du 21ème siècle, les développeurs des SIG se sont orientés vers la 3D pour la représentation des données spatiales dans le SIG. Le concept de SIG 3D est ainsi devenu omniprésent et un axe de recherche très répandu dans la communauté scientifique. Comme le progrès des SIG est lié de très près au progrès des technologies informatiques, Internet est devenu rapidement un moyen très prometteur pour la diffusion en ligne des applications SIG. De ce fait, les SIG 2D sont aujourd’hui nombreux sur Internet. Les SIG 3D restent par contre encore assez rares. C’est dans ce contexte que s’inscrivent nos travaux de thèse. En effet, l’objectif principal consiste à développer le prototype d’un SIG 3D accessible via Internet. Les SIG étant des outils multidisciplinaires faisant appel à des concepts et technologies très variés (modélisation des données, bases de données, outils de développement, 3D, etc. ), nos travaux de thèse vont porter essentiellement sur les concepts basiques des SIG 3D : la modélisation tridimensionnelle des données spatiales, la modélisation des Bases de Données Spatiales (BDS, l’intégration des données spatiales dans la BDS, etc. ), mener une réflexion sur les fonctionnalités d’interrogation des données spatiales, le développement d’une application Web permettant d’accéder en ligne à tous les services proposés par le SIG. Quant aux technologies à utiliser pour le développement du SIG, nos choix se sont orientés principalement vers les outils libres. L’objectif consiste à étudier les différentes technologies mise en oeuvre ainsi que leur combinaison pour la mise en place d’un SIG 3D fonctionnel et accessible via Internet
Due to a lot of reasons, i. E. Continuous progress of computer tools in terms of software and hardware, the development of powerful spatial data acquisition tools, the generalization of spatial data and applications for an extended use, etc. A lot of spatial applications, more and more sophisticated, are carried out either as free or commercial tools. The Geographic Information Systems (GIS) are proving to be major consumers of geo-referenced data. They consists in adequate, or even the most appropriate, tools for using such kind of data. Indeed, they offer various features that focus especially on the management, interrogation and representation of spatial data. The real beginning of GIS generalization was in the 1990s. But then, given the limits of computer tools, GIS were mainly interested in 2D spatial data. While at the late 1990s and during the first decade of the 21st century, GIS developers are oriented to the 3rd dimension for spatial data representation. The concept of 3D GIS then became ubiquitous and a widespread research topic around the world. As the progress of GIS is related mainly to advances in computer technology, Internet has become fastly a very promising way for the online dissemination of GIS applications. Thus, the 2D GIS are now multiple over Internet, while 3D GIS are rare. It is in this context that joins our thesis work. Indeed, the main objective is to develop a 3D GIS prototype accessible via Internet. Because GIS are multidisciplinary tools since they rely on very different concepts and technologies (data modeling, databases, development tools, 3D, etc. ), Our thesis work will focus on the basic concepts of 3D GIS, i. E. Three-dimensional spatial data modeling, spatial databases modeling (BDS, spatial data integration in the BDS), carrying out a reflection on the querying functionality of spatial data, a Web application development to access online all services offered by the GIS, etc. As for the technologies to be used for the development of GIS, our choices were oriented mainly to the free tools. The objective is to study the various technologies implemented and their combination for the establishment of a functional 3D GIS accessible over Internet
APA, Harvard, Vancouver, ISO, and other styles
21

Samara, Tarek. "Multiplicité des utilisateurs et pertinence des systèmes d'information multidimensionnels : l'exemple du secteur bancaire." Paris, CNAM, 2004. http://www.theses.fr/2004CNAM0455.

Full text
Abstract:
Les changements dans l’environnement ces dernières années ont entraîné la création de nouvelles fonctions menant le système comptable à satisfaire une multiplicité d’utilisateurs dont les besoins sont détaillés et spécifiques. Notre objectif consiste à montrer - en prenant l’exemple du secteur bancaire - que cette multiplicité pousse à une réorganisation de l’architecture selon une approche multidimensionnelle. En s’appuyant sur un cadre théorique combinant les théories événementielle et de la contingence, nous avons réalisé deux études de cas et une analyse quantitative de 52 questionnaires. Cela a démontré la pertinence de l’approche multidimensionnelle - dont l’application est aussi bien partielle que contingente - vers laquelle évolue le modèle comptable devenant de plus en plus un module au sein d’un progiciel de gestion intégrée. Une typologie de situations a illustré l’importance des systèmes d’information hybrides en tant qu’étape intermédiaire dans cette évolution
The changes in the environment these last years involved the creation of new functions obliging the accounting system to satisfy a multiplicity of users whose needs are detailed and specific. Our objective consists in showing – with the example of the banking sector - that this multiplicity leads to a reorganization of architecture according to a multidimensional approach. Relying on a theoretical context which combines the theories of event and of the contingency, we carried out two case studies and a quantitative analysis of 52 questionnaires. That showed the relevance of the multidimensional approach - whose application is partial as well as contingent - towards which the accounting model evolves becoming more and more a module within an enterprise resource planning. A typology of situations illustrated the importance of hybrid information systems as an intermediate stage in this evolution
APA, Harvard, Vancouver, ISO, and other styles
22

Jomaa, Hanene. "Contribution de l'usage des systèmes d'information à la performance des organisations." Phd thesis, Paris, Télécom ParisTech, 2009. https://pastel.hal.science/pastel-00730391.

Full text
Abstract:
Sur la base d'une étude de cas longitudinale, ce travail de recherche a pour objectif d'examiner les modalités de contribution de l'usage des systèmes d'informations à la performance de l'entreprise. Une analyse économétrique vient approfondir cette étude pour permettre d'évaluer a contribution de chaque facteur à la performance des organisations
The aim of this work is to analyse how the use of information system can increase the organization's performance
APA, Harvard, Vancouver, ISO, and other styles
23

Jomaa, Hanene. "Contribution de l'usage des systèmes d'information à la performance des organisations." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00730391.

Full text
Abstract:
Sur la base d'une étude de cas longitudinale et d'une analyse économétriques de données de panel, ce travail de recherche a pour objectif d'analyser les modalités de contribution de l'usage des systèmes d'information à la performance de l'entreprise.
APA, Harvard, Vancouver, ISO, and other styles
24

Bosco, Michel. "Contribution à la spécification et à la conception de systèmes d'information intelligents pour le génie logiciel." Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0004.

Full text
Abstract:
Les logiciels sont fréquemment, aujourd'hui, des ensembles d'outils, des "ateliers" dont l'aspect intégré est un point fort: Cette intégration, est, le plus souvent, obtenue par l'utilisation d'un Système d'Information qui supporte les informations partagées par les outils. Nos travaux ont consisté à examiner quelles étaient aujourd'hui les lacunes des logiciels proposés pour construire des Systèmes d'Information et de définir certains concepts qu'il fallait leur ajouter. Nous avons aussi réalisé un prototype qui les implémente, en nous appuyant sur un système de gestion de bases de données relationnelles, un langage logique (Prolog), et un système de gestion de fichiers. Ce travail a pris le nom d'Impish, et s'inscrit dans le cadre du projet ESPRIT P938, "Integrated Management Process Workbench", dont l'objectif est de réaliser un atelier de gestion de projets logiciels.
APA, Harvard, Vancouver, ISO, and other styles
25

Galtié, Jean-François. "Information géographique numérique pour l'environnement : approche hiérarchique, modélisation et gestion prévisionnelle du risque incendie en région méditerranéenne : couplage données terrain : données de télédétection-video et intégration opérationnelle sous SIG." Toulouse 2, 1997. http://www.theses.fr/1997TOU20045.

Full text
Abstract:
Ce travail a pour ambition de contribuer a l'amelioration de la prevision du risque incendie de vegetation en zone mediterraneenne. L'etude a ete conduite dans le massif des aspres (pyrenees-orientales), region de collines regulierement parcourues par le feu. Les resultats presentes repondent a un double objectif : - d'une part, verifier experimentalement que la detection precoce du risque a partir des caracteristiques de reponse spectrale des combustibles etait possible et fiable aux differentes echelles d'observation d'approche hierarchique ; - d'autre part, mettre en place une demarche a la fois methodologique et operationnelle de gestion previsionnelle du risque, qui reponde aux exigences des principaux acteurs concernes en matiere d'aide a la decision. Le premier de ces objectifs a ete realise, a travers le couplage entre donnees sol et donnees teledetectees, par modelisation de la sensibilite au feu (inflammabilite/combustibilite) du combustible, a partir des parametres biologiques et descripteurs de l'etat hydrique, pour lesquels ont ete determinees les caracteristiques spectrales potentiellement teledetectables, en particulier dans les differentes bandes spectrales de l'instrument video experimente. Un indice de susceptibilite au feu, le fisbi, etabli a partir des reponses dans la bande mir, a notamment ete propose. La modelisation a ete conduite a trois echelles d'observation principales emboitees, depuis la "particule" vegetale et la plante jusqu'a la formation vegetale. La methodologie developpee pour atteindre le second objectif repose essentiellement sur la conception et la mise en oeuvre d'un systeme integre de detection precoce et d'alerte tirant parti des modeles precedents et articule autour d'un capteur video aeroporte dont les donnees sont transmises au sol en temps reel, d'un gps et d'un sig gerant et mettant les cartes a jour. Une validation en vraie grandeur de ce dispositif a ete effectuee en collaboration avec les services interesses au cours de l'ete 1996, dans le cadre de l'operation sadfeu
This research aims at improving fire risk forecast in mediterranean shrubs environment. It has been carried out in the hilly wildlands of aspres, in the french eastern pyrenees, a region which is, at regular intervals, devastated by wildfires. The research project was designed in order to achieve two purposes : - on the one hand, the effectiviness of early detection of fire risk by remote sensing, from fuel spectral responses charateristics, had to be checked and confirmed according to the range of observation scales, within a hierarchical approach. - on the other hand, the final purpose of the work was to implement a methodological and operational framework for forecasting and managing fire risk according to the needs of the fire-fighting authorities in relation to decision support. The first objective was carried through by means of coupling both ground and remotly sensed data and of modelling plant fire susceptibility, controlled by fuel inflammability and combustibility, from relationships between biological and plant water status parameters on the one hand and, on the other hand, the potentially dectectable spectral charateristics of fuel. The three spectral bands of the experimental video device were then put to the test. A fire susceptibility biological index (fisbi), worked from mir data, has been suggested. Modelling was realized according the growing observation scales, from elementary plant particle to plant and vegetation cover. The design of the early fire detection and warning system rest on the previous modelling features and was built from and airbone video sensor with real-time ground data transmission, a gps and a gis for managing and bringing up-to-and date the fire risk maps. A full-size validation was carried through in the aspres during the summer of 1996 with the regional fire-fighting authorities
APA, Harvard, Vancouver, ISO, and other styles
26

Tambellini, Caroline. "Un système de recherche d'information adapté aux données incertaines : adaptation du modèle de langue." Phd thesis, Grenoble 1, 2007. http://www.theses.fr/2007GRE10322.

Full text
Abstract:
Tout système de recherche d’information développe une méthodologie formelle ou opérationnelle pour affirmer si les termes de chaque document correspondent à ceux de la requête. La plupart de ces systèmes s’appuie sur l’hypothèse que les termes extraits des documents ont été parfaitement reconnus ou identifiés, et de fait leur fonction de correspondance repose sur une capacité à disposer d'une relation d'égalité entre terme du document et terme de la requête. Notre travail se positionne dans le cas où les données ne s'avèrent pas parfaitement reconnues et donc qualifiées d'incertaines. Dans ce contexte, l'égalité entre termes du document et termes de la requête est remise en cause pour laisser place à la notion de ‘presque égalité'. Nous proposons un système de recherche d'informations adapté aux données incertaines et basé sur le modèle de langue. Nous introduisons la notion d'appariement qui mesure la ‘presque égalité' entre deux termes par le biais de la concordance et de l'intersection. L'appariement s'intègre à la fonction de correspondance. De plus, la valeur de certitude d'extraction des termes fournie par un système d'interprétation s'insère dans la fonction de pondération. Préalablement à la mise en place d'un tel modèle, nous vérifions l'applicabilité des hypothèses de base de la recherche d'information, à savoir la loi de Zipf et la conjecture de Luhn, à des données issues de l'oral, exemple de données incertaines. Le modèle proposé est validé expérimentalement et comparé à des systèmes n'intégrant pas la notion d'incertitude. Enfin, nous présentons une application possible utilisant un système de recherche adapté aux données incertaines : un outil d'aide à la réunion téléphonique
An information retrieval system is based on a formal methodology to assert if terms documents correspond to terms of queries. Most of these systems assume that terms extracted from documents are perfectly recognized which involves that their matching function can consider the equality between terms of documents and terms of queries. Our work occurs in a context where data are not perfectly recognized and thus considered as uncertain. In this case, the equality between terms of documents and terms of queries may be change to the context of 'almost equality'. We propose an information retrieval system adapted to the uncertain data and based on the language model. We introduce the concept of pairing which measures 'almost equality' between two terms by the concordance and the intersection values. The pairing is also introduced in the matching function. Furthermore, the matching function is extended to take into account the extracted terms certainty value computed by an interpretation system. Basic assumptions of information retrieval such as Zipf's law and Luhn's conjecture are first checked. Then, our model is implemented. Our model is experimentally validated and compared with systems which do not integrate the concept of uncertainty. Finally, we present a tool dedicated to phone meeting which is an application using an information retrieval system adapted to the uncertain data
APA, Harvard, Vancouver, ISO, and other styles
27

Tambellini, Caroline. "Un système de recherche d'information adapté aux données incertaines : adaptation du modèle de langue." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00202702.

Full text
Abstract:
Tout système de recherche d'information développe une méthodologie formelle ou opérationnelle pour affirmer si les termes de chaque document correspondent à ceux de la requête. La plupart de ces systèmes s'appuie sur l'hypothèse que les termes extraits des documents ont été parfaitement reconnus ou identifiés, et de fait leur fonction de correspondance repose sur une capacité à disposer d'une relation d'égalité entre terme du document et terme de la requête.
Notre travail se positionne dans le cas où les données ne s'avèrent pas parfaitement reconnues et donc qualifiées d'incertaines. Dans ce contexte, l'égalité entre termes du document et termes de la requête est remise en cause pour laisser place à la notion de ‘presque égalité'. Nous proposons un système de recherche d'informations adapté aux données incertaines et basé sur le modèle de langue. Nous introduisons la notion d'appariement qui mesure la ‘presque égalité' entre deux termes par le biais de la concordance et de l'intersection. L'appariement s'intègre à la fonction de correspondance. De plus, la valeur de certitude d'extraction des termes fournie par un système d'interprétation s'insère dans la fonction de pondération. Préalablement à la mise en place d'un tel modèle, nous vérifions l'applicabilité des hypothèses de base de la recherche d'information, à savoir la loi de Zipf et la conjecture de Luhn, à des données issues de l'oral, exemple de données incertaines.
Le modèle proposé est validé expérimentalement et comparé à des systèmes n'intégrant pas la notion d'incertitude. Enfin, nous présentons une application possible utilisant un système de recherche adapté aux données incertaines : un outil d'aide à la réunion téléphonique.
APA, Harvard, Vancouver, ISO, and other styles
28

Delefosse, Thierry. "Stratégies de recherche d'Informations émergentes pour la compréhension de grands volumes documentaires numérisées : application à la sécurité des systèmes d'information." Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0224.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Chaxel, Frédéric. "Contribution à la gestion et à la conduite des systèmes manufacturiers par les objets nomades de production." Nancy 1, 1995. http://docnum.univ-lorraine.fr/public/SCD_T_1995_0341_CHAXEL.pdf.

Full text
Abstract:
Les travaux présentés dans ce mémoire constituent une contribution à la définition et à la gestion de systèmes d'information répartis dans les structures de production. L'approche proposée repose sur le produit, considère comme un vecteur d'information, qui au cours de son élaboration se comporte comme un agent mettant à disposition et gérant ses informations à destination du processus considéré. Le produit se caractérise en tant qu'acteur de son évolution, par le biais des informations qu'il supporte et qu'il fournit aux prestataires de services qui opèrent les modifications sur son état. Nos travaux de recherche, en exploitant les techniques de l'identification automatique, ont ainsi avancé le concept d'objet nomade de production ou ONP. Apres un état de l'art des travaux dans le domaine et une analyse de la problématique liée à la définition et à la gestion des données d'un produit durant son cycle de vie, en particulier au travers de step, nous détaillons le concept d'ONP. A des fins de mise en œuvre du concept, nous avons spécifié une structure d'accueil appuyée par une méthodologie de réalisation d'un système d'information métier distribué sur des supports mobiles d'identification automatique. Les spécifications d'un modèle en couches de l'interface d'accès aux données du produit sont présentées puis analysées. Une méthode de génération de cette interface, reposant sur un modèle logique de données exprimé dans le langage step-express, est proposée. Enfin une démarche de conception de la partie commandée d'un système de production utilisant le concept d'ONP est présentée. Ces propositions sont supportées par un outil tag-step, que nous avons développé et dont nous détaillons les fonctionnalités. Il permet la génération des différents supports de données par traduction du modèle express, la distribution des données, ainsi que la configuration automatique de l'interface d'accès aux informations emportées par les produits. Nous vérifions les propositions avancées en prototypant, par simulation, la cellule flexible d'assemblage de l'AIP lorrain.
APA, Harvard, Vancouver, ISO, and other styles
30

Berti-Équille, Laure. "La qualité des données et leur recommandation : modèle conceptuel, formalisation et application a la veille technologique." Toulon, 1999. http://www.theses.fr/1999TOUL0008.

Full text
Abstract:
Les activités liées à la veille technologique sont traditionnellement centrées sur la notion de validation de l'information par expertise. Jusqu'à présent aucun système d'information n'assure (ni n'assiste) l'analyse critique et qualitative de l'information qu'il stocke. La plupart des systèmes d'information actuels stockent des données (I) dont la source est généralement unique, non connue ou non identifiée/authentifiée et (2) dont k qualité est inégale et/ou ignorée. Après avoir analysé le vaste panorama des travaux de recherche dont les problématiques présentent des analogies avec la problématique de la veille, l'objectif était de proposer un environnement permettant la gestion des sources textuelles, des données (souvent contradictoires) extraites de leur contenu et des méta-données de qualité. La contribution de cette thèse est d'apporter une perspective multi-source à la qualité des données en définissant les concepts de base de données multi-sources (BDMS), de qualité de données multi-sources (QDMS) et de recommandation multi-critère. Mon travail s'est axé sur : la proposition d'une méthodologie qui guide pas-à-pas la mise en oeuvre de la qualité des données dans un contexte d'informations mulli-sources ; la modélisation conceptuelle d'une BDMS permettant la gestion de sources, de données multi-sources et t de leur rnéta-données de qualité et proposant des mécanismes de recommandation des données selon leur qualité relative, la formalisation du modèle de données QDMS qui décrit les données multi-sources, leurs méta-données de qualité et l'ensemble des opérations pour les manipuler, le développement du prototype sQuaL pour valider l'ensemble de mes propositions. Les perspectives sont de développer un système d'information spécifique à la veille pour qu'il gère des données multi-sources, prenne en compte la qualité de ses propres données et propose à l'interrogation une recommandation des données basée sur leur qualité relative. A plus long terme, il s'agit de développer le concept de système d'information "introspectif", c'est-à-dire actif et réactif quant à la qualité de ses propres données
Technological Watch activities are focused on information qualification and validation by human expertise. As a matter of facf, none of these systems can provide (nor assist) a critical and qualitative analysis of data they store and manage- Most of information systems store data (1) whose source is usually unique, not known or not identified/authenticated (2) whose quality is unequal and/or ignored. In practice, several data may describe the same entity in the real world with contradictory values and their relative quality may be comparatively evaluated. Many techniques for data cleansing and editing exist for detecting some errors in database but it is determinant to know which data have bad quality and to use the benefit of a qualitative expert judgment on data, which is complementary to quantitative and statistical data analysis. My contribution is to provide a multi-source perspective to data quality, to introduce and to define the concepts of multi-source database (MSDB) and multi-source data quality (MSDQ). My approach was to analyze the wide panorama of research in the literature whose problematic have some analogies with technological watch problematic. The main objective of my work was to design and to provide a storage environment for managing textual information sources, (more or less contradictory) data that are extracted from the textual content and their quality mcta-data. My work was centered on proposing : the methodology to guide step-by-step a project for data quality in a multi-source information context, the conceptual modeling of a multi-source database (MSDB) for managing data sources, multi-source data and their quality meta-data and proposing mechanisms for multi-criteria data recommendation ; the formalization of the QMSD data model (Quality of Multi-Source Data) which describes multi-source data, their quality meta-data and the set of operations for manipulating them ; the development of the sQuaL prototype for implementing and validating my propositions. In the long term, the perspectives are to develop a specific dccisional information system extending classical functionalities for (1) managing multi-source data (2) taking into account their quality meta-data and (3) proposing data-quality-based recommendation as query results. The ambition is to develop the concept of "introspective information system" ; that is to say, an information system thai is active and reactive concerning the quality of its own data
APA, Harvard, Vancouver, ISO, and other styles
31

Gomez, Dario. "Le prototypage basé sur des méta données phase 1 du cycle de développement." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30416/30416.pdf.

Full text
Abstract:
Le processus de conception des systèmes d'information (SI) est un processus long et complexe qui résulte en de nombreux échecs. Le prototypage informatique et la conception guidée par modèles ont été proposés comme une solution en améliorant la qualité des spécifications au début du cycle de vie d'un SI. L'objectif de notre recherche est de mieux orienter l'action de spécification des exigences dans la phase initiale de conception "Communication Client - Concepteur" et dans le début de la phase de développement "Communication Concepteur - Développeur" en utilisant des artefacts de prototypage. Notre travail ouvre concrètement une voie dans laquelle il devient possible d'envisager que toute modification au cours de la vie d'un SI puisse être effectuée à partir du modèle du domaine qui est l'intrant du "prototypeur", qui devient alors le SI lui-même. Mots clés: système d'information; méthodologie de conception; modèle conceptuel de données; spécification déclarative; spécification exécutable; prototype; méta-donnée; architecture applicative
Designing information systems is a lengthy and complex process that leads to numerous failures. Prototyping has been proposed as a solution to improve the specifications' quality in the beginning of an information system's life cycle. Every information system (IS) is based upon the information architecture ; it is, before all, a content about the perceived reality. A "domain" is a formalization of the perceived reality in which the IS users identify the representations of facts (the data) by means of semantic keys. IS designers have to transform this model using their knowledge about the abstract functioning of computers. The objective of our research is to guide the action of requirements specification in the initial design phase of "Communication Customer - Designer" and in the beginning of the development phase "Communication Designer - Developer" using prototyping artifacts. Our work actually opens the way where it becomes possible to envisage that every modification during the information system's life cycle could be done from within the domain model, which is an input for the "prototyper" and becomes then itself an information system. Keywords : information system ; design method ; conceptual data model ; déclarative specification; executables pecification; prototype ; méta-data ; application architecture
APA, Harvard, Vancouver, ISO, and other styles
32

Pinot, Gilbert. "Concepts multimédia et technologies associées : applications : consultation d'une base de données d'images, bornes interactives." Mulhouse, 1993. http://www.theses.fr/1993MULH0281.

Full text
Abstract:
La manipulation facile d'informations dynamiques hétérogènes telles que le son, la photo, la vidéo, est la caractéristique principale du multimédia dans le but d'améliorer les capacités de communication de l'ordinateur avec l'utilisateur. Cette manipulation est facilitée par l'hégémonie des techniques numériques sur les techniques analogiques : la numérisation du son et de l'image étant le passage obligatoire pour toute utilisation aisée des informations. Malheureusement, la taille de ces données numériques reste très importante, une puissance de travail et des débits de transfert énormes sont nécessaires d'où la création et l'utilisation de processeurs spécialisés dans le traitement numérique du signal. Dans ce travail, nous avons tenté de situer le contexte actuel du multimédia, expliquer les limites techniques actuelles face aux caractéristiques physiques des informations à manipuler, et mis en valeur les solutions apportées aujourd'hui par les techniques de traitement du signal. Ces diverses solutions ont été évaluées au travers de 2 projets concernant des musées. Le premier : intégration d'un système de consultation multimédia sur une base de données d'images. Nous expliquons les contraintes matérielles, les orientations techniques résultantes et l'évolution multimédia du projet. Le second : réalisation d'une borne d'informations interactive dont l'évolution ultime est un environnement interactif. Nous insistons plus particulièrement sur le confort d'utilisation de la borne pour l'utilisateur, surtout au niveau de l'aptitude de celle-ci à répondre extrêmement rapidement à des sollicitations externes
APA, Harvard, Vancouver, ISO, and other styles
33

Menet, Ludovic. "Formalisation d'une approche d'Ingénierie Dirigée par les Modèles appliquée au domaine de la gestion des données de référence." Paris 8, 2010. http://www.theses.fr/2010PA083184.

Full text
Abstract:
Notre travail de recherche s'inscrit dans la problématique de la définition de modèles de données dans le cadre de la Gestion des données de Référence ou Master Data Management. En effet, l'Ingénierie Dirigée par les Modèles (IDM) est un thème en pleine expansion aussi bien dans le monde académique que dans le monde industriel. Elle apporte un changement important dans la conception des applications en prenant en compte la pérennité des savoir-faire, des gains de productivité et en tirant profit des avantages des plateformes sans souffrir d'effets secondaires. L'architecture IDM se base sur la transformation de modèle pour aboutir à une solution technique sur une plateforme de notre choix à partir de modèles métier indépendants de toute plateforme. Dans cette thèse une démarche conceptuelle et expérimentale de l'approche IDM est appliquée à la définition de modèles de données pivot qui sont la base de la Gestion des Données de Référence ou Master Data Management (MDM). Ainsi utilisons nous UML (Unified Modeling Language), comme formalisme pour décrire les aspects indépendants de la plateforme (modèle métier), et nous proposons un métamodèle, sous la forme d’un profil UML, pour décrire les aspects dépendants de la plateforme MDM. Ensuite, nous présentons notre démarche pour passer d'un modèle métier vers un modèle de plateforme pour pouvoir générer le modèle pivot physique. Les apports de cette thèse sont : l'étude d’une approche IDM dans le contexte du MDM, la définition de transformations d’UML vers un modèle MDM (basé sur une structure XML Schema), d'autre part nous apportons un aspect inédit à l’IDM appliquée au MDM à savoir la définition d’une méthode de validation incrémentale de modèles permettant d’optimiser les phases de validation lors de la conception de modèles
Our research work is in line with the problematic of data models definition in the framework of Master Data Management. Indeed, Model Driven Engineering (MDE) is a theme in great expansion in the academic world as well as in the industrial world. It brings an important change in the conception of applications taking in account the durability of savoir-faire and of gains of productivity, and taking profits of platforms advantages without suffering of secondary effects. The MDE architecture is based on the transformation of models to come to a technical solution on a chosen platform from independent business models of any platform. In this thesis, a conceptual and technical thought process of the MDE approach is applied to the definition of pivot data models, which are the base of Master Data Management (MDM). Thus, we use Unified Modeling Language (UML) as formalism to describe the independent aspects of the platform (business model), and we propose a meta-model, in the form of an UML profile, to describe the dependent aspects of the MDM platform. Then, we present our approach to move from a business model to a platform model to be able to generate the physical pivot model. The inputs of the thesis are : the study of a MDE approach in the MDM context, the definition of UML transformations towards a MDM model (based on a XML Schema structure), besides we bring a new aspect to MDE applied to MDM, that is to say the definition of a method for incremental model validation allowing the optimization of validation stages during model conception
APA, Harvard, Vancouver, ISO, and other styles
34

Lévesque, Johann. "Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24759/24759.pdf.

Full text
Abstract:
Depuis l’avènement du numérique, la demande de données par les utilisateurs des systèmes d’information géographique (SIG) ne fait qu’augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s’il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l’expert en qualité doit recueillir de l’information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d’une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l’aide d’opérateurs d’agrégation typiques des outils SOLAP. Il s’agit là d’une solution qui permet de faciliter l’analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l’utilisation du système MUM dans sa forme actuelle. L’objectif de la présente recherche a donc été d’élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d’un jeu de données à l’aide des métadonnées grossières et des opinions d’experts touchant un ensemble d’occurrences. Cette méthodologie amène l’expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l’hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d’hétérogénéité. Il permet en effet de quantifier le risque lié à l’imperfection de l’information contenue dans les indicateurs de qualité. L’enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d’intégrer la dimension « Métaqualité » dans le processus d’évaluation de la qualité.
APA, Harvard, Vancouver, ISO, and other styles
35

Ganzin, Nicolas. "Contribution des données satellites à large champ pour l'aide à la gestion des ressources pastorales en milieu aride et semi-aride au Kenya et en Namibie." Orléans, 2004. http://www.theses.fr/2004ORLE1061.

Full text
Abstract:
Les pâturages des zones arides et semi-arides représentent des ressources précieuses mais vulnérables qui doivent être gérées en adaptant la charge animale à la capacité du milieu, évitant les dégradations dues au surpâturage. Pour cela, une information fiable sur les ressources pastorales est essentielle mais difficile à obtenir sur de grandes zones du fait de la grande variabilité spatio-temporelle. On étudie ici le potentiel des données satellites à large champ pour combler cette lacune. Des images AVHRR et VEGETATION en entrée du modèle de Monteith ont permis d'obtenir des estimations de production de biomasse sur une série de saisons de croissance sur le Kenya et la Namibie. Les résultats sont d'une précision acceptable et la méthode suffisamment simple et souple pour être facilement mise en œuvre de façon opérationnelle avec un large éventail de données satellites. Trois études de cas illustrent l'application de cette information à diverses échelles d'espace et de temps : en Namibie pour une intervention gouvernementale rapide et ciblée en cas de sécheresse, pour la gestion d'une petite zone protégée du Kenya, et dans le cadre de la réforme agraire en Namibie
The rangelands of arid and semi-arid areas represent precious but vulnerable resources. These must be managed by adapting the animal load to the capacity of the land, thus avoiding overgrazing and the degradations that it can induce. In this regard, reliable information on the forage resources is useful but difficult to obtain over large areas due to the great variability in time and space which characterises aridity. This work studies the potential of "wide field" (coarse resolution) satellite imagery to fill-in this gap. AVHRR and VEGETATION images used as main input for the Monteith vegetation production model provided biomass production estimations over a series of growing seasons for two study areas : Kenya and Namibia. The accuracy of the results is acceptable, and the method appears to be sufficiently simple and adaptable to be easily implemented an operational way with a wide range of satellite data. Three case studies illustrate the application of the type of information for rangeland resources management at various scales of space and time : in Namibia for quick and targeted government intervention in case of drought, for the management of a small protected area in Kenya, and to assist in the implementation of the land reform in Namibia
APA, Harvard, Vancouver, ISO, and other styles
36

Bessenay, Carole. "La gestion des données environnementales dans un espace naturel sensible : le système d'information géographique des Hautes-Chaumes foréziennes (Massif central)." Saint-Etienne, 1995. http://www.theses.fr/1995STET2024.

Full text
Abstract:
L'objet de cette recherche est de présenter et d'appliquer sur un territoire choisi les concepts et les potentialités offertes par les systèmes d'information géographique pour aider à comprendre les processus de fonctionnement et de transformation des milieux naturels. Le système d'information géographique des Hautes-Chaumes foréziennes souligne l'intérêt de l'informatisation des méthodes dites de "planification écologique" destinées à intégrer l'environnement au sein des pratiques d'aménagement par l'analyse des aptitudes ou des sensibilités spécifiques d'un milieu. Cette étude repose sur l'inventaire et la représentation cartographique des principales composantes naturelles et anthropiques caractérisant ce domaine : topographie, végétation, humidité, pratiques pastorales. . . La sélection d'un certain nombre de critères autorise ensuite la réalisation d'un diagnostic, fondé sur une approche pluridisciplinaire, qui souligne l'importante fragilité des Hautes-Chaumes. La confrontation de ce diagnostic avec un modèle d'évaluation de la fréquentation conduit alors à proposer un zonage des secteurs les plus vulnérables, à la fois fragiles et soumis à de fortes pressions. Cette analyse devrait ainsi inciter les responsables politiques à concevoir des mesures de gestion différentes selon les enjeux qui pèsent sur chacun des secteurs afin de concilier l'ensemble des usages anthropiques tout en respectant la fragilité de ce milieu naturel
The object of this research is to present and to apply to a specific territory the geographical information systems' concepts and potentialities that can help understand the functioning and evolution processes of natural spaces. The GIS of the "Hautes-Chaumes foreziennes" underlines the interest of a computerization of "ecological planning" methods whose aims are to integrate environment into management practices thanks to the analysis of the specific aptitudes or sensitivities of one space. This study is based on the inventory and the mapping ot the Hautes-Chaumes principal natural and human characteristics : topography, vegetation, humidity, pastoral activities. . . The selection of several criteria allows the elaboration of a pluridisciplinary diagnosis which underlines the important sensitivity of this area. This diagnosis is then compared with an evaluation model of anthropic frequenting in a way to define a zoning of the most vulnerable sectors, which are both sensitive and subject to important pressures. This analysis should urge politicians to conceive differentiated management measures related with the incentives at stake in each area in order to conciliate all anthropic activities while respecting the aptitudes of this natural space
APA, Harvard, Vancouver, ISO, and other styles
37

Barde, Julien. "Mutualisation de données et de connaissances pour la gestion Intégrée des Zones Côtières : application au projet SYSCOLAG." Montpellier 2, 2005. https://tel.archives-ouvertes.fr/tel-00112661.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Corbière, François de. "L'amélioration de la qualité des données par l'électronisation des échanges à l'épreuve des fiches produit dans le secteur de la grande distribution." Nantes, 2008. http://www.theses.fr/2008NANT4020.

Full text
Abstract:
Notre recherche interroge l’influence de l’organisation de l’électronisation des échanges sur l’amélioration de la qualité des données de la fiche produit. La fiche produit est définie comme un ensemble de données décrivant le produit, données qui servent au référencement des produits des industriels par les distributeurs. L’organisation de l’électronisation, dans une perspective processuelle, se réfère aux systèmes d’émission des données, aux systèmes de réception des données et à l’interconnexion entre ces systèmes d’information. Une recherche qualitative fondée sur une approche comparative d’études de cas est menée auprès des distributeurs français et d’industriels. Nous montrons alors que la perception de l’amélioration de différentes dimensions de la qualité des données est dépendante de plusieurs éléments : les architectures mises en place par les organisations et les structures de leurs interconnexions, le degré d’automatisation du processus d’échange et la standardisation des échanges. Notre principale contribution théorique est de mettre en évidence que cet ensemble d’éléments constitutifs de l’électronisation des échanges peut être conceptualisé à travers l’interdépendance entre organisations, définie selon trois niveaux : technique, informationnel et organisationnel. Dans chacun de ces niveaux d’interdépendance, nous construisons un continuum entre deux extrêmes que sont interdépendance dyadique et interdépendance sectorielle. L’interdépendance dyadique renvoie à un ensemble d’interdépendances séquentielles entre deux participants. L’interdépendance sectorielle se réfère à une interdépendance en pool pour l’ensemble des participants
Our research question is concerned with the influence of electronic exchanges organizations on data quality improvement. Product information is a set of data that identify and describe a product of a manufacturer. Electronic exchanges organizations deal with the sending information systems, the receiving information systems and their interconnection. A case study based qualitative research is conducted to understand how electronic exchanges organizations are perceived to participate to data quality improvement from manufacturers’ and retailers’ points of view. Our results show that sending, receiving and interconnected architectures, exchanges automation and exchanges standardization all influence the perceived improvement of some data quality dimensions. In a processing view of exchanges, our main theoretical contribution is to show that this set of factors can all be conceptualized with interdependence. We define interdependence through three levels: technical, informational and organizational. In each of these levels, we propose that interdependence types can be positioned between two extremes that are dyadic interdependence and sector interdependence. Dyadic interdependence refers to multiple sequential interdependencies between two firms. Sector interdependence refers to a pool interdependency between all the firms
APA, Harvard, Vancouver, ISO, and other styles
39

Chevalier, Max. "Interface adaptative pour l'aide à la recherche d'information sur le web." Toulouse 3, 2002. http://www.theses.fr/2002TOU30157.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Ghozzi, Faouzi. "La feuille 1:50000 de Zaouiet Medien (Tunisie N-O) : étude archéologique à travers un Système d'Information Géographique (SIG) de la protohistoire jusqu'à la fin du Moyen Âge." Nice, 2006. http://www.theses.fr/2006NICE2019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Minier, Thomas. "Web preemption for querying the linked data open." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4047.

Full text
Abstract:
En suivant les principes du Linked Open Data, les fournisseurs de données ont publié des milliards de documents RDF via des services publics d’évaluation de requêtes SPARQL. Pour garantir la disponibilité et la stabilité de ces services, ils appliquent des politiques de quotas sur l’utilisation des serveurs. Les requêtes qui excèdent ces quotas sont interrompues et ne renvoient que des résultats partiels. Cette interruption n’est pas un problème s’il est possible de reprendre l’exécution des requêtes ultérieurement, mais il n’existe aucun modèle de préemption le permettant. Dans cette thèse, nous proposons de résoudre le problème relatif à la construction des services qui permettent à n’importe quel utilisateur d’exécuter n’importe quelle requête SPARQL en obtenant des résultats complets. Nous proposons la préemption Web, un nouveau modèle d’exécution qui permet l’interruption de requêtes SPARQL après un quantum de temps, ainsi que leur reprise sur demande des clients. Nous proposons également SaGe, un moteur d’évaluation de requêtes SPARQL qui implémente la préemption Web tout en garantissant un surcoût de préemption minimal. Nos résultats expérimentaux démontrent que SaGe est plus performant que les approches existantes, en termes de temps moyen d’exécution des requêtes et d’obtention des premiers résultats
Following the Linked Open Data principles, data providers have published billions of RDF documents using public SPARQL query services. To ensure these services remains stable and responsive, they enforce quotas on server usage. Queries which exceed these quotas are interrupted and deliver partial results. Such interruption is not an issue if it is possible to resume queries execution afterward. Unfortunately, there is no preemption model for the Web that allows for suspending and resuming SPARQL queries. In this thesis, we propose to tackle the issue of building public SPARQL query servers that allow any data consumer to execute any SPARQL query with complete results. First, we propose a new query execution model called Web Preemption. It allows SPARQL queries to be suspended by the Web server after a fixed time quantum and resumed upon client request. Web preemption is tractable only if its cost in time is negligible compared to the time quantum. Thus, we propose SaGe: a SPARQL query engine that implements Web Preemption with minimal overhead. Experimental results demonstrate that SaGe outperforms existing SPARQL query processing approaches by several orders of magnitude in term of the average total query execution time and the time for first results
APA, Harvard, Vancouver, ISO, and other styles
42

Lbath, Ahmed. "A. I. G. L. E. : un environnement visuel pour la conception et la génération automatique d'applications géomatiques." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0048.

Full text
Abstract:
Les Systèmes d’Information possède des domaines d’application très variés et son souvent difficilement personnalisables pour un utilisateur final non expert. De plus les données gérées dans les SIG peuvent être de nature complexe (vecteur ou rasteur). Le modèles mental de l’utilisateur final n’est pas pris en compte ni dans les langages d’interrogation existants, ni dans les méthodes de conception rencontrées. Face à ces problèmes, les principaux SIG rencontrés offrent des environnements propriétaires et des solutions « clefs en main ». Aussi a-t-il été nécessaire de mettre en œuvre un atelier visuel, nommé AIGLE, dédié à la conception et la génération automatique d’applications géomatiques portables sur plusieurs SIG. La portabilité est garantie par la définition d’un langage intermédiaire qui à été implanté dans l’atelier. La prise en compte du modèle mental de l’utilisateur se concrétise par la définition d’un environnement visuel intégré, d’une part, une méthode de conception « visuelle » orientée objet, nommée OMEGA, base sur l’utilisation de métaphores visuelles et un modèle de validation avec l’utilisateur final dès les phases d’analyse et de conception et d’autre part, la définition d’un langage d’interrogation visuel encapsulant un langage d’interrogation intermédiaire. Afin de valider notre approche, un prototype a été réalisé et validé par la génération d’une application-exemple qui a été commercialisée et installée dans un site pilote
The Geographical Information Systems (GIS) applications domain is very large. Nowadays marketed GfS are closed regarding applications. Each geographical application needs specific development which is time consuming and which is dedicated to a specific GIS. Moreover, in GIS, manipulated spatial data could be complex (raster or vector). Mental model of the end-user is not considered in the method design aspect; it is not taken into account in the query language aspect. Regarding these problems no real solution exists and most of marketed GIS are still proprietary systems. Our aim is to develop a new visual CASE tool named AIGLE, capable of generating various applications on several GIS platforms. The problem of portability leads us to integrate an intermediate language into the CASE tool. This CASE tool supports, in one hand, a visual object oriented method named OMEGA, and, in the other hand, a visual query language. OMEGA is dedicated to the design and development of geographical end-user applications. This method uses a visual iconic metaphors for the representation of object classes and dynamic state diagrams. In the visual query language for GIS two important levels are defined: end-user level with iconic metaphors and technical level with graphical representation of class abject. The iconic metaphors could represent data or queries. For data, iconic metaphors should be defined in the design stage with OMEGA. The proposed visual language is translated into an intermediate query language before being generated into a specific target GIS. In order to validate our approach a prototype has been developed and an example of geographical application has been generated and marketed
APA, Harvard, Vancouver, ISO, and other styles
43

Bacha, Rebiha. "De la gestion de données techniques pour l'ingénierie de production : référentiel du domaine et cadre méthodologique pour l'ingénierie des systèmes d'information techniques en entreprise." Phd thesis, Ecole Centrale Paris, 2002. http://tel.archives-ouvertes.fr/tel-00011949.

Full text
Abstract:
Ce travail traite des problèmes méthodologiques dans les projets de mise en œuvre des Systèmes d'Information Techniques (SIT) en entreprise. Il a pour champ d'application le domaine de l'ingénierie de production. L'objectif est l'amélioration de deux aspects de ces problèmes : le cahier des charges de la maîtrise d'ouvrage et de la maîtrise d'œuvre, et la démarche globale de conduite de ces projets. Pour ce faire, nous proposons un référentiel du domaine, élaboré à l'aide de diagrammes de spécification standards. Orienté expression des besoins en GDT, le référentiel est réutilisable dans les développements futurs de SIT en phase d'analyse du domaine. La démarche d'élaboration du référentiel est rationalisée ; elle se veut un guide méthodologique pour l'ingénierie même des SIT. Elle implique les principaux acteurs suivant un processus itératif. Cette démarche est de plus contextuelle pour mieux appréhender les singularités des projets et suffisamment flexible pour respecter le caractère créatif des métiers d'ingénierie.
APA, Harvard, Vancouver, ISO, and other styles
44

Hamani, Dalil Omar. "Un système d'information pour le bâtiment - Elaboration d'un modèle conceptuel de données pour les ouvrages façonnés en place issus de la production de bâtiment." Aix-Marseille 3, 2005. http://www.theses.fr/2005AIX30035.

Full text
Abstract:
Le présent travail porte sur la description des ouvrages du bâtiment et sur la gestion des informations associées. Cette description initiée dès la phase d'ingénierie, sera enrichie durant la réalisation de l'édifice et maintenu dans la phase d'exploitation par le gestionnaire de l'ouvrage. L'objectif est d'apporter une réponse aux acteurs du bâtiment afin qu'ils puissent s'orienter vers une ingénierie concourante et vers un travail collaboratif au cours du processus de production de bâtiment. Mené à l'UMR 694 MAP dans l'équipe du GAMSAU, notre travail de recherche constitue une contribution à l'élaboration d'un système d'information pour la description des ouvrages du bâtiment, accessible depuis une application CAO et qui autorise le lien entre les objets architecturaux et leurs caractéristiques techniques. Nous montrons l'apport de notre travail dans la mise en place d'un modèle conceptuel de données pour la description des ouvrages façonnés sur place, qui s'appuie sur les caractéristiques d'un ouvrage et sur un ensemble de compromis entre acteurs de compétences interdisciplinaires dans l'activité de production de bâtiment. Notre travail se fonde sur les hypothèses suivantes :1- La description du bâtiment par ouvrage. 2- La description du bâtiment par tâche. 3- La réalisation des ouvrages est une activité de coopération partagée entre plusieurs acteurs. 4- La désignation et la qualification d'un ouvrage depuis un environnement CAO permet d'atteindre sa description technique située sur un serveur de base de données distant. Les expérimentations qui ont été menées dans le cadre de cette thèse sont réalisées autour du SGBD Oracle 9i AS et du système de CAO métier Architectural Desktop. Nous nous appuyons également sur les outils du Web, les formats de structuration et des projets de normalisation comme STEP ou IAI
Our work focuses on information exchanges in the construction activity. We present the contribution of our research to the description of the built elements in the building site where information is shared by partners who are distant from one another and focused on fields of expertise that are distinct but concurrent. Our work aims to provide an information system that promotes cooperation between the buildings actors, by sharing a unique data model among the partners involved in the building construction processes. It takes into account the technical data needed in the different phases of the supply chain management cycle in the construction field. Our research was carried out in the UMR 694 MAP-GAMSAU laboratory, within the framework of the "Communication and tools of CAD" project. It aims to provide a solution to the growing of building partners demand cooperative work during the building production phase. We focused our work on the engineering phase that withstands a vast data exchange. Developed in a cooperative context, our work is based on the following hypothesis : 1- The building description can be made through its elements. 2- The building description can be made through its tasks. 3- Building the elements is cooperative; it requires knowledge, working systems shared between the different partners.  4- The ability and qualification of an element in its CAD background assists its description on a far-away database server. During the implementation phase, the different activities on a building site can be described as a model that integrates all the related tasks and includes all the work practices and requirements shared among the partners of the architectural project. The experiments that took place in this research were based on the Database management system of Oracle 9iAS and the CAD system Architectural DeskTop
APA, Harvard, Vancouver, ISO, and other styles
45

Ghurbhurn, Rahee. "Intégration de données à partir de connaissances : une approche multi-agent pour la gestion des changements." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00785415.

Full text
Abstract:
Au sein des entreprises, un composant vital dans la prise de décision, qu'elle soit globale ou locale, est le système d'information. Celui-ci contient, en effet, les informations nécessaires pour décider, agir, apprendre, comprendre, prévoir et contrôler. Sa structure est généralement liée à l'histoire de l'entreprise dans le sens où cet ensemble s'est constitué d'éléments qui se sont juxtaposés au fil du temps au gré des choix stratégiques formant in fine un ensemble complexe et hétérogène. L'existence de plusieurs systèmes d'information, au sein de grande sociétés, pouvant rendre la recherche d'information difficile pour les utilisateurs métiers. 'objectif de nos travaux consiste à permettre aux utilisateurs d'explorer les connaissances, formulées en terme métier, contenues dans plusieurs systèmes d'informations et de récupérer les données qui leur sont associées. Il s'agit donc de mettre à disposition des utilisateurs une vue globale des connaissances disponibles liées à leurs domaines métiers, tout en dissimulant la diversité des sources d'informations et en garantissant que les données associées sont récupérables malgré les changements qui peuvent se produire au sein des différents systèmes. ans cette thèse nous proposons KRISMAS, une solution d'intégration de données basée une représentation des connaissances métiers et une architecture Multi-Agents. La représentation des connaissances prend la forme d'une ou plusieurs ontologies de domaine permettant aux utilisateurs d'explorer les connaissances des sources de données et de formuler des requêtes pour la récupération des données. Les agents sont utilisés pour l'exploitation de la représentation des connaissances métiers ainsi que pour la gestion des changements au sein d'un système d'intégration
APA, Harvard, Vancouver, ISO, and other styles
46

Meyer, Elise. "ACQUISITION 3D, DOCUMENTATION ET RESTITUTION EN ARCHEOLOGIEProposition d'un modèle de Système d'Information dédié au patrimoine." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00270010.

Full text
Abstract:
L'activité de documentation du patrimoine archéologique évolue avec le développement des Nouvelles Technologies de l'Information et de la Communication (NTIC). Traditionnellement associée à de l'archivage, la documentation d'un site archéologique peut aujourd'hui également être synonyme de publication, puisqu'elle peut être diffusée en ligne aussi bien à d'autres professionnels qu'au grand public. Cette thèse propose un modèle de Système d'Information dédié à la documentation sur Internet de sites patrimoniaux. Il permet de conserver, gérer et représenter des documents traditionnels, des données issues de relevés bi- et tridimensionnels, mais aussi des résultats de travaux de restitution et d'imagerie. Dans un premier temps, l'étude établit un état de l'art qui permet d'appréhender les moyens actuels et les besoins des professionnels du patrimoine en termes de conservation, visualisation et publication de leurs données. Puis, notre approche considère ces préoccupations pour définir les fonctionnalités du Système d'Information que nous proposons. Sur la base d'exemples issus du patrimoine luxembourgeois (le Château de Vianden et la Villa d'Echternach), nous décrivons la manière dont nous conservons les données et les métadonnées associées, ainsi que les outils développés pour la représentation de ces informations. Nous présentons aussi nos principes de gestion des données, basés sur les liaisons spatio-temporelles qui peuvent exister entre les différents documents. Ces liaisons nous permettent de proposer l'utilisation de graphiques bidimensionnels ou de modèles tridimensionnels comme des supports privilégiés de navigation et d'interaction avec tous les autres documents conservés. Une modélisation globale du Système d'Information, pouvant servir de métamodèle de système de documentation en ligne, nous permet finalement d'ouvrir notre champ d'application à d'autres domaines comme l'architecture ou le génie civil.
APA, Harvard, Vancouver, ISO, and other styles
47

Coste, Benjamin. "Détection contextuelle de cyberattaques par gestion de confiance à bord d'un navire." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0106/document.

Full text
Abstract:
Dans le domaine maritime, la maitrise de la navigation et de la conduite d’un navire sont deux aspects essentiels pour la bonne marche et la sécurité du navire, des personnels et la préservation de l’environnement maritime. Or, les navires modernes embarquent de plus en plus de technologies informatisées, connectées et automatisées pour gérer ces fonctions primordiales. Ces technologies (capteurs, actionneurs, automates, logiciels) qui constituent le système d’information (SI) d’un navire peuvent cependant être leurrées ou corrompues par un tiers, remettant ainsi en cause la confiance qui leur est accordée. Dans ce contexte, une nouvelle approche de détection des falsifications des informations fondée sur l’évaluation de la confiance dans les composants du SI est proposée. Du fait de leurcomplexité, les systèmes d’information des navires peuvent être considérés comme des ensembles de blocs fonctionnels inter-reliés qui produisent, traitent et reçoivent des informations. La confiance d’un bloc fonctionnel producteur d’information est évaluée au travers de sa capacité, divisée en deux composantes (compétence et sincérité), à rendre compte de la situation réelle du navire. Elle se propage ensuite, à l’instar de l‘information, aux autres entités du système, quelle que soit leur complexité. Différents scénarios ont été expérimentés grâce à l’élaboration d’un simulateur. La variabilité de la confiance face à des altérations volontaires d’informations numériques permet de déduire la survenue d’une attaque ainsi que sa cible sous certaines conditions. Sans se restreindre aux systèmes navals, l’approche proposée permet de s’adapter à une grande variété de situations incluant le facteur humain. Les travaux de cette thèse ont été soutenus et co-financés par la région Bretagne ainsi que la Chaire de Cyber Défense des Systèmes Navals impliquant l’Ecole Navale, IMT Atlantique, NavalGroup et Thales
Navigation and ship’s management are two essential aspects for the security of the ship itself and people on board as much as the maritime environment protection. Modern ships ensure these functions by increasingly embedding connected and automated technologies such as sensors, actuators, programmable logic controllers and pieces of software. However, the security of this objects as well as the trust in the information they produce cannot be guaranteed: they can be deceived or under the control of a malicious third party. In this context, a novel approach of data falsification detection is proposed. It is based on trust assessment of information system components which can be seen as inter-related functional blocks producing, processing and receiving pieces of information. The trust one can have inproduction blocks, called information sources, is assessed through its ability to report real situation of the ship. Trust is then propagated to the remainder part of the system. A simulator was made thanks to which we experiment several scenarios including intentional modification of numerical data. In these cases and under some conditions, the variability of trust give us the ability to identify the attack occurrence as much as its target. Our proposition is not restricted to naval information systems and can be employed in various situations even with human factor
APA, Harvard, Vancouver, ISO, and other styles
48

Bendriss, Sabri. "Contribution à l'analyse et la conception d'un système d'information pour la gestion de la traçabilité des marchandises dans un contexte de transport multimodal." Le Havre, 2009. http://www.theses.fr/2009LEHA0024.

Full text
Abstract:
Une des solutions permettant de réguler et rationaliser le déplacement physique des marchandises est de réussir à synchroniser le flux physique avec son pendant informationnel tout au long des différents maillons constituant la chaîne de transport. Dans cette optique, une solution de suivi et de traçabilité des marchandises ne peut que contribuer à une meilleure maîtrise des flux. Dans ce mémoire, nous proposons une approche de modélisation des données de la traçabilité des marchandises basée sur des approches de recherche innovantes (PLM, Produit intelligent, Systèmes centrés sur le produit) et tenant compte des possibilités offertes par l’usage des NTIC en terme de partage des données, d’auto-identification et de géolocalisation. Par la suite, afin d'intégrer nos données avec le reste des données de la chaîne de transport mais aussi afin de faciliter l'échange et le partage des données, nous proposons une modélisation et le développement d’une plateforme d'intermédiation générique basée sur la logique des web services. Répondant à des critères d’interopérabilité et d’intégrabilité le résultat permet, à travers des mécanismes d’échange et de sauvegarde des données, de suivre et de resituer le cycle de vie des marchandises dans son intégralité
One of solutions to regulate and rationalize the physical displacement of goods is to succeed to synchronize the physical flow with its informational counterpart throughout the various links constituting the transport chain. In this context, a solution of goods tracking and tracing can contribute to a better mastery of flows. In this memory, we propose a data modeling approach for goods traceability based on innovative research approaches (PLM, Intelligent product, Product centered systems) and taking into account the possibilities offered by the use of NICT in terms of data sharing, auto-identification and geolocation. Then, in order to integrate our traceability data with the other transport chain data, but also in order to facilitate the sharing and the exchange of our data, we propose a modeling and the development of an intermediation platform based on the web services logic. Meeting criteria of interoperability and integrability, the result allows through mechanisms for exchange and saving data to follow and to restore goods lifecycle in its entirety
APA, Harvard, Vancouver, ISO, and other styles
49

Grira, Joël. "Improving knowledge about the risks of inappropriate uses of geospatial data by introducing a collaborative approach in the design of geospatial databases." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25177.

Full text
Abstract:
La disponibilité accrue de l’information géospatiale est, de nos jours, une réalité que plusieurs organisations, et même le grand public, tentent de rentabiliser; la possibilité de réutilisation des jeux de données est désormais une alternative envisageable par les organisations compte tenu des économies de coûts qui en résulteraient. La qualité de données de ces jeux de données peut être variable et discutable selon le contexte d’utilisation. L’enjeu d’inadéquation à l’utilisation de ces données devient d’autant plus important lorsqu’il y a disparité entre les nombreuses expertises des utilisateurs finaux de la donnée géospatiale. La gestion des risques d’usages inappropriés de l’information géospatiale a fait l’objet de plusieurs recherches au cours des quinze dernières années. Dans ce contexte, plusieurs approches ont été proposées pour traiter ces risques : parmi ces approches, certaines sont préventives et d’autres sont plutôt palliatives et gèrent le risque après l'occurrence de ses conséquences; néanmoins, ces approches sont souvent basées sur des initiatives ad-hoc non systémiques. Ainsi, pendant le processus de conception de la base de données géospatiale, l’analyse de risque n’est pas toujours effectuée conformément aux principes d’ingénierie des exigences (Requirements Engineering) ni aux orientations et recommandations des normes et standards ISO. Dans cette thèse, nous émettons l'hypothèse qu’il est possible de définir une nouvelle approche préventive pour l’identification et l’analyse des risques liés à des usages inappropriés de la donnée géospatiale. Nous pensons que l’expertise et la connaissance détenues par les experts (i.e. experts en geoTI), ainsi que par les utilisateurs professionnels de la donnée géospatiale dans le cadre institutionnel de leurs fonctions (i.e. experts du domaine d'application), constituent un élément clé dans l’évaluation des risques liés aux usages inadéquats de ladite donnée, d’où l’importance d’enrichir cette connaissance. Ainsi, nous passons en revue le processus de conception des bases de données géospatiales et proposons une approche collaborative d’analyse des exigences axée sur l’utilisateur. Dans le cadre de cette approche, l’utilisateur expert et professionnel est impliqué dans un processus collaboratif favorisant l’identification a priori des cas d’usages inappropriés. Ensuite, en passant en revue la recherche en analyse de risques, nous proposons une intégration systémique du processus d’analyse de risque au processus de la conception de bases de données géospatiales et ce, via la technique Delphi. Finalement, toujours dans le cadre d’une approche collaborative, un référentiel ontologique de risque est proposé pour enrichir les connaissances sur les risques et pour diffuser cette connaissance aux concepteurs et utilisateurs finaux. L’approche est implantée sous une plateforme web pour mettre en œuvre les concepts et montrer sa faisabilité.
Nowadays, the increased availability of geospatial information is a reality that many organizations, and even the general public, are trying to transform to a financial benefit. The reusability of datasets is now a viable alternative that may help organizations to achieve cost savings. The quality of these datasets may vary depending on the usage context. The issue of geospatial data misuse becomes even more important because of the disparity between the different expertises of the geospatial data end-users. Managing the risks of geospatial data misuse has been the subject of several studies over the past fifteen years. In this context, several approaches have been proposed to address these risks, namely preventive approaches and palliative approaches. However, these approaches are often based on ad-hoc initiatives. Thus, during the design process of the geospatial database, risk analysis is not always carried out in accordance neither with the principles/guidelines of requirements engineering nor with the recommendations of ISO standards. In this thesis, we suppose that it is possible to define a preventive approach for the identification and analysis of risks associated to inappropriate use of geospatial data. We believe that the expertise and knowledge held by experts and users of geospatial data are key elements for the assessment of risks of geospatial data misuse of this data. Hence, it becomes important to enrich that knowledge. Thus, we review the geospatial data design process and propose a collaborative and user-centric approach for requirements analysis. Under this approach, the user is involved in a collaborative process that helps provide an a priori identification of inappropriate use of the underlying data. Then, by reviewing research in the domain of risk analysis, we propose to systematically integrate risk analysis – using the Delphi technique – through the design of geospatial databases. Finally, still in the context of a collaborative approach, an ontological risk repository is proposed to enrich the knowledge about the risks of data misuse and to disseminate this knowledge to the design team, developers and end-users. The approach is then implemented using a web platform in order to demonstrate its feasibility and to get the concepts working within a concrete prototype.
APA, Harvard, Vancouver, ISO, and other styles
50

Delot, Thierry. "Interrogation d'annuaires étendus : modèles, langage et optimisation." Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0028.

Full text
Abstract:
Les travaux menés dans cette thèse se concentrent sur les problèmes de partage, d'interrogation et de médiation rencontrés dans les systèmes d'information de nouvelle génération qui s'articulent autour de sources de données, d'objets, et de composants largement distribués. Dans cet environnement, différents systèmes coexistent : des SGBD, des serveurs LDAP et des architectures à objets distribués. Les limites actuelles des services d'annuaires et leur interaction toujours plus grande avec l'environnemnet qui les entoure (SGBDs, objets,. . . ) nous a amené à étudier la définition d'un service d'annuaires capable, tout en conservant la flexibilité et la compatibilité avec les modèles existants, de proposer des fonctionnalités avancées telles que : la manipulation de données riches englobant des valeurs mais également des programmes, le support adapté pour le partage d'objets et des capacités d'interrogation étendues. En effet, les facilités d'interrogation dans LDAP sont relativement pauvres et il serait intéressant de les enrichir pour permettre des recherches plus complexes incluant des parcours de chemin, des calculs d'agrégats, etc. Le challenge consiste ici à trouver le bon compromis entre le pouvoir d'expression du langage et la charge imposée au service d'annuaires. L'introduction de nouvelles fonctionnalités dans le service d'annuaires a un impact important sur les performances du système, aussi bien du point de vue des temps de réponse que des ressources consommées pour évaluer une requête. Un autre aspect de cette intégration des annuaires avec leur environnement concerne le partage de données communes entre ces différents systèmes, comme les données d'identification par exemple. Pour assurer cette intégration, notre solution consiste à mettre en place une couche de médiation entre les deux systèmes, afin de permettre à un utilisateur de manipuler ses données en utilisant soit le modèle relationnel dans le cax des SGBD relationnels, soit le modèle LDAP.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography