To see the other types of publications on this topic, follow the link: Référentiels (bases de données).

Dissertations / Theses on the topic 'Référentiels (bases de données)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Référentiels (bases de données).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hamaina, Rachid. "Enrichissement des référentiels géographiques pour la caractérisation morphologique des tissus urbains." Ecole centrale de Nantes, 2013. http://www.theses.fr/2013ECDN0030.

Full text
Abstract:
La disponibilité accrue des bases de données géographiques en a fait un produit grand public dont les usages se sont multipliés et diversifiés pour recouvrir la plupart des problématiques à composante spatiale. Ces données ont un caractère générique et ne sont pas toujours adaptées à tous les usages qu'on peut en faire. En effet, elles peuvent être qualifiées de pauvres. D'abord, parce que leurs géométries consistent souvent en des objets cartographiquement généralisés et ensuite parce qu'elles sont très peu informées d'un point de vue sémantique (ou thématique). Ce sont des objets spatiaux qui ne sont généralement pas associés à des informations attributaires susceptibles d'être exploitées directement dans différentes applications métiers. L'enrichissement sémantique et l'extraction de connaissances à partir de ces bases de données génériques est extrêmement utile pour ces applications. Nous nous intéressons ici à l'exploration et l'analyse des données géographiques de base pour en extraire des connaissances utiles à la caractérisation de la morphologie urbaine. Celle-ci étant dénie comme le résultat de l'assemblage spatial des éléments constitutifs de l'environnement urbain, à savoir les rues, les parcelles et les bâtiments. Un modèle de ville très simple pour représenter l'environnement urbain peut être extrait des bases de données géographiques. Il est constitué d'une couche de réseaux viaires sous forme unidimensionnelle (1D) et d'une couche de bâtiments bi ou tridimensionnelle (2D ou 2. 5D) représentée sous forme d'empreintes surfaciques au sol des bâtiments. La caractérisation de la morphologie consiste en l'exploration de la macrostructure spatiale urbaine à partir du réseau de rues et l'analyse de la microstructure spatiale urbaine à partir de la couche des empreintes du bâti. Ainsi, l'analyse de la macro-structure de la ville s'appuie sur la détection de motifs géométriques particuliers qui peuvent être associés à certains types de tissus urbains et ce sans connaissance préalable du contexte et de l'histoire urbaine de la ville en question. L'analyse de la micro-structure spatiale s'appuie en premier lieu sur la construction d'un modèle hiérarchique et multi-échelle morpho-compatible. En deuxième lieu, les propriétés morphologiques sont formalisées et traduits en un ensemble d'indicateurs utilisé dans un processus de classification pour définir des zones urbaines morphologiquement homogènes. Finalement, nous exploitons le même modèle pour développer une nouvelle méthode pour la caractérisation de la densité urbaine comme étant la propriété morphologique la plus utilisée en analyse et aménagement urbains et pour des fins descriptives que prescriptives. Ces méthodes de caractérisation de la morphologie urbaine sont développées dans un environnement SIG, elles sont applicables sur de larges volumes de données, elles utilisent des données pauvres, elles sont reproductibles indépendamment du contexte urbain et permettent de dépasser les caractérisations classiques qui sont essentiellement descriptives et difficilement objectivables<br>The growing availability of geographic databases makes them a great public product for which the uses are extended to cover most of spatial issues. These databases are generic and are usually not suitable for all potential uses. Furthermore, these are semantically poor. Semantic enrichment and knowledge extraction from these data can be very useful for thematic applications. We are interested here by the exploration of geographic databases to extract some useful knowledge for urban morphology characterization. A very simple city model for urban environment can be extracted from geographic databases. This is formed by a 1D street network layer and a (2D or 2. 5D) buildings footprints layer. Morphology characterization consist of the urban spatial macro-structure exploration from street network and urban spatial micro-structure analysis from buildings footprints. The city macro-structure analysis is based on geometric patterns detection. These can be associated to some urban fabric types. This can be done independently of any urban context and history. The spatial micro-structure analysis is based on: First, the construction of a hierarchic and multi-level urban model. This is suitable for morphologic issues. Second, morphologic properties are formalized and traduced to a set of indicators which is used into a clustering process to delineate some morphologically homogeneous urban areas. Finally, the hierarchic model is used to develop a new aware neighborhood density characterization since density is the most used morphologic property in urban design and analysis. These methods of urban morphology characterization are developed in a GIS environment and can be used on huge data. These use poor semantic data, are reproducible independently of urban context and allow improving classic characterizations mainly descriptive and not easily objective
APA, Harvard, Vancouver, ISO, and other styles
2

Foveau, Charles Emmanuel. "Référentiels des compétences et des métiers : une approche ontologique." Chambéry, 2007. http://www.theses.fr/2007CHAMS008.

Full text
Abstract:
La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuels (gestion des connaissances) et humain (gestion des compétences). I1 est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans I' organisation. L' entreprise désireuse de se lancer dans une politique de gestion de ces capitaux devra faire face a différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Nous avons choisi d'appuyer notre proposition sur Ie concept de compétence. En effet, la compétence est parmi les connaissances de I' entreprise I'une des plus cruciales, car derrière les compétences des collaborateurs, se trouve I' efficacité de I' organisation. De plus, il est possible de décrire, grâce à la compétence, de nombreux autres concepts de I'organisation, comme les métiers, les missions, les projets, les formations. . . Malheureusement, il n' existe pas réellement de consensus sur la définition de la compétence et les différentes définitions existantes ne permettent pas de réaliser un système opérationnel. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de rayon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise. Pour les modéliser, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles tout en supportant les diversités langagières. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, I' analyse stratégique, les annuaires ou encore la gestion des CV<br>The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like I identification, extraction and representation of knowledge and competences. We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training. Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management
APA, Harvard, Vancouver, ISO, and other styles
3

Deguil, Romain. "Mapping entre un référentiel d’exigences et un modèle de maturité : application à l’industrie pharmaceutique." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7810/1/deguil.pdf.

Full text
Abstract:
Les systèmes d'information de l'industrie pharmaceutique sont maintenant tenus de respecter des exigences réglementaires imposées par le secteur d'activité. Ces exigences sont listées dans des documents, comme par exemple les GxP pour l'Europe, auxquels les autorités réglementaires se réfèrent. De manière concomitante, l'entreprise peut avoir mis en œuvre des démarches d'amélioration, basées sur des référentiels de bonnes pratiques, comme le sont les modèles de maturité. Le Capability Maturity Model Integration (CMMI) est l’un d’entre eux et est souvent utilisé dans le domaine des systèmes d'information. Ces deux catégories de documents, provenant d'expertise sectorielle pour l'un et d'expertise métier pour l'autre, se recouvrent. Dans un souci d’efficience, leur déploiement ne peut s'imaginer sans une analyse de ce recouvrement, et nécessite la production d'une directive issue des deux sources documentaires pour l'assurance qualité. L'objectif de nos travaux est de mesurer le niveau de correspondance entre ces deux types de référentiels qualité. Pour apporter une réponse à cette question, nous appliquons une démarche d'ingénierie dirigée par les modèles. Un mapping est réalisé entre des modèles de ces deux types de documents. Il a pour but de mettre en relation des connaissances comparables. Nous proposons ensuite une méthode de génération du référentiel cible basée sur des opérateurs logiques, et ce afin de retenir un ensemble minimal de pratiques à déployer assurant le respect des exigences imposées. L'approche est déployée sur un cas d'application industrielle mobilisant 175 exigences des GxP et plus de 800 pratiques issues du CMMI, mais aussi d'autres sources de bonnes pratiques (ISO 9000, ITIL, ...).
APA, Harvard, Vancouver, ISO, and other styles
4

Ferchichi, Anis. "Contribution à l’integration des processus metier : application a la mise en place d'un referentiel qualite multi-vues." Ecole Centrale de Lille, 2008. http://tel.archives-ouvertes.fr/docs/00/29/53/06/PDF/2008-07-08_Memoire_de_these_version_finale.pdf.

Full text
Abstract:
Le croisement de concepts issus de la gestion des processus métier, des normes et standards qualité et de l'interopérabilité nous a permis de nous intéresser à l'organisation et l'intégration des processus métier d'entreprise, pour proposer une démarche de mise en place d'un référentiel qualité multi-vues. Le but de notre travail est de montrer comment intégrer les processus métier d'une entreprise à l'aide d'un référentiel commun offrant différents points de vue. Cette démarche généralisable est appliquée à l'intégration de deux standards de qualité, ISO 9001v2000 et Capability Maturity Model Integration (CMMI), afin de générer un référentiel qualité multi\--vues permettant une certification relative aux deux normes. Ce référentiel prend en compte les chapitres imposés par ISO et les recommandations de CMMI. Dans le cadre de l'implémentation du référentiel, nous nous sommes intéressés à la définition d'une méthodologie d'estimation des délais et charges des projets informatiques afin de rationaliser ce processus critique pour l'entreprise. La mise en place de ce référentiel qualité s'accompagne de la définition d'une démarche assurant l'interopérabilité des processus définis avec ceux des clients et/ou partenaires. Une méthodologie d'audit projet, un référentiel documentaire et un référentiel des compétences viennent compléter le travail déjà réalisé afin d'assurer l'implémentation et le respect du référentiel qualité<br>The use of concepts borrowed from Business Process Management (BPM), quality standards and interoperability allows to be interested by the organization and intergration of enterprise business processes , bringing us to propose a step of implementing a multi-views quality reference. The goal of our work is to present how to integrate several processes using a common reference frame offering various viewpoints. This generalizable step is applied to the integration of two quality standards, ISO 9001v2000 and Capability Maturity Model Integration (CMMI), in order to generate a multi-views quality reference frame allowing a certification relatively to the two standards. This reference frame takes into account chapters imposed by ISO and the recommendations of CMMI. During the implementation of our reference frame, we were interested to the definition of a cost and effort estimation methodology in order to rationalize this critical process for the enterprise. The implementation of the quality reference frame was accompanied by the definition of a step ensuring the interoperability of defined processes with those of customers and/or supplier. An audit project methodology, a documentary reference frame and a competences reference frame were also developed in order to ensure the implementation and the integration of the quality reference frame
APA, Harvard, Vancouver, ISO, and other styles
5

Bartout, Pascal. "Pour un référentiel des zones humides intérieures en milieu tempéré : l'exemple des étangs en Limousin (France)." Limoges, 2006. http://aurore.unilim.fr/theses/nxfile/default/71777958-ff40-4d8d-b575-c46b1256b37f/blobholder:0/2006LIMO2004.pdf.

Full text
Abstract:
Zone humide sujette à débat par l'artificialité de sa création et de son fonctionnement, l'étang intérieur est un objet géographique méconnu en France, notamment dans les régions traditionnellement vouées à une pisciculture intensive. Par ses multiples zones d'ombre, l'étude des étangs en Limousin constitue un terrain intéressant en matière d'échantillonnage d'approches. La première d'entre elles, d'ordre numérique, permet d'utiliser à plein escient les différents outils d'inventaire actuels. Le résultat obtenu avec 22792 plans d'eau, dont plus de 16000 étangs, en fait la première région administrative stagnustre française. En second lieu, une telle approche offre la particularité de comprendre les mécanismes génériques de fonctionnement des étangs, mais également ceux minoritaires et pourtant bien réels, se rapportant aux caractéristiques paysagères et socio-économiques de la région. Ainsi, la visualisation des localisations et autres concentrations fluctuantes, à cause de la variabilité des critères physiques et humains à l'échelle de l'Histoire, permet de réhabiliter une région d'étangs, vieille de près de mille ans, mais trop souvent écartée des discussions à l'échelle nationale. Grâce au référentiel informatisé, utilisant moult items (morphométriques, sociologiques, historiques et physiques), des typologies de plans d'eau, et en particulier d'étangs, apparaissent. Le croisement effectué fournit une régionalisation des étangs, régions de toutes tailles, comme celle référence du Haut-Limousin qui peut être dorénavant considérée comme la première région géographique en terme de nombre et de densité d'étangs en France. Ce travail offre certes une reconnaissance au Limousin, mais avant tout procure un outil de gestion au plus près de la réalité puisque adaptable aux variabilités spatiales des processus limniques.
APA, Harvard, Vancouver, ISO, and other styles
6

Sauvaget, Baptiste. "Constitution de référentiels géochimiques locaux pour les sols et proches sous-sols urbains : de la base de données à l'interprétation géostatistique." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM014/document.

Full text
Abstract:
Les grands réaménagements urbains génèrent d’importants volumes de terres excavées, dont la valorisation est désormais possible si elles sont compatibles avec le fond pédo-géochimique du site receveur. Afin de faciliter cette valorisation, cette thèse s’intéresse à des méthodologies de traitement de données acquises à d'autres fins que la détermination du fond pédo-géochimique, afin de fournir un référentiel de qualité géochimique des sols urbains à l'échelle d'un quartier ou d'une ville. Les premiers tests montrent les limites des calculs statistiques, usuellement utilisés avec des données dédiées au fond pédo-géochimique du fait de leur sensibilité à la limite de quantification, à la loi de distribution ou encore au pourcentage d'anomalie. Le découpage du territoire en entités géographiques cohérentes à partir de la nature des sols et sous-sols et des pressions anthropiques (actuelles ou passées) permet la constitution de différents niveaux de fond suivant la qualité géochimique des sols, mais une des difficultés concerne le renseignement de l'ensemble des entités. La classification statistique des échantillons, même spatialisée, n'apporte, actuellement pas de résultats exploitables pour la gestion des terres excavées. Enfin, le filtrage géostatistique via un modèle linéaire de corégionalisation présente une alternative solide pour le filtrage des anomalies et l'estimation du fond à l'échelle d'un quartier<br>Large urban redevelopments generate large volumes of excavated soils whose reusability is now possible if they are compatible with the pedo-geochemical background of the receiving site. In order to facilitate this valorization, this thesis focuses on processing methodologies on data acquired for other purposes than the determination of the pedo-geochemical background, in order to provide a geochemical quality reference system for urban soils at the scale of one neighborhood or city. The first tests show the limits of the statistical stresholds, usually used with data dedicated to the pedo-geochemical background because of their sensitivity to the limit of quantification, to the distribution law or to the percentage of anomaly. The segmentation of the territory into coherent geographical entities based on the nature of the soil and subsoil and the anthropogenic pressures (current or past) allows the constitution of different geochemical background levels according to the geochemical quality of the soils, but one of the difficulties concerns the information of all entities. The statistical classification of the samples, even if spatialized, does not currently provide usable results for the management of the excavated earth. Lastly, geostatistical filtering via a linear model of coregionalisation provides a solid alternative for anomaly filtering and background estimation at a neighborhood scale
APA, Harvard, Vancouver, ISO, and other styles
7

Sauvaget, Baptiste. "Constitution de référentiels géochimiques locaux pour les sols et proches sous-sols urbains : de la base de données à l'interprétation géostatistique." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM014.

Full text
Abstract:
Les grands réaménagements urbains génèrent d’importants volumes de terres excavées, dont la valorisation est désormais possible si elles sont compatibles avec le fond pédo-géochimique du site receveur. Afin de faciliter cette valorisation, cette thèse s’intéresse à des méthodologies de traitement de données acquises à d'autres fins que la détermination du fond pédo-géochimique, afin de fournir un référentiel de qualité géochimique des sols urbains à l'échelle d'un quartier ou d'une ville. Les premiers tests montrent les limites des calculs statistiques, usuellement utilisés avec des données dédiées au fond pédo-géochimique du fait de leur sensibilité à la limite de quantification, à la loi de distribution ou encore au pourcentage d'anomalie. Le découpage du territoire en entités géographiques cohérentes à partir de la nature des sols et sous-sols et des pressions anthropiques (actuelles ou passées) permet la constitution de différents niveaux de fond suivant la qualité géochimique des sols, mais une des difficultés concerne le renseignement de l'ensemble des entités. La classification statistique des échantillons, même spatialisée, n'apporte, actuellement pas de résultats exploitables pour la gestion des terres excavées. Enfin, le filtrage géostatistique via un modèle linéaire de corégionalisation présente une alternative solide pour le filtrage des anomalies et l'estimation du fond à l'échelle d'un quartier<br>Large urban redevelopments generate large volumes of excavated soils whose reusability is now possible if they are compatible with the pedo-geochemical background of the receiving site. In order to facilitate this valorization, this thesis focuses on processing methodologies on data acquired for other purposes than the determination of the pedo-geochemical background, in order to provide a geochemical quality reference system for urban soils at the scale of one neighborhood or city. The first tests show the limits of the statistical stresholds, usually used with data dedicated to the pedo-geochemical background because of their sensitivity to the limit of quantification, to the distribution law or to the percentage of anomaly. The segmentation of the territory into coherent geographical entities based on the nature of the soil and subsoil and the anthropogenic pressures (current or past) allows the constitution of different geochemical background levels according to the geochemical quality of the soils, but one of the difficulties concerns the information of all entities. The statistical classification of the samples, even if spatialized, does not currently provide usable results for the management of the excavated earth. Lastly, geostatistical filtering via a linear model of coregionalisation provides a solid alternative for anomaly filtering and background estimation at a neighborhood scale
APA, Harvard, Vancouver, ISO, and other styles
8

Feliachi, Abdelfettah. "Interconnexion et visualisation de ressources géoréférencées du Web de données à l’aide d’un référentiel topographique de support." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1179/document.

Full text
Abstract:
Plusieurs ressources publiées sur le Web de données sont dotées de références spatiales qui décrivent leur localisation géographique. Ces références spatiales sont un moyen favori pour interconnecter et visualiser les ressources sur le Web de données. Cependant, les hétérogénéités des niveaux de détail et de modélisations géométriques entre les sources de données constituent un défi majeur pour l’utilisation de la comparaison des références spatiales comme critère pour l’interconnexion des ressources. Ce défi est amplifié par la nature ouverte et collaborative des sources de données du Web qui engendre des hétérogénéités géométriques internes aux sources de données. En outre, les applications de visualisation cartographique des ressources géoréférencées du Web de données ne fournissent pas une visualisation lisible à toutes les échelles.Dans cette thèse, nous proposons un vocabulaire pour formaliser les connaissances sur les caractéristiques de chaque géométrie dans un jeu de données. Nous proposons également une approche semi-automatique basée sur un référentiel topographique pour acquérir ces connaissances. Nous proposons de mettre en oeuvre ces connaissances dans une approche d’adaptation dynamique du paramétrage de la comparaison des géométries dans un processus d’interconnexion. Nous proposons une approche complémentaire s’appuyant sur un référentiel topographique pour la détection des liens de cardinalité n:m. Nous proposons finalement des applications qui s’appuient sur des données topographiques de référence et leurs liens avec les ressources géoréférencées du Web pour offrir une visualisation cartographique multiéchelle lisible et conviviale<br>Many resources published on the Web of data are related to spatial references that describe their location. These spatial references are a valuable asset for interlinking and visualizing data over the Web. However, these spatial references may be presented with different levels of detail and different geometric modelling from one data source to another. These differences are a major challenge for using geometries comparison as a criterion for interlinking georeferenced resources. This challenge is even amplified more due to the open and often volunteered nature of the data that causes geometric heterogeneities between the resources of a same data source. Furthermore, Web mapping applications of georeferenced data are limited when it comes to visualize data at different scales.In this PhD thesis, we propose a vocabulary for formalizing the knowledge about the characteristics of every single geometry in a dataset. We propose a semi-automatic approach for acquiring this knowledge by using geographic reference data. Then, we propose to use this knowledge in approach for adapting dynamically the setting of the comparison of each pair of geometries during an interlinking process. We propose an additional interlinking approach based on geographic reference data for detecting n:m links between data sources. Finally, we propose Web mapping applications for georeferenced resources that remain readable at different map scales
APA, Harvard, Vancouver, ISO, and other styles
9

Ndiaye, Djibril. "Apport des technologies orientées objet dans l'étude et la mise en place d'un référentiel de conception pour les systèmes automatisés de production." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-192.pdf.

Full text
Abstract:
La coordination d'activites de plus en plus heteroclites des entreprises afin de former un ensemble d'elements synergiques, passe par la maitrise de l'information echangee et partagee par leurs differents moyens (methodes, outils, modeles). Plusieurs travaux (cimosa, grai, pera, base-pta etc. ) Inities dans ce sens ont fourni des cadres de reference utilises comme mecanisme d'unification semantique ou de partage de connaissances. Ces travaux definissent une approche qui permet de reutiliser par specialisation, un modele de reference afin d'obtenir un modele de donnees particulier. C'est une demarche qui convient plutot a la mise en place d'un nouveau systeme car l'integration des moyens preexistants suivant cette approche se fait difficilement<br>Dans le cadre de la mise en place d'un systeme d'information (referentiel) pour les systemes automatises de production, nous ne prejugeons pas de ce que devrait etre le systeme, mais nous partons des moyens et activites preexistants que nous devons integrer. De ce fait nous proposons une demarche qui, partant de moyens preexistants (les modeles definis par les intervenants), determine les intersections entre les concepts de modelisation afin d'obtenir un modele commun. Pour obtenir la coherence globale de l'ensemble des donnees manipulees, nous proposons : une integration syntaxique des modeles a travers leurs concepts de modelisation, en identifiant et formalisant les intersections afin d'obtenir une interpretation commune des modeles, independamment du systeme etudie ; une integration forte par les donnees, garantissant ainsi l'integrite des donnees manipulees qui supportent la stabilite des systemes d'information. Nous mettons en uvre notre demarche a l'aide d'outils et de methodes du genie logiciel : (1) une approche orientee objet (langage uml) ; (2) par metamodelisation ; (3) qui favorise la reutilisation de concepts de modelisation (patterns, frameworks)
APA, Harvard, Vancouver, ISO, and other styles
10

Ayad, Sarah. "Business Process Models Quality : evaluation and improvement." Electronic Thesis or Diss., Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0922.

Full text
Abstract:
La problématique scientifique abordée correspond à la modélisation et à l'amélioration des processus métiers. Ce problème est d'un intérêt croissant pour les entreprises qui prennent conscience de l'impact indéniable que peuvent avoir une meilleure compréhension et une meilleure gestion des processus métiers (PM) sur l'efficacité, la cohérence et la transparence de leurs activités. Le travail envisagé dans le cadre de la thèse vise à proposer une méthode et un outil pour mesurer et améliorer la qualité des modèles de processus métier. L’originalité de l’approche est qu’elle vise non seulement la qualité syntaxique mais aussi la qualité sémantique et pragmatique en s’appuyant notamment sur les connaissances du domaine<br>In recent years the problems related to modeling and improving business processes have been of growing interest. Indeed, companies are realizing the undeniable impact of a better understanding and management of business processes (BP) on the effectiveness, consistency, and transparency of their business operations. BP modeling aims at a better understanding of processes, allowing deciders to achieve strategic goals of the company. However, inexperienced systems analysts often lack domain knowledge leading and this affects the quality of models they produce.Our approach targets the problem related to business process modeling quality by proposing an approach encompassing methods and tools for business process (BP) models quality measurement and improvement. We propose to support this modeling effort with an approach that uses domain knowledge to improve the semantic quality of BP models.The main contribution of this thesis is fourfold:1. Exploiting the IS domain knowledge: A business process metamodel is identified.Semantics are added to the metamodel by the mean of OCL constraints.2. Exploiting the application domain knowledge. It relies on domain ontologies. Alignment between the concepts of both metamodels is defined and illustrated.3. Designing of the guided quality process encompassing methods and techniques to evaluate and improve the business process models. Our process propose many quality constraints and metrics in order to evaluat the quality of the models and finally the process propose relevant recommendations for improvement.4. Development of a software prototype “BPM-Quality”. Our prototype implements all theabove mentioned artifacts and proposes a workflow enabling its users to evaluate andimprove CMs efficiently and effectively.We conducted a survey to validate the selection of the quality constraints through a first experience and also conducted a second experiment to evaluate the efficacy and efficiency of our overall approach and proposed improvements
APA, Harvard, Vancouver, ISO, and other styles
11

Dellise, Marie. "Méthodologie d'évaluation des performances environnementales des installations industrielles au regard des Meilleures Techniques Disponibles à l'échelle locale : Cas de l'absence de référentiel européen." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEM026.

Full text
Abstract:
La Directive sur les émissions industrielles (IED) réglemente les impacts environnementaux d'un large éventail d'activités industrielles et agricoles via une approche intégrée de leurs pollutions et consommations. En pratique, cette approche se traduit par l’obligation de mettre en œuvre les « Meilleures Techniques Disponibles » (MTD) décrites dans des documents de référence européens : les BREF. Cependant, lors de l’élaboration ou de la révision d’un BREF, il n’est pas possible de couvrir chaque activité pour tout ou partie des enjeux environnementaux qu’elle est susceptible de causer. Les exploitations concernées par ces activités sans référence ne sont pas exemptes de mettre en œuvre les MTD. Pourtant, les enquêtes menées sur l’application des MTD en France montrent que le manque de MTD de référence conduit souvent à ce que la mise en œuvre des MTD ne soit pas effective sur site, et / ou vérifiée par l’autorité compétente. Face à ce constat, une méthodologie permettant aux exploitants d’installations soumises à l’obligation de mise en œuvre des MTD de démontrer leur conformité aux autorités compétentes en l’absence de référence officielle est proposée. Elle se compose de deux phases visant respectivement à l’identification des enjeux environnementaux majeurs d’une installation et à comparer les performances de celle-ci à celles des MTD pour chacun de ces enjeux. Elle est testée sur deux études de cas issues de secteurs d’activité différents, puis ses avantages et ses limites sont discutés à la lumière du retour d’expérience des exploitants. Enfin, des perspectives de travail et de recherche sont proposées<br>The Industrial Emissions Directive (IED) regulates the environmental impacts of a wide range of industrial and agricultural activities through an integrated approach of their pollution and consumption. In practice, this approach translates into the obligation to implement the "Best Available Techniques" (BATs) described in European reference documents: BREFs. However, when drawing up or revising a BREF, it is not possible to cover every activity for all or part of the environmental issues that it is likely to cause. Installations involved in these activities without reference are not exempt from implementing BATs. However, surveys carried out on the application of BATs in France show that the lack of BAT reference often leads to the implementation of BATs not being effective on site, and / or verified by the competent authority. Faced with this finding, a methodology allowing operators of installations subject to the obligation to implement BATs to demonstrate their compliance to the competent authorities in the absence of an official reference is proposed. It consists of two phases aimed respectively at identifying the major environmental issues of an installation and comparing its performance with that of BATs for each of these issues. It is tested on two case studies from different activity sectors, then its advantages and limitations are discussed in the light of industrial feedback. Finally, work and research perspectives are proposed
APA, Harvard, Vancouver, ISO, and other styles
12

Guidard, Vincent. "Assimilation multi-échelle dans un modèle météorologique régional." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00569483.

Full text
Abstract:
Les modèles météorologiques à aire limitée sont aujourd'hui dotés de systèmes d'analyse de données observées propres, pour la plupart. Ces analyses combinent en général une ébauche provenant du modèle et des observations dans le but de rafraîchir les structures décrites par le modèle à aire limitée. Néanmoins, l'information provenant du modèle coupleur présente également un intérêt. En effet, le modèle coupleur est en général un modèle global bénéficiant de techniques d'assimilation de données performantes, qui permet de fournir une bonne description des grandes échelles notamment. L'objectif de ce travail de thèse est d'injecter l'information issue du modèle coupleur directement dans l'assimilation variationnelle tridimensionnelle (3D-VAR) du modèle à aire limitée, en tant que nouvelle source d'information. Concrètement, on décrit le vecteur d'information entrant dans l'assimilation du modèle à aire limitée comme étant la concaténation des différentes sources d'information : l'ébauche du modèle, les observations et les grandes échelles de l'analyse du modèle coupleur. Ce formalisme utilise une mesure de l'incertitude sur les sources d'information, décrite par les covariances entre les erreurs des différentes sources d'information. Des simplifications sur les covariances croisées entres les sources d'information sont proposées, afin de pouvoir développer le formalisme en vue de le rendre applicable simplement dans un logiciel d'analyse déjà existant. Une première utilisation de ce nouveau formalisme est faite dans un modèle académique unidimensionnel “en eaux peu profondes”, en mettant en oeuvre un modèle coupleur et un modèle couplé. Ces expériences montrent des résultats neutres à positifs, suivant les configurations, limités par le cadre simplifié de ce modèle académique. Dans le cadre de l'application de cette méthode dans les modèles utilisés à Météo- France (modèle global ARPÈGE et modèle à aire limitée ALADIN), une évaluation des statistiques liées aux erreurs sur les sources d'information est menée. Tout d'abord le choix des échelles venant de l'analyse du modèle global est fait, pour ne garder que les plus grandes structures (environ 240 km). Puis les statistiques sont calculées à partir de travaux précédents utilisant des méthodes ensemblistes pour échantillonner les erreurs. L'étude de ces statistiques permet de décrire les propriétés des covariances d'erreurs (écarts types, isotropie, etc.) et de quantifier l'erreur commise en appliquant les simplifications proposées. L'évaluation sur des cycles d'assimilation d'une quinzaine de jours montre que l'introduction des grandes échelles de l'analyse du modèle global a un impact légèrement positif en terme de score objectif. Néanmoins, malgré des différences visibles et systématiques engendrées par l'utilisation de cette nouvelle source d'information, aucun cas d'étude sur des champs diagnostiques, comme les précipitations, ne permet d'illustrer cet apport en terme de temps sensible ou de phénomènes météorologiques spécifiques. Ce travail de thèse propose donc une technique d'analyse en aire limitée permettant de prendre en compte des informations provenant du modèle coupleur, en plus des observations, pour corriger l'ébauche du modèle. Il ouvre la voie à d'autres recherches, notamment en sélectionnant d'autres échelles venant du modèle coupleur à considérer ou en l'étendant par l'ajout de la dimension temporelle.
APA, Harvard, Vancouver, ISO, and other styles
13

Maleki, Elaheh. "A Systems Engineering-based semantic model to support “Product-Service System” life cycle." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0064/document.

Full text
Abstract:
Les Systèmes Produit-Service (PSS) résultent d'une intégration de composants hétérogènes couvrant à la fois des aspects matériels et immatériels (mécanique, électrique,logiciel, processus, organisation, etc.). Le processus de développement d’un PSS est fortement collaboratif impliquant des acteurs métier très variés.Ce caractère interdisciplinaire nécessite des référentiels sémantiques standardisés pour gérer la multitude des points de vue métier et faciliter l’intégration de tous les composants hétérogènes dans un système unique. Ceci est encore plus complexe dans le cas des PSS personnalisables, majoritaires dans le milieu industriel. Malgré les nombreuses méthodologies dans littérature, la gestion des processus de développement du PSS reste encore limitée face à cette complexité. Dans ce contexte, l'Ingénierie des systèmes (IS) pourrait être une solution avantageuse au regard de ses qualités bien prouvé pour la modélisation et la gestion de systèmes complexes. Cette thèse vise à explorer le potentiel d'utilisation de l'Ingénierie des systèmes (IS) comme fondement conceptuel pour représenter d’une façon intégrée tous les différents points de vue métier associés au cycle de vie du PSS. Dans ce cadre, un méta-modèle de PSS est proposé et exemplifié dans des cas industriels. Un modèle ontologique est aussi présenté comme une application d’une partie des modèles pour structurer le référentiel commun de la plateforme ICP4Life<br>Product-service systems (PSS) result from the integration of heterogeneous components covering both tangible and intangible aspects(mechanical, electrical, software, process, organization, etc.). The process of developing PSS is highly collaborative involving a wide variety of stakeholders. This interdisciplinary nature requires standardized semantic repositories to handle the multitude of business views and facilitate the integration of all heterogeneous components into a single system. This is even more complex in the case of customizable PSS in the industrial sector. Despite the many methodologies in literature, the management of the development processes of the PSS is still limited to face this complexity. In this context, Systems Engineering (SE) could bean advantageous solution in terms of its proven qualities for the modeling and management of complex systems. This thesis aims at exploring the potentials of Systems Engineering (SE) as a conceptual foundation to represent various different business perspectives associated with the life cycle of the PSS. In this context, a meta-model for PSS is proposed and verified in industrial cases. An ontological model is also presented as an application of a part of the model to structure the common repository of the ICP4Life platform
APA, Harvard, Vancouver, ISO, and other styles
14

Gross-Amblard, David. "Tatouage des bases de données." Habilitation à diriger des recherches, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00590970.

Full text
Abstract:
Les techniques de tatouage de bases de données permettent la dissimulation d'information pertinente dans les n-uplets, comme par exemple l'identité du propriétaire des données. Les techniques de tatouage sont nombreuses dans le domaine multimédia, mais le tatouage des bases de données présente de nombreuses spécificités. Certaines d'entre elles sont traitées dans ce document : comment tatouer une base de données numérique tout en préservant le résultat de requêtes d'agrégat importantes, comment tatouer un flux structuré, comme un flux XML typé ou une partition musicale symbolique, comment tatouer une base de données géographiques.
APA, Harvard, Vancouver, ISO, and other styles
15

Waller, Emmanuel. "Méthodes et bases de données." Paris 11, 1993. http://www.theses.fr/1993PA112481.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Ayad, Sarah. "Business Process Models Quality : evaluation and improvement." Thesis, Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0922/document.

Full text
Abstract:
La problématique scientifique abordée correspond à la modélisation et à l'amélioration des processus métiers. Ce problème est d'un intérêt croissant pour les entreprises qui prennent conscience de l'impact indéniable que peuvent avoir une meilleure compréhension et une meilleure gestion des processus métiers (PM) sur l'efficacité, la cohérence et la transparence de leurs activités. Le travail envisagé dans le cadre de la thèse vise à proposer une méthode et un outil pour mesurer et améliorer la qualité des modèles de processus métier. L’originalité de l’approche est qu’elle vise non seulement la qualité syntaxique mais aussi la qualité sémantique et pragmatique en s’appuyant notamment sur les connaissances du domaine<br>In recent years the problems related to modeling and improving business processes have been of growing interest. Indeed, companies are realizing the undeniable impact of a better understanding and management of business processes (BP) on the effectiveness, consistency, and transparency of their business operations. BP modeling aims at a better understanding of processes, allowing deciders to achieve strategic goals of the company. However, inexperienced systems analysts often lack domain knowledge leading and this affects the quality of models they produce.Our approach targets the problem related to business process modeling quality by proposing an approach encompassing methods and tools for business process (BP) models quality measurement and improvement. We propose to support this modeling effort with an approach that uses domain knowledge to improve the semantic quality of BP models.The main contribution of this thesis is fourfold:1. Exploiting the IS domain knowledge: A business process metamodel is identified.Semantics are added to the metamodel by the mean of OCL constraints.2. Exploiting the application domain knowledge. It relies on domain ontologies. Alignment between the concepts of both metamodels is defined and illustrated.3. Designing of the guided quality process encompassing methods and techniques to evaluate and improve the business process models. Our process propose many quality constraints and metrics in order to evaluat the quality of the models and finally the process propose relevant recommendations for improvement.4. Development of a software prototype “BPM-Quality”. Our prototype implements all theabove mentioned artifacts and proposes a workflow enabling its users to evaluate andimprove CMs efficiently and effectively.We conducted a survey to validate the selection of the quality constraints through a first experience and also conducted a second experiment to evaluate the efficacy and efficiency of our overall approach and proposed improvements
APA, Harvard, Vancouver, ISO, and other styles
17

Pannekoucke, Olivier. "Modélisation des structures locales de covariance des erreurs de prévision à l'aide des ondelettes." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00285515.

Full text
Abstract:
La représentation des variations spatio-temporelles des fonctions de covariance d'erreur d'ébauche reste un problème majeur dans les algorithmes d'assimilation. Dans cette thèse le diagnostic des variations géographiques des corrélations locales est introduit via le diagnostic de la portée locale. L'estimation de cette portée ainsi que les propriétés de l'estimation sont étudiés en détail. Ce travail utilise des ondelettes sphériques, suivant la formulation introduite par Mike Fisher (ECMWF), pour modéliser les fonctions de corrélation locale "du jour". Il est montré que cette formulation moyenne spatialement les corrélations locales, permettant de réduire le bruit d'échantillonnage. D'autre part, cette formulation ondelette fournit une estimation robuste même pour un petit ensemble. Elle est aussi capable de capturer la dynamique spatio-temporelle des corrélations, ceci est illustré à l'aide de la dynamique des portées locales du jour.
APA, Harvard, Vancouver, ISO, and other styles
18

Castelltort, Arnaud. "Historisation de données dans les bases de données NoSQLorientées graphes." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20076.

Full text
Abstract:
Cette thèse porte sur l'historisation des données dans les bases de données graphes. La problématique des données en graphes existe depuis longtemps mais leur exploitation par des moteurs de système de gestion de bases de données, principalement dans les moteurs NoSQL, est récente. Cette apparition est notamment liée à l'émergence des thématiques Big Data dont les propriétés intrinsèques, souvent décrites à l'aide des propriétés 3V (variété, volume, vélocité), ont révélé les limites des bases de données relationnelles classiques. L'historisation quant à elle, est un enjeu majeur des SI qui a été longtemps abordé seulement pour des raisons techniques de sauvegarde, de maintenance ou plus récemment pour des raisons décisionnelles (suites applicatives de Business Intelligence). Cependant, cet aspect s'avère maintenant prendre une place prédominante dans les applications de gestion. Dans ce contexte, les bases de données graphes qui sont de plus en plus utilisées n'ont que très peu bénéficié des apports récents de l'historisation. La première contribution consiste à étudier le nouveau poids des données historisées dans les SI de gestion. Cette analyse repose sur l'hypothèse selon laquelle les applications de gestion intègrent de plus en plus en leur sein les enjeux d'historisation. Nous discutons ce positionnement au regard de l'analyse de l'évolution des SI par rapport à cette problématique. La deuxième contribution vise, au-delà de l'étude de l'évolution des sytèmes d'information, à proposer un modèle innovant de gestion de l'historisation dans les bases de données NoSQL en graphes. Cette proposition consiste d'une part en l'élaboration d'un système unique et générique de représentation de l'historique au sein des BD NoSQL en graphes et d'autre part à proposer des modes d'interrogation (requêtes). Nous montrons qu'il est possible d'utiliser ce système aussi bien pour des requêtes simples (c'est-à-dire correspondant à ce que l'on attend en première intention d'un système d'historisation~: récupérer les précédentes versions d'une donnée) mais aussi de requêtes plus complexes qui permettent de tirer parti aussi bien de la notion d'historisation que des possibilités offertes par les bases de données graphes (par exemple, la reconnaissance de motifs dans le temps)<br>This thesis deals with data historization in the context of graphs. Graph data have been dealt with for many years but their exploitation in information systems, especially in NoSQL engines, is recent. The emerging Big Data and 3V contexts (Variety, Volume, Velocity) have revealed the limits of classical relational databases. Historization, on its side, has been considered for a long time as only linked with technical and backups issues, and more recently with decisional reasons (Business Intelligence). However, historization is now taking more and more importance in management applications.In this framework, graph databases that are often used have received little attention regarding historization. Our first contribution consists in studying the impact of historized data in management information systems. This analysis relies on the hypothesis that historization is taking more and more importance. Our second contribution aims at proposing an original model for managing historization in NoSQL graph databases.This proposition consists on the one hand in elaborating a unique and generic system for representing the history and on the other hand in proposing query features.We show that the system can support both simple and complex queries.Our contributions have been implemented and tested over synthetic and real databases
APA, Harvard, Vancouver, ISO, and other styles
19

Benchkron, Said Soumia. "Bases de données et logiciels intégrés." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Marie-Julie, Jean Michel. "Bases de données d'images- Calculateurs parallèles." Paris 6, 2000. http://www.theses.fr/2000PA066593.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Voisard, Agnès. "Bases de données géographiques : du modèle de données à l'interface utilisateur." Paris 11, 1992. http://www.theses.fr/1992PA112354.

Full text
Abstract:
Les systemes d'information geographiques (sig) servent de support aux applications qui manipulent des donnees geographiques, telles que la planification urbaine, la regulation de la circulation, la gestion des ressources naturelles. Les problemes majeurs poses par la realisation de sig sont lies d'une part a la gestion d'un gros volume de donnees, d'autre part a la coexistence de deux types de donnees: la description des cartes (donnees alphanumeriques) et leur spatialite (geometrie et topologie). Les donnees spatiales posent de plus un double probleme car elles doivent etre manipulees par des operations specifiques et leur structuration est complexe et eminemment variable. Pour stocker, interroger et manipuler les donnees, les sig peuvent utiliser des systemes de gestion de bases de donnees (sgbd) dotes de fonctionnalites particulieres pour gerer des donnees spatiales. Notre travail a tout d'abord porte sur les problemes de modelisation de l'information geographique et a abouti a la proposition d'un modele original, base sur un modele a objets complexes, pour applications manipulant des cartes thematiques. Pour valider ce modele, nous avons implemente une maquette de sig au-dessus du prototype de sgrd oriente-objet o2. Cette experience nous a permis de degager des enseignements multiples. En particulier, la conception d'interfaces utilisateurs specifiques aux sig s'est averee etre une tache indispensable et complexe. Cette constatation a conduit a la proposition d'un modele d'interface pour concepteurs d'applications geographiques, premiere etape vers une boite a outils permettant de manipuler une large gamme d'applications geographiques. Les systemes d'information geographique et finalement les interfaces pour systemes d'information geographique sont les trois points auxquels nous nous interessons dans cette these
APA, Harvard, Vancouver, ISO, and other styles
22

Nguyen, Gia Toan. "Quelques fonctionnalités de bases de données avancées." Habilitation à diriger des recherches, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00321615.

Full text
Abstract:
On utilise une méthode de représentation de l'information basée sur la logique des prédicats du premier ordre pour enrichir la représentation sémantique des données qui peuvent être stockées dans un ensemble de bases de données reparties. On définit ensuite une méthode originale d'évaluation de questions sur des données distribuées basée sur une décomposition dynamique des opérations. On propose enfin une nouvelle approche pour le contrôle des contraintes sémantiques dans une base de données. Elle est basée sur la notion de prototypes logiques d'objets formant un échantillon de la base de données.
APA, Harvard, Vancouver, ISO, and other styles
23

Qian, Shunchu. "Restructuration de bases de données entité-association." Dijon, 1995. http://www.theses.fr/1995DIJOS064.

Full text
Abstract:
La conception de bases de données dans un contexte de modelés entité-association ou objet-oriente nécessite des outils qui permettent de spécifier à la fois des transformations au niveau des types (restructuration de schéma) et les transformations correspondantes au niveau des occurrences (réorganisation de base de données). Dans cette thèse nous présentons une algèbre de transformation de bases de données qui étend les travaux sur le modèle en définissant des opérateurs sémantiques de restructuration de schéma et de réorganisation de la base de données correspondante. La première étape de nos travaux est consacrée à la reformulation du modèle erc+ à l'aide de la théorie de graphe. Ce formalisme se prête mieux que la modélisation ensembliste original à la définition et a l'illustration des transformations sémantiques en fonction de transformations de graphes. La deuxième étape est consacrée à la définition d'une algèbre regroupant des opérateurs sur deux niveaux: les opérateurs de restructuration de schéma, qui agissent uniquement sur le schéma et les opérateurs de réorganisation de bases de données, qui propagent sur les données les effets de la restructuration de schéma. Il y a deux types d'opérateurs de restructuration de schéma: les opérateurs de base qui permettent l'ajout ou la suppression de nuds ou d'arcs et les opérateurs dérivés plus puissants qui sont définis par combinaison d'opérateurs de base ou dérives. La transformation au niveau des objets est faite par des opérateurs de réorganisation qui permettent de modifier des valeurs propriétés d'objets, de faire une extension (ajout d'un élément) ou une restriction (suppression d'éléments) de la base de données, de transformer la structure d'occurrences d'objet et de glisser, c'est à dire effectuer un héritage explicite, d'une relation ou un attribut à travers des arcs rôle ou lien de généralisation. Les opérateurs de l'algèbre de transformation constituent une base sur laquelle on peut construire plusieurs services très importants dans la gestion d'une base de données: définition de vues, intégration de schémas, évolution de schéma, traduction de schémas, normalisation de schémas, base de données repartie et optimisation des performances
APA, Harvard, Vancouver, ISO, and other styles
24

Gross-Amblard, David. "Approximation dans les bases de données contraintes." Paris 11, 2000. http://www.theses.fr/2000PA112304.

Full text
Abstract:
Le modèle des bases de données contraintes, introduit par Kanellakis, Kuper et Revesz [KKR95] permet la prise en compte d'informations géométriques, comme les données cartographiques. Les objets géométriques sont représentés comme la solution d'un système d'équations ou d'inéquations, sans limitation sur leur dimension. La compléxité en temps de l'évaluation des requêtes du premier ordre ou du volume est raisonnable lorsque la dimension des objets est fixe. Lorsque la dimension des objets est une variable du problème, cette complexité est prohibitive (globalement exponentielle dans la dimension). Dans cette thèse, nous nous intéressons à l'obtention d'algorithmes d'évaluation en temps polynomial dans la dimension, par des techniques d'approximation probabiliste. En étendant les travaux de Dyer, Frieze et Kannan [DFK91], nous obtenons : - un algorithme d'échantillonnage de points avec distribution presque uniforme dans l'ensemble défini par une requête du premier ordre ; - un algorithme estimant le volume et la forme de cet ensemble [GdR00]. Sous certaines conditions, le volume peut être estimé sans évaluation préalable de la requête. Nous considérons ensuite la robustesse des relations topologiques entre objets après utilisation d'algorithmes d'approximation. Enfin, nous présentons un prototype de base de données spatiales mettant en oeuvre certains de ces algorithmes probabilistes sur des données réelles.
APA, Harvard, Vancouver, ISO, and other styles
25

Collobert, Ronan. "Algorithmes d'Apprentissage pour grandes bases de données." Paris 6, 2004. http://www.theses.fr/2004PA066063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Bossy, Robert. "Édition coopérative de bases de données scientifiques." Paris 6, 2002. http://www.theses.fr/2002PA066047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Valceschini-Deza, Nathalie. "Accès sémantique aux bases de données textuelles." Nancy 2, 1999. http://www.theses.fr/1999NAN21021.

Full text
Abstract:
Les besoins justifiant cette recherche sont ceux de l'analyse du contenu textuel, les banques de données textuelles étant de plus en plus nombreuses et volumineuses. Ce travail est une contribution au problème de l'accès sémantique aux bases de données électroniques. Les données à notre disposition sont une base de données à dominante sciences humaines comportant environ 3000 oeuvres : FRANTEXT. Pour utiliser cette base et les bases de données littéraires en général nous proposons un outil basé sur le test statistique de l'écart réduit. Ce type de méthode prend en entrée un mot (ou une expression, un chapitre, un roman) et fournit comme une liste de mots-résultats qui sont corrélés statistiquement au premier mot (ou mot-pôle). La sémantique différentielle sert d'appui théorique à ce travail. Ce choix est motivé par les raisons suivantes : - elle pose comme postulat que les structures textuelles varient en fonction des genres ; - elle propose des unités de sens au palier inférieur au mot : les sèmes. Ces sèmes permettent d'expliquer la cohérence textuelle et de lier les différents niveaux : de l'en-deça du mot au texte : - elle interprète les unités en contexte. Cela permet d'expliquer les variations de sens d'un mot. De par sa nature, elle est compatible avec le test de l'écart réduit. A l'aide de ces trois composantes (données, outil et théorie sémantique), nous avons défini des méthodologies d'interrogation des bases de données littéraires. Nous nous sommes surtout intéressé à la thématique des textes. Mais l'étude de phénomènes connexes a été abordée, par exemple la stéréotypie. L'utilisation des statistiques a été illustrée et accompagnée de méthodologies constituant des aides à l'interprétation. D'autres procédés et méthodologies ont été proposées en amont et en aval des tests statistiques notamment l'utilisation de patrons morpho-syntaxiques pour obtenir des sous-corpus cohérents d'un point de vue sémantique et aptes à subir un traitement statistique. Les applications de ce type de recherches sont les suivantes : - l'étude des oeuvres par le biais de vérifications d'hypothèses et d'intuitions ; - le développement de stratégies d'interrogations fiables, testables par des élèves dans un cadre d'enseignement ; - l'étude des comportements socio-culturels dans les différents genres textuels ; - la recherche d'informations sur les régularités et les différences des textes en vue de la réalisation d'une typologie des genres textuels.
APA, Harvard, Vancouver, ISO, and other styles
28

Souihli, Asma. "Interrogation des bases de données XML probabilistes." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0046/document.

Full text
Abstract:
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques<br>Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
APA, Harvard, Vancouver, ISO, and other styles
29

Souihli, Asma. "Interrogation des bases de données XML probabilistes." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0046.

Full text
Abstract:
XML probabiliste est un modèle probabiliste pour les bases de données incertaines semi-structurées, avec des applications telles que l'intégration incertaine de données, l'extraction d'informations ou le contrôle probabiliste de versions. Nous explorons dans cette thèse une solution efficace pour l'évaluation des requêtes tree-pattern avec jointures sur ces documents, ou, plus précisément, pour l'approximation de la probabilité d'une requête booléenne sur un document probabiliste. L'approche repose sur, d'une part, la production de la provenance probabiliste de la requête posée, et, d'autre part, la recherche d'une stratégie optimale pour estimer la probabilité de cette provenance. Cette deuxième partie s'inspire des approches des optimiseurs de requêtes: l'exploration de différents plans d'évaluation pour différentes parties de la formule et l'estimation du coût de chaque plan, suivant un modèle de coût établi pour les algorithmes de calcul utilisés. Nous démontrons l'efficacité de cette approche sur des jeux de données utilisés dans des travaux précédents sur l'interrogation des bases de données XML probabilistes, ainsi que sur des données synthétiques<br>Probabilistic XML is a probabilistic model for uncertain tree-structured data, with applications to data integration, information extraction, or uncertain version control. We explore in this dissertation efficient algorithms for evaluating tree-pattern queries with joins over probabilistic XML or, more specifically, for approximating the probability of each item of a query result. The approach relies on, first, extracting the query lineage over the probabilistic XML document, and, second, looking for an optimal strategy to approximate the probability of the propositional lineage formula. ProApproX is the probabilistic query manager for probabilistic XML presented in this thesis. The system allows users to query uncertain tree-structured data in the form of probabilistic XML documents. It integrates a query engine that searches for an optimal strategy to evaluate the probability of the query lineage. ProApproX relies on a query-optimizer--like approach: exploring different evaluation plans for different parts of the formula and predicting the cost of each plan, using a cost model for the various evaluation algorithms. We demonstrate the efficiency of this approach on datasets used in a number of most popular previous probabilistic XML querying works, as well as on synthetic data. An early version of the system was demonstrated at the ACM SIGMOD 2011 conference. First steps towards the new query solution were discussed in an EDBT/ICDT PhD Workshop paper (2011). A fully redesigned version that implements the techniques and studies shared in the present thesis, is published as a demonstration at CIKM 2012. Our contributions are also part of an IEEE ICDE
APA, Harvard, Vancouver, ISO, and other styles
30

Ripoche, Hugues. "Une construction interactive d'interprétations de données : application aux bases de données de séquences génétiques." Montpellier 2, 1995. http://www.theses.fr/1995MON20248.

Full text
Abstract:
L'objectif de cette these est de faciliter l'interpretation de grands ensembles de donnees, c'est-a-dire d'extraire des connaissances a partir de donnees. Nous avons utilise deux domaines complementaires: bases de donnees (objet) et apprentissage automatique. Dans une premiere etape, nous proposons d'extraire des descripteurs a partir d'ensembles de donnees de reference, puis d'utiliser ces descripteurs pour interpreter de nouvelles donnees (non encore caracterisees). Dans une seconde etape, une classification construite a partir de donnees interpretees par des descripteurs peut etre critiquee par une methode d'analyse specifique, ce qui conduit en retour a une revision des donnees et des descripteurs. Une application a ete menee dans le cadre de l'analyse de sequences genetiques (proteines) en utilisant des motifs proteiques comme descripteurs, des treillis de concept comme methode de classification et l'alignement multiple de sequences pour la critique
APA, Harvard, Vancouver, ISO, and other styles
31

Benzine, Mehdi. "Combinaison sécurisée des données publiques et sensibles dans les bases de données." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0024.

Full text
Abstract:
La protection des données sensibles est une problématique majeure dans le monde des bases de données. Plusieurs solutions logicielles et matérielles ont été proposées pour assurer une sécurité optimale lors du stockage et de la manipulation de ces données. Il est également nécessaire de sécuriser les opérations mettant en relation des données sensibles avec des données publiques. Pour cala, nous avons mis en place une architecture de stockage et d'interrogation offrant cette sécurité. Cette architecture est composée d'un serveur central regroupant les données publiques et d'un serveur sécurisé stockant les données privées. Ce serveur sécurisé est constitué (i) d'un microcontrôleur sécurisé associé à (ii) une mémoire persistante, de grande capacité, de type Flash NAND. Les requêtes mêlant données publiques et sensibles sont scinder en deux sous-requêtes, l'une portant sur les données publiques, l'autre sur les données sensibles. Chaque sous-requête est exécutée sur le serveur contenant les données appropriées. Enfin, le résultat de la sous-requête sur données publiques est envoyé au serveur sécurisé qui se charge de construire le résultat final en toute sécurité. Cette architecture résolvant les problèmes de sécurité introduit néanmoins de sévères problèmes de performances dues aux caractéristiques physiques du serveur sécurisé (peu de RAM, asymétrie des coûts de lecture et d'écriture. . . ) qu'il est impératif de résoudre par des techniques d'optimisation de requêtes<br>Protection of sensitive data is a major issue in the databases field. Many software and hardware solutions have been designed to protect data when stored and during query processing. Moreover, it is also necessary to provide a secure manner to combine sensitive data with public data. To achieve this goal, we designed a new storage and processing architecture. Our solution combines a main server that stores public data and a secure server dedicated to the storage and processing of sensitive data. The secure server is a hardware token which is basically a combination of (i) a secured microcontroller and (ii) a large external NAND Flash memory. The queries which combine public and sensitive data are split in two sub queries, the first one deals with the public data, the second one deals with the sensitive data. Each sub query is processed on the server storing the corresponding data. Finally, the data obtained by the computation of the sub query on public data is sent to the secure server to be mixed with the result of the computation on sensitive data. For security reasons, the final result is built on the secure server. This architecture resolves the security problems, because all the computations dealing with sensitive data are done by the secure server, but brings performance problems (few RAM, asymmetric cost of read/write operations. . . ). These problems will be solved by different strategies of query optimization
APA, Harvard, Vancouver, ISO, and other styles
32

Léonard, Michel. "Conception d'une structure de données dans les environnements de bases de données." Grenoble 1, 1988. http://tel.archives-ouvertes.fr/tel-00327370.

Full text
Abstract:
Étude de bases de données ayant des structures complexes avec l'objectif de rendre plus efficace le processus de leur conception et de leur réalisation, de les faire évoluer et d'améliorer leur compréhension autant par leur utilisateurs que par leurs responsables
APA, Harvard, Vancouver, ISO, and other styles
33

Costes, Benoît. "Vers la construction d'un référentiel géographique ancien : un modèle de graphe agrégé pour intégrer, qualifier et analyser des réseaux géohistoriques." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1032/document.

Full text
Abstract:
Les historiens et archéologues ont efficacement mis à profit les travaux réalisés dans le domaine des SIG pour répondre à leurs propres problématiques. Pour l'historien, un Système d’Information Géographique est avant tout un outil de compréhension des phénomènes sociaux.De nombreuses sources géohistoriques sont aujourd'hui mises à la disposition des chercheurs: plans anciens, bottins, etc. Le croisement de ces sources d'informations diverses et hétérogènes soulève de nombreuses questions autour des dynamiques urbaines.Mais les données géohistoriques sont par nature imparfaites, et pour pouvoir être exploitées, elles doivent être spatialisées et qualifiées.L'objectif de cette thèse est d'apporter une solution à ce verrou par la production de données anciennes de référence. En nous focalisant sur le réseau des rues de Paris entre la fin du XVIIIe et la fin du XIXe siècles, nous proposons plus précisément un modèle multi-représentations de données agrégées permettant, par confrontation d'observations homologues dans le temps, de créer de nouvelles connaissances sur les imperfections des données utilisées et de les corriger. Nous terminons par tester le rôle de référentiel géohistorique des données précédemment qualifiées et enrichies en spatialisant et intégrant dans le modèle de nouvelles données géohistoriques de types variés (sociales et spatiales), en proposant de nouvelles approches d'appariement et de géocodage<br>The increasing availability of geohistorical data, particularly through the development of collaborative projects is a first step towards the design of a representation of space and its changes over time in order to study its evolution, whether social, administrative or topographical.Geohistorical data extracted from various and heterogeneous sources are highly inaccurate, uncertain or inexact according to the existing terminology. Before being processed, such data should be qualified and spatialized.In this thesis, we propose a solution to this issue by producing reference data. In particular, we focus on Paris historical street networks and its evolution between the end of the XVIIIth and the end of the XIXth centuries.Our proposal is based on a merged structure of multiple representations of data capable of modelling spatial networks at different times, providing tools such as pattern detection in order to criticize, qualify and eventually correct data and sources without using ground truth data but the comparison of data with each other through the merging process.Then, we use the produced reference data to spatialize and integrate other geohistorical data such as social data, by proposing new approaches of data matching and geocoding
APA, Harvard, Vancouver, ISO, and other styles
34

Smine, Hatem. "Outils d'aide à la conception : des bases de données relationnelles aux bases d'objets complexes." Nice, 1988. http://www.theses.fr/1988NICE4213.

Full text
Abstract:
Cette thèse comporte deux parties : un outil d'aide à la conception de bases de données pour non spécialistes et la conception d'objets complexes. On propose un outil intégrant un système expert d'assistance sémantique d'un utilisateur profane pour la construction de son schéma conceptuel. Les dialogues à base de questions-réponses sont simples et riches. Pour la conception d'objets complexes, on définit un réseau sémantique associé au modèle de données B-relationnel et on introduit le concept de chemin de structure dans le réseau. On étudie les questions de modélisation et de manipulation d'objets complexes. On propose un outil d'aide à la conception de schéma B-relationnel avec pour supports des dialogues de langage naturel et le langage B-SQL
APA, Harvard, Vancouver, ISO, and other styles
35

Sahri, Soror. "Conception et implantation d'un système de bases de données distribuée & scalable : SD-SQL Server." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090013.

Full text
Abstract:
Le thème de recherche de cette thèse concerne la conception et l’implantation d’un système de gestion de bases de données distribuées et scalables (ang. Scalable Distributed Database System, SD-DBS) que nous avons appelé SD-SQL Server. SD-SQL Server implémente une nouvelle architecture de SGBD relationnel. Une base de SD-SQL Server, dite base scalable, grandit par la partition dynamique, scalable et distribuée de ses tables, dites scalables aussi. La partition et son évolution sont invisibles de l’usager/application. A l’heure actuelle, SD-SQL Server est le seul SGBD à offrir cette possibilité à notre connaissance. Les autres SGBDs connus, n’offrent au mieux que le partitionnement statique, nécessitant des réorganisations périodiques globales. Leur maniement est en général complexe et peu apprecié des usagers. Nos tables scalables sont organisées en segments d’une structure de données distribuée et scalable (SDDS). Chaque segment est placé sur un nœud lié de SQL Server. A l’heure actuelle, SQL Server supporte 250 nœuds liés, permettant à une table scalable de croître autant. L'expansion dynamique résulte des éclatements de segments débordant leur capacité de stockage. Chaque éclatement est déclenché par une insertion, à l’origine du débordement. Tout éclatement crée un ou plusieurs nouveaux segments. Les segments sont cachés des usagers/applications derrière les vues supportant les mises à jour, dites images. Les images sont des vues partitionnées et distribuées de SQL Server dynamiquement ajustées. Les usagers/applications de tables scalables n’interfacent que les images ou les vues des images<br>Our thesis elaborates on the design of a scalable distributed database system (SD-DBS). A novel feature of an SD-DBS is the concept of a scalable distributed relational table, a scalable table in short. Such a table accommodates dynamic splits of its segments at SD-DBS storage nodes. A split occurs when an insert makes a segment to overflow, like in, e. G. , B-tree file. Current DBMSs provide the static partitioning only, requiring a cumbersome global reorganization from time to time. The transparency of the distribution of a scalable table is in this light an important step beyond the current technology. Our thesis explores the design issues of an SD-DBS, by constructing a prototype termed SD-SQL Server. As its name indicates, it uses the services of SQL-Server. SD-SQL Server repartitions a table when an insert overflows existing segments. With the comfort of a single node SQL Server user, the SD-SQL Server user has larger tables or a faster response time through the dynamic parallelism. We present the architecture of our system, its implementation and the performance analysis
APA, Harvard, Vancouver, ISO, and other styles
36

Bost, Raphaël. "Algorithmes de recherche sur bases de données chiffrées." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S001/document.

Full text
Abstract:
La recherche sur les bases de données chiffrées vise à rendre efficace une tâche apparemment simple : déléguer le stockage de données à un serveur qui ne serait pas de confiance, tout en conservant des fonctionnalités de recherche. Avec le développement des services de stockage dans le Cloud, destinés aussi bien aux entreprises qu'aux individus, la mise au point de solutions efficaces à ce problème est essentielle pour permettre leur déploiement à large échelle. Le principal problème de la recherche sur bases de données chiffrées est qu'un schéma avec une sécurité ''parfaite'' implique un surcoût en termes de calcul et de communication qui serait inacceptable pour des fournisseurs de services sur le Cloud ou pour les utilisateurs - tout du moins avec les technologies actuelles. Cette thèse propose et étudie de nouvelles notions de sécurité et de nouvelles constructions de bases de données chiffrées permettant des recherches efficaces et sûres. En particulier, nous considérons la confidentialité persistante et la confidentialité future de ces bases de données, ce que ces notions impliquent en termes de sécurité et d'efficacité, et comment les réaliser. Ensuite, nous montrons comment protéger les utilisateurs de bases de données chiffrées contre des attaques actives de la part du serveur hébergeant la base, et que ces protections ont un coût inévitable. Enfin, nous étudions les attaques existantes contre ces bases de données chiffrées et comment les éviter<br>Searchable encryption aims at making efficient a seemingly easy task: outsourcing the storage of a database to an untrusted server, while keeping search features. With the development of Cloud storage services, for both private individuals and businesses, efficiency of searchable encryption became crucial: inefficient constructions would not be deployed on a large scale because they would not be usable. The key problem with searchable encryption is that any construction achieving ''perfect security'' induces a computational or a communicational overhead that is unacceptable for the providers or for the users --- at least with current techniques and by today's standards. This thesis proposes and studies new security notions and new constructions of searchable encryption, aiming at making it more efficient and more secure. In particular, we start by considering the forward and backward privacy of searchable encryption schemes, what it implies in terms of security and efficiency, and how we can realize them. Then, we show how to protect an encrypted database user against active attacks by the Cloud provider, and that such protections have an inherent efficiency cost. Finally, we take a look at existing attacks against searchable encryption, and explain how we might thwart them
APA, Harvard, Vancouver, ISO, and other styles
37

Nunez, Del Prado Cortez Miguel. "Attaques d'inférence sur des bases de données géolocalisées." Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00926957.

Full text
Abstract:
Au cours des dernières années, nous avons observé le développement de dispositifs connectés et nomades tels que les téléphones mobiles, tablettes ou même les ordinateurs portables permettant aux gens d'utiliser dans leur quotidien des services géolocalisés qui sont personnalisés d'après leur position. Néanmoins, les services géolocalisés présentent des risques en terme de vie privée qui ne sont pas forcément perçus par les utilisateurs. Dans cette thèse, nous nous intéressons à comprendre les risques en terme de vie privée liés à la dissémination et collection de données de localisation. Dans ce but, les attaques par inférence que nous avons développé sont l'extraction des points d'intérêts, la prédiction de la prochaine localisation ainsi que la désanonymisation de traces de mobilité, grâce à un modèle de mobilité que nous avons appelé les chaînes de Markov de mobilité. Ensuite, nous avons établi un classement des attaques d'inférence dans le contexte de la géolocalisation se basant sur les objectifs de l'adversaire. De plus, nous avons évalué l'impact de certaines mesures d'assainissement à prémunir l'efficacité de certaines attaques par inférence. En fin nous avons élaboré une plateforme appelé GEoPrivacy Enhanced TOolkit (GEPETO) qui permet de tester les attaques par inférences développées.
APA, Harvard, Vancouver, ISO, and other styles
38

Najjar, Ahmed. "Forage de données de bases administratives en santé." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28162.

Full text
Abstract:
Les systèmes de santé actuels sont de plus en plus informatisés et dotés de systèmes de collecte et de stockage des données. Une énorme quantité des données est ainsi stockée dans les bases de données médicales. Les bases de données, conçues à des fins administratives ou de facturation, sont alimentées de nouvelles données à chaque fois que le patient fait appel au système de soins de santé. Cette spécificité rend ces bases de données une source riche en information et extrêmement intéressante et utile. Elles rassemblent ainsi toutes les données de prestation de soins et pourraient permettre de construire et de dévoiler les processus de soins des patients. Toutefois, malgré cet intérêt évident que représente ces banques de données administratives, elles sont jusqu’à date sous-exploitées par les chercheurs. Nous proposons donc dans cette thèse une approche de découverte de connaissances qui à partir des données administratives brutes permet de détecter des patrons des trajectoires de soins des patients. Nous avons tout d’abord proposé un algorithme capable de regrouper des objets complexes qui représentent les services médicaux. Ces objets sont caractérisés par un mélange de variables numériques, catégorielles et catégorielles multivaluées. Nous proposons pour cela d’extraire des espaces de projection pour les variables multivaluées et de modifier le calcul de la distance entre les objets afin de prendre ces projections en compte. La deuxième nouveauté consiste à la proposition d’un modèle de mélange en deux étapes, capable de regrouper ces objets. Ce modèle fait appel à la distribution gaussienne pour les variables numériques, multinomiales pour les variables catégorielles et aux modèles cachés de Markov (HMM) pour les variables multivaluées. Nous obtenons ainsi deux algorithmes capables de regrouper des objets complexes caractérisés par un mélange de variables. Par la suite, une approche de découverte de patrons des trajectoires de soins a été mise en place. Cette approche comporte plusieurs étapes. La première est l’étape de prétraitement qui permet de construire et de générer les ensembles des services médicaux. Ainsi, on obtient trois ensembles des services médicaux : un pour les séjours hospitaliers, un pour les consultations et un pour les visites. La deuxième étape est l’étape de modélisation et regroupement des processus de soins comme une succession des étiquettes des services médicaux. Ces processus sont complexes et ils nécessitent une méthode sophistiquée de regroupement. Nous proposons ainsi un algorithme de regroupement basé sur les HMM. Finalement, une approche de visualisation et d’analyse des patrons des trajectoires est proposée pour exploiter les modèles découverts. L’ensemble de ces étapes forment le processus de découvertes des patrons des trajectoires à partir des bases de données administratives en santé. Nous avons appliqué cette approche aux bases de données sur la prestation des soins pour les personnes âgées de 65 ans et plus souffrant d’insuffisance cardiaque et habitant à la province de Québec. Ces données sont extraites de trois bases de données : la banque de données MED-ÉCHO du MSSS, la banque de la RAMQ et la base contenant les données concernant les certificats de décès. Les résultats issus de ce projet ont montré l’efficacité de notre approche et de nos algorithmes en détectant des patrons spéciaux qui peuvent aider les administrateurs de soins de santé à mieux gérer les soins de santé.<br>Current health systems are increasingly equipped with data collection and storage systems. Therefore, a huge amount of data is stored in medical databases. Databases, designed for administrative or billing purposes, are fed with new data whenever the patient uses the healthcare system. This specificity makes these databases a rich source of information and extremely interesting. These databases can unveil the constraints of reality, capturing elements from a great variety of real medical care situations. So, they could allow the conception and modeling the medical treatment process. However, despite the obvious interest of these administrative databases, they are still underexploited by researchers. In this thesis, we propose a new approach of the mining for administrative data to detect patterns from patient care trajectories. Firstly, we have proposed an algorithm able to cluster complex objects that represent medical services. These objects are characterized by a mixture of numerical, categorical and multivalued categorical variables. We thus propose to extract one projection space for each multivalued variable and to modify the computation of the distance between the objects to consider these projections. Secondly, a two-step mixture model is proposed to cluster these objects. This model uses the Gaussian distribution for the numerical variables, multinomial for the categorical variables and the hidden Markov models (HMM) for the multivalued variables. Finally, we obtain two algorithms able to cluster complex objects characterized by a mixture of variables. Once this stage is reached, an approach for the discovery of patterns of care trajectories is set up. This approach involves the followed steps: 1. preprocessing that allows the building and generation of medical services sets. Thus, three sets of medical services are obtained: one for hospital stays, one for consultations and one for visits. 2. modeling of treatment processes as a succession of labels of medical services. These complex processes require a sophisticated method of clustering. Thus, we propose a clustering algorithm based on the HMM. 3. creating an approach of visualization and analysis of the trajectory patterns to mine the discovered models. All these steps produce the knowledge discovery process from medical administrative databases. We apply this approach to databases for elderly patients over 65 years old who live in the province of Quebec and are suffering from heart failure. The data are extracted from the three databases: the MSSS MED-ÉCHO database, the RAMQ bank and the database containing death certificate data. The obtained results clearly demonstrated the effectiveness of our approach by detecting special patterns that can help healthcare administrators to better manage health treatments.
APA, Harvard, Vancouver, ISO, and other styles
39

Thion-Goasdoue, Virginie. "Bases de données, contraintes d'intégrité et logiques modales." Paris 11, 2004. http://www.theses.fr/2004PA112134.

Full text
Abstract:
Dans cette these, nous nous etudions l'utilisation des systemes par tableaux pour les logiques modales dans le cadre de problemes lies aux contraintes d'integrite dans lesbases de donnees. Dans une premiere partie, nous utilisons un systeme par tableaux, traitant differentes logiques modales du premier ordre (lmpo), dans le cadre d'une methode permettant de tester la preservation de contraintes d'integrite dynamiques dans des bases de donnees orientees objet. Nous associons a ce systeme une strategie de recherche de preuve que nous prouvons correcte et complete dans sa version non bornee, ceci nous permet d'implanter un demonstrateur automatique detheoremes pour les lmpo k, k4, d, t et s4. Ce demonstrateur est re-utilisable pour d'autres applications necessitant de prouver la validite de formules des lmpo (verification de logiciel,systeme multi-agents, etc. ). Dans une seconde partie, nous etudions l'utilisation de la logique multi-modale hybride (lmmh) en tant que formalisme d'expression de schema et de contraintes pour les donnees semi-structurees. D'une part, nous prouvons que la lmmh permet de capturer directement la notion de donnees semi-structurees et donc de contraintes sur ces donnees. D'autre part, nous proposons une extention des dtd permettant le typage des references et nous montrons que cette nouvelle notion de schemapeut etre formalisee en termes de formules de la lmmh exactement comme une contrainte. En associant un systeme par tableaux pour la lmmh a cette approche, il est alors possible de traiter beaucoup de problemes classiques de bases de donnees (implication de contraintes, inclusion de schemas, satisfaisabilite de contraintes, etc. )<br>In this thesis, we use tableaux system for modal logics in order to solve databases problems related to integrity constraints. In first part, we use a tableaux system for first order modal logics in the context of a method testing integrity constraints preservation in an object oriented database. We develop a proof search strategy and we prove that it is sound and complete in its unbounded version. This leads to the implementation of a theorem prover for first order modal logics k, k4, d, t and s4. The prover can also be used for other applications where the test of validity of first order modal logics is needed (software verification, multi-agents systems, etc. ). In second part, we study hybrid multi-modal logic (hmml) as a formalism to express schemas and integrity constraints for semi-structured data. On the one hand we prove that hmml captures the notion of semi-structured data and constraints on it. On the other hand we generalize the notion of schema, by proposing a definition of schema where references are "well typed" (contrary to what happens with dtds), and we prove that this new notion can be formalized by sentences of hmml exactly like a constraint is. When a tableaux system for the hmml is added to this approach, some classical database problems can be treated (constraints implication, schemas inclusion, constraints satisfiability, etc. )
APA, Harvard, Vancouver, ISO, and other styles
40

Guo, Yanli. "Confidentialité et intégrité de bases de données embarquées." Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0038.

Full text
Abstract:
L’approche PDS (serveurs personnel données) prône une gestion totalement décentralisée des données personnelles. Elle s’appuie sur un nouveau composant matériel qui combine un microcontrôleur protégé contre toute attaque avec une mémoire de masse de type flash NAND. Il permet de stocker les données personnelles, les rendre disponibles et contrôler les droits d’accès. L’intégration d’un moteur de base de données permet le déploiement d’applications manipulant ces données. Cette thèse aborde deux problèmes concernant la confidentialité et l'intégrité des données personnelles: (i) la base de données est en dehors du périmètre de sécurité et peut être la cible d’attaques; (ii) des serveurs de support assurent la durabilité, la disponibilité des données, ou d'autres traitements globaux. Des protocoles appropriés doivent assurer qu’ils ne peuvent attaquer les données manipulées. Les solutions proposées s'appuyent sur des techniques cryptographiques et limitent les surcoûts générés<br>As a decentralized way for managing personal data, the Personal Data Server approach (PDS) resorts to Secure Portable Token, combining the tamper resistance of a smart card microcontroller with the mass storage capacity of NAND Flash. The data is stored, accessed and its access rights controlled using such devices. To support powerful PDS application requirements, a full-fledged DBMS engine is embedded in the SPT. This thesis addresses two problems with the confidentiality and integrity of personal data: (i) the database stored on the NAND Flash remains outside the security perimeter of the microcontroller, thus potentially suffering from attacks; (ii) the PDS approach relies on supporting servers to provide durability, availability, and global processing functionalities. Appropriate protocols must ensure that these servers cannot breach the confidentiality of the manipulated data. The proposed solutions rely on cryptography techniques, without incurring large overhead
APA, Harvard, Vancouver, ISO, and other styles
41

Lavergne-Boudier, Valérie. "Système dynamique d'interrogation des bases de données bibliographiques." Paris 7, 1990. http://www.theses.fr/1990PA077243.

Full text
Abstract:
Les bases de données bibliographiques répondent à des protocoles d'organisation très formels qui vont de pair avec des méthodes d'interrogation rigides. Cette étude propose de nouvelles méthodes d'interrogation qui prennent en compte le point de vue de l'utilisateur et son modèle personnel d'organisation et de représentation des connaissances. La requête se fait à partir de la structuration des données disponibles de la base de données bibliographique, sous forme de cartes cognitives. Les cartes cognitives sont des représentations personnalisées de connaissances dans lesquelles sont définies des conditions d'apparition de concepts selon des modèles booléens. Une carte cognitive permet d'exploiter un fonds bibliographique de façon nouvelle, en se présentant comme une grille d'analyse définie spécifiquement pour répondre à une question donnée. Elle permet également d'exploiter des coïncidences partielles qui permettent de révéler de l'information en émergence.
APA, Harvard, Vancouver, ISO, and other styles
42

Raïssi, Chedy. "Extraction de Séquences Fréquentes : Des Bases de Données Statiques aux Flots de Données." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00351626.

Full text
Abstract:
Extraction de séquences fréquentes : des bases de données statiques aux flots de données Il est reconnu aujourd'hui que l'être humain est généralement noyé sous une profusion d'informations et que sa capacité d'analyse n'est plus capable de faire face au volume sans cesse croissant de données. C'est dans ce contexte qu'est né le processus d'Extraction de Connaissance dans les bases de Données. Un des buts de ce processus est de passer d'un grand volume d'informations à un petit ensemble de connaissances à fortes valeurs ajoutées pour l'analyste ou le décideur. De plus, le processus d'ECD n'est pas un processus monolithique et univoque au cours duquel il s'agirait d'appliquer un principe général à tous les types de données stockées ou récupérées. Ainsi, une des étapes de ce processus qu'est la fouille de données peut se dériver sous plusieurs formes tels que : le clustering, la classification, l'extraction d'itemset et de règles d'associations, l'extraction de structures plus complexes tels que les épisodes, les graphes ou comme dans le cadre de cette thèse l'extraction de motifs séquentiels. Malheureusement, dans un monde sans cesse en évolution, le contexte dans lequel les travaux d'ECD ont été définis ces dernières années considérait que les données, sur lesquelles la fouille était réalisée, étaient disponibles dans des bases de données statiques. Aujourd'hui, suite au développement de nouvelles technologies et applications associées, nous devons faire face à de nouveaux modèles dans lesquels les données sont disponibles sous la forme de flots. Une question se pose alors : quid des approches d'extraction de connaissances traditionnelles ? Dans ce mémoire, nous présentons un ensemble de résultat sur les motifs séquentiels dans les bases de données d'un point de vue des représentations condensées et des méthodes d'échantillonnage puis nous étendons nos différentes approches afin de prendre en compte le nouveau modèle des flots de données. Nous présentons des algorithmes permettant ainsi l'extraction de motifs séquentiels (classiques et multidimensionnels) sur les flots. Des expérimentations menées sur des données synthétiques et sur des données réelles sont rapportées et montrent l'intérêt de nos propositions.
APA, Harvard, Vancouver, ISO, and other styles
43

Laurent, Anne. "Bases de données multidimensionnelles floues et leur utilisation pour la fouille de données." Paris 6, 2002. http://www.theses.fr/2002PA066426.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Raissi, Chedy. "Extraction de séquences fréquentes : des bases de données statiques aux flots de données." Montpellier 2, 2008. http://www.theses.fr/2008MON20063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Laabi, Abderrazzak. "Étude et réalisation de la gestion des articles appartenant à des bases de données gérées par une machine bases de données." Paris 11, 1987. http://www.theses.fr/1987PA112338.

Full text
Abstract:
Le travail présenté dans cette thèse se situe dans le cadre d'un projet d'étude et de réalisation de trois couches du S. G. B. D. De la machine bases de données DORSAL-32. La première couche assure la gestion des articles dans le espaces de stockage, l'organisation des verrouillages des articles et des pages selon le mode d'accès effectue et le degré de cohérence de la transaction. Elle assure également la gestion des micro-journalisations qui permettent de garantir la propriété d'atomicité d'une action. La seconde assure la gestion du journal des transactions et la procédure de reprise à chaud, qui permettent de garantir les propriétés d'atomicité et de durabilité d'une transaction. Quant à la troisième couche, elle assure le contrôle concurrents, et la gestion des tables de verrous. Des accès des mesures de performances des méthodes utilisées sont présentés dans ce rapport. Le dernier chapitre contient un travail de recherche concernant la mise en pratique de la méthode de hachage virtuel linéaire dans notre S. G. B. D. Le problème étudie est celui des déplacements des articles d’une page à l'autre. Dans de telles conditions, les pointeurs d'articles classiquement utilises ne permettent pas d'effectuer des accès directs. Nous proposons un nouveau pointeur qui permet de réaliser un accès direct à l'article, et ceci quelle que soit la page où il se trouve à un instant donné<br>The work presented in this thesis is part of a study and development project concerning the design of three layers of the DBMS on the DORSAL-32 Data Base Machine. The first layer ensures record management within the storage areas, record and page locking organization according to the access mode and transaction coherency degree. It ensures also the handling of micro-logs which permit to guarantee the atomicity of an action. The second layer ensures handling of transaction logging and warm restarts which guarantee the atomicity and durability of a transaction. The third layer ensures simultaneous access management and handling of lock tables. Performance measures of the methods used are also presented. The last chapter of this report contains a research work concerning the implementation of the virtual linear hashing method in our DBMS. The problem studied is the transfer of records from one page to another. Under these conditions, the record pointers which are classically used don't permit direct access. We propose a new pointer which enables direct access to the record, on no matter which page it is contained at a given instant
APA, Harvard, Vancouver, ISO, and other styles
46

Boullé, Marc. "Recherche d'une représentation des données efficace pour la fouille des grandes bases de données." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003023.

Full text
Abstract:
La phase de préparation du processus de fouille des données est critique pour la qualité des résultats et consomme typiquement de l'ordre de 80% d'une étude. Dans cette thèse, nous nous intéressons à l'évaluation automatique d'une représentation, en vue de l'automatisation de la préparation des données. A cette fin, nous introduisons une famille de modèles non paramétriques pour l'estimation de densité, baptisés modèles en grille. Chaque variable étant partitionnée en intervalles ou groupes de valeurs selon sa nature numérique ou catégorielle, l'espace complet des données est partitionné en une grille de cellules résultant du produit cartésien de ces partitions univariées. On recherche alors un modèle où l'estimation de densité est constante sur chaque cellule de la grille. Du fait de leur très grande expressivité, les modèles en grille sont difficiles à régulariser et à optimiser. Nous avons exploité une technique de sélection de modèles selon une approche Bayesienne et abouti à une évaluation analytique de la probabilité a posteriori des modèles. Nous avons introduit des algorithmes d'optimisation combinatoire exploitant les propriétés de notre critère d'évaluation et la faible densité des données en grandes dimensions. Ces algorithmes ont une complexité algorithmique garantie, super-linéaire en nombre d'individus. Nous avons évalué les modèles en grilles dans de nombreux contexte de l'analyse de données, pour la classification supervisée, la régression, le clustering ou le coclustering. Les résultats démontrent la validité de l'approche, qui permet automatiquement et efficacement de détecter des informations fines et fiables utiles en préparation des données.
APA, Harvard, Vancouver, ISO, and other styles
47

Curé, Olivier. "Relations entre bases de données et ontologies dans le cadre du web des données." Habilitation à diriger des recherches, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00843284.

Full text
Abstract:
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
APA, Harvard, Vancouver, ISO, and other styles
48

Charmpi, Konstantina. "Méthodes statistiques pour la fouille de données dans les bases de données de génomique." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GRENM017/document.

Full text
Abstract:
Cette thèse est consacrée aux tests statistiques, visant à comparer un vecteur de données numériques, indicées par l'ensemble des gènes du génome humain, à un certain ensemble de gènes, connus pour être associés par exemple à un type donné de cancer. Parmi les méthodes existantes, le test Gene Set Enrichment Analysis est le plus utilisé. Néanmoins, il a deux inconvénients. D'une part, le calcul des p-valeurs est coûteux et peu précis. D'autre part, il déclare de nombreux résultats significatifs, dont une majorité n'ont pas de sens biologique. Ces deux problèmes sont traités, par l'introduction de deux procédures statistiques nouvelles, les tests de Kolmogorov-Smirnov pondéré et doublement pondéré. Ces deux tests ont été appliqués à des données simulées et réelles, et leurs résultats comparés aux procédures existantes. Notre conclusion est que, au-delà leurs avantages mathématiques et algorithmiques, les tests proposés pourraient se révéler, dans de nombreux cas, plus informatifs que le test GSEA classique, et traiter efficacement les deux problèmes qui ont motivé leur construction<br>Our focus is on statistical testing methods, that compare a given vector of numeric values, indexed by all genes in the human genome, to a given set of genes, known to be associated to a particular type of cancer for instance. Among existing methods, Gene Set Enrichment Analysis is the most widely used. However it has several drawbacks. Firstly, the calculation of p-values is very much time consuming, and insufficiently precise. Secondly, like most other methods, it outputs a large number of significant results, the majority of which are not biologically meaningful. The two issues are addressed here, by two new statistical procedures, the Weighted and Doubly Weighted Kolmogorov-Smirnov tests. The two tests have been applied both to simulated and real data, and compared with other existing procedures. Our conclusion is that, beyond their mathematical and algorithmic advantages, the WKS and DWKS tests could be more informative in many cases, than the classical GSEA test and efficiently address the issues that have led to their construction
APA, Harvard, Vancouver, ISO, and other styles
49

Kezouit, Omar Abdelaziz. "Bases de données relationnelles et analyse de données : conception et réalisation d'un système intégré." Paris 11, 1987. http://www.theses.fr/1987PA112130.

Full text
Abstract:
Les utilisateurs de bases de données relationnelles ont de plus en plus souvent tendance à attendre des Systèmes de Gestion de Bases de Données (SGBD) des fonctionnalités qui aillent plus loin que l'organisation le stockage et la restitution d'un ensemble de données. D'un autre côté, les utilisateurs de l'analyse statistique multidimensionnelle, qui traitent des tableaux de données rectangulaires, ont de gros problèmes de gestion de leurs données et les outils dont ils disposaient jusqu'à présent manquaient souvent de souplesse, voire de possibilités. Pour répondre à cette préoccupation, cette thèse propose de rapprocher bases de données relationnelles et analyse statistique multidimensionnelle à travers la réalisation d'un système intégrant un SGBD relationnel et un système d'analyse de données, et de montrer par là même tout le bénéfice qui peut en être tiré du point de vue de l'interrogation des données. La première partie se propose de présenter les problèmes généraux naissant de l'intégration. Après une présentation des deux domaines et de certains travaux en bases de données statistiques, nous proposons une synthèse des notions de l'analyse statistique multidimensionnelle et des bases de données relationnelles. Ceci permettra de déboucher sur les spécifications d'un outil intégré de gestion et d'analyse des données et également de mettre en évidence un problème de cohérence particulier. Outre l'apport provenant de chaque part (gestion des données plus performante grâce au SGBD, interrogation statistique grâce au système d'analyse des données), des possibilités nouvelles naissent de l'intégration. Il s'agit principalement de la capacité d'effectuer des requêtes approximatives, que nous défroissons à cette occasion, sur une base de données et de la résolution dans certains cas du problème des données manquantes. La seconde partie est consacrée à la présentation d'une réalisation particulière. Nous avons pour cela intégré le SGBD relationnel PEPIN et le Système de classification automatique SICLA. Le prototype opérationnel permet ainsi de gérer une base de données relationnelle et de l'interroger statistiquement. Un exemple d'utilisation pour le traitement d'une enquête est donné.
APA, Harvard, Vancouver, ISO, and other styles
50

Zelasco, José Francisco. "Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20232.

Full text
Abstract:
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants<br>A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!