To see the other types of publications on this topic, follow the link: Base de données hospitalières.

Dissertations / Theses on the topic 'Base de données hospitalières'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Base de données hospitalières.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Jouanjus, Emilie. "Identification des complications graves associées à l'usage de substances psychoactives." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2123/.

Full text
Abstract:
Le système d'addictovigilance français recueille les cas d'abus et de pharmacodépendance graves aux substances psychoactives mais est limité du fait d'une sous-notification. Dans cette thèse, nous avons estimé la fréquence des complications associées à ces substances dans la zone géographique couverte par le Centre Hospitalier Universitaire (CHU) de Toulouse. D'une part, en appliquant la méthode de capture-recapture à trois sources de données, notamment la base de données hospitalière (PMSI, Programme de Médicalisation des Systèmes d'Information). D'autre part, à partir des hospitalisations en lien avec la prise de cannabis enregistrées dans le PMSI. Ces derniers travaux ont mis en évidence un nombre relativement élevé de complications cardiovasculaires, que nous avons ensuite spécifiquement caractérisées en utilisant les données du système d'addictovigilance français (Notifications spontanées) dans le cadre d'une étude nationale. Au total, ce travail de thèse a permis de caractériser qualitativement et quantitativement les complications associées à l'usage de substances psychoactives, en particulier le cannabis, et d'évaluer la pertinence de l'utilisation de différentes sources de données pour l'identification de ces complications
The French Addictovigilance system is unique in Europe. However, it is not meant to reliably and exhaustively comprehend the dangerousness of drugs with potential of abuse. Notably, the under-reporting of serious abuse and dependence cases raises the issue of the relevance of using these data to assess the medical complication risk associated with psychoactive drug use. Another possible approach could be the use of administrative computerized hospital databases. We used data from the French hospital database PMSI (Programme de Médicalisation des Systèmes d'Information) to estimated the frequency of complications related to psychoactive substance use. First, three-source-capture-recapture analysis was applied. Then, cannabis-related hospitalizations identified from PMSI were systematically reviewed. These studies revealed a relatively high prevalence of cardiovascular complications, and these findings led us to specifically characterize cannabis-related cardiovascular complications at the national level by using the data collected by the French Addictovigilance System (i. E. Spontaneous Reports). To conclude, this thesis enabled to qualitatively and quantitatively characterize psychoactive-drug-related-complications, particularly cannabis. Doing so, we assessed the relevance of the data sources which can possibly be explored to identify serious complications related to psychoactive drug use (including PMSI), and defined methodological criteria in order to make the best use of them
APA, Harvard, Vancouver, ISO, and other styles
2

Couris, Chantal Marie. "Les bases de données médico-administratives hospitalières comme source d'information permanente pour l'épidémiologie descriptive du cancer : méthodes d'estimation et de correction du nombre de cancers du sein incidents à l'hôpital." Lyon 1, 2001. http://www.theses.fr/2001LYO1T234.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Elenga, Narcisse. "L’épidémiologie de l’infection VIH chez l’adulte en Guadeloupe : étude à partir de la base de données hospitalière sur l’infection VIH (1988-2009)." Thesis, Antilles-Guyane, 2014. http://www.theses.fr/2014AGUY0786/document.

Full text
Abstract:
Avec un taux d’incidence cumulée de 56 cas pour 100 000 habitants, la Guadeloupe est la deuxième région de France la plus touchée par le VIH. La plupart des publications sur le VIH/Sida en Guadeloupe sont essentiellement descriptives, issues de rapports d’activité. La base hospitalière, alimentant la Base de données Hospitalière française sur l’infection à VIH, n’a été que très peu exploitée pour la recherche. L’objectif de ce travail est d’évaluer les aspects fondamentaux de la prise en charge de l’infection VIH. Ainsi le dépistage tardif, le retard à la prise en charge spécialisée, l’interruption du suivi, les infections opportunistes et les décès sont étudiés ainsi que leurs facteurs prédictifs.Dans ce travail articulé autour de six publications, nous avons mis en évidence les points suivants : tout d’abord, le diagnostic très tardif (CD4<200/mm3) concernait 40,12 % des adultes infectés par le VIH suivis en Guadeloupe. Comparé à la France métropolitaine, ce taux est encore très élevé et souligne l’importance de poursuivre les efforts de dépistage. Pour pouvoir bénéficier d’une prise en charge précoce, le patient doit être dirigé dans un centre de traitement de l’infection par le VIH sans tarder. Or, le retard dans cette prise en charge spécialisée touchait 36 % des patients. L’analyse des éléments associés à ce retard a permis d’en identifier les facteurs de risque.Pour optimiser les résultats thérapeutiques, les patients nécessitent un suivi régulier. Ainsi, le système de santé devrait avoir comme objectif, entre autres, la rétention des patients dans le circuit de soins. Or, plus de 22 % des patients de cette cohorte étaient perdus de vue et jamais revus. Les patients plus jeunes, ceux au stade B de la classification CDC et ceux non traités par TTARV étaient plus à risque d’interruption de suivi, dès la première année suivant le diagnostic de l’infection VIH.Bien que la proportion des patients suivis sous ARV soit proche de 100 %, il en existe toujours développant un Sida. La comparaison avec la Guyane et la France métropolitaine montre que les trois premières affections classantes en Guadeloupe étaient la candidose oesophagienne, le syndrome de cachexie liée au VIH et la pneumocystose. Il existait des différences notables avec la métropole, mais aussi avec la Guyane. Ce taux élevé de syndrome de cachexie liée au VIH pose question. Derrière ce diagnostic, pourraient se cacher d’autres maladies opportunistes non diagnostiquées, mais également des différences de codage. Le recul de la mortalité avec le temps a entraîné une modification qualitative des causes de décès. Celles rapportées dans la littérature étaient les mêmes que celles observées dans notre étude. Contrairement à la métropole où le cancer représentait la première cause de mortalité, en Guadeloupe, les infections liées au Sida constituaient la première cause de décès.Ce travail de thèse s’est donc efforcé de dégager, pour l’une des régions de France les plus affectées par le VIH, quelques grands indicateurs à partir de la Base Hospitalière FHDH. Cette base ne comportait pas toujours toutes les informations souhaitées, mais le nombre substantiel d’observations donnait une puissance importante aux variables étudiées. Ces résultats, bien que confirmant souvent les connaissances empiriques des cliniciens, aura pu aider à mieux appréhender l’épidémie du VIH en Guadeloupe
With an accumulated incidence rate of 56 cases per 100 000 inhabitants, Guadeloupe is the second French region most affected by HIV. Most of the publications on HIV/AIDS were essentially descriptive, stemming from annual reports. The Guadeloupean Hospital Database on HIV was scarcely exploited for research. The objective of this work was to estimate the fundamental aspects of HIV/AIDS in Guadeloupe. So late presentation for care, delay between HIV diagnosis and first specialised consultation, follow-up interruption, incidence of depression, opportunistic infections and deaths were studied as well as their predictive factors. We were able to highlight the following points: first, the very late HIV diagnosis (CD4< 200 / mm3) concerned 40, 12 % of HIV- infected adults followed in Guadeloupe. 36 % of patients had delays between HIV diagnosis and first specialised consultation. However, more than 22 % of patients were permanently lost to follow-up and never seen again. The first three classifying affections were oesophageal candidiasis, HIV-wasting syndrome and pneumocystosis. The causes of deaths reported in the literature were similar to those observed in our study. AIDS-related infections were the first cause of deaths.This thesis work thus tried to generate, in one of the most HIV-affected French regions, some indicators from the French Hospital Database on HIV. This database often did not contain all the desired informations, but the important number of observations allowed to have high power for the studied variables. These results, although often confirming the clinicians' empirical knowledge, may help understand some aspects of the HIV epidemic in Guadeloupe
APA, Harvard, Vancouver, ISO, and other styles
4

Pinaire, Jessica. "Explorer les trajectoires de patients via les bases médico-économiques : application à l'infarctus du myocarde." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS020/document.

Full text
Abstract:
Avec environ 120 000 personnes atteintes chaque année, 12 000 décès suite à la première crise et 18 000 décès après une année, l'infarctus du myocarde est un enjeu majeur de santé publique. Cette pathologie nécessite une hospitalisation et une prise en charge dans une unité de soins intensifs de cardiologie. Pour étudier cette pathologie, nous nous sommes orientés vers les bases hospitalières du PMSI.La collecte des données hospitalières dans le cadre du PMSI génère sur le plan national des bases de données de l'ordre de 25 millions d'enregistrements par an.Ces données, qui sont initialement recueillies à des fins médico-économiques, contiennent des informations qui peuvent avoir d'autres finalités : amélioration de la prise en charge du patient, prédiction de l'évolution des soins, planification de leurs coûts, etc.Ainsi émerge un autre enjeu : celui de fournir des outils d'explorations des trajectoires hospitalières des patients à partir des données issues du PMSI. Par le biais de plusieurs objectifs, les travaux menés dans le cadre de cette thèse ont pour vocation de proposer des outils combinant des méthodes issues de trois disciplines : informatique médicale, fouille de données et biostatistique.Nous apportons quatre contributions.La première contribution concerne la constitution d'une base de données de qualité pour analyser les trajectoires de patients. La deuxième contribution est une méthode semi-automatique pour la revue systématique de la littérature. Cette partie des travaux délimite les contours du concept de trajectoire dans le domaine biomédical. La troisième contribution est l'identification des parcours à risque dans la prédiction du décès intra-hospitalier. Notre stratégie de recherche s'articule en deux phases : 1) Identification de trajectoires types de patients à l'aide d'outils issus de la fouille de données ; 2) Construction d'un modèle de prédiction à partir de ces trajectoires afin de prédire le décès. Enfin, la dernière contribution est la caractérisation des flux de patients à travers les différents évènements hospitaliers mais aussi en termes de délais d'occurrences et de coûts de ces évènements. Dans cette partie, nous proposons à nouveau une alliance entre une méthode de fouille de données et de classification de données longitudinales
With approximately 120,000 people affected each year, 12,000 deaths from the first crisis and 18,000 deaths after one year, myocardial infarction is a major public health issue. This pathology requires hospitalization and management in an intensive care cardiology unit. We study this pathology using the French national Prospective Paiement System (PPS) databases.The collection of national hospital data within the framework of the PPS generates about 25 million records per year.These data, which are initially collected for medico-economic purposes, contain information that may have other purposes: improving patient care, predicting the evolution of care, planning their costs, etc.Another emerging issue is that of providing tools for exploring patients' hospital trajectories using data from the PPS. Through several objectives, this thesis aims to suggest tools combining methods from three disciplines: medical computing, data mining and biostatistics.We make four contributions.The first contribution concerns the constitution of a quality database to analyze patient trajectories. The second contribution is a semi-automatic method for the systematic review of the literature. This part of the work delineates the contours of the trajectory concept in the biomedical field. The third contribution is the identification of care trajectories in the prediction of intra-hospital death. Our research strategy is divided into two phases: 1) Identification of typical patient trajectories using data mining tools; 2) Construction of a prediction model from these trajectories to predict death. Finally, the last contribution is the characterization of patient flows through the various hospital events, also considering of delays and costs. In this contribution, we propose a combined-data mining and a longitudinal data clustering technique
APA, Harvard, Vancouver, ISO, and other styles
5

Ledieu, Thibault. "Analyse et visualisation de trajectoires de soins par l’exploitation de données massives hospitalières pour la pharmacovigilance." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1B032/document.

Full text
Abstract:
Le phénomène de massification des données de santé constitue une opportunité de répondre aux questions des vigilances et de qualité des soins. Dans les travaux effectués au cours de cette thèse, nous présenterons des approches permettant d’exploiter la richesse et le volume des données intra hospitalières pour des cas d’usage de pharmacovigilance et de surveillance de bon usage du médicament. Cette approche reposera sur la modélisation de trajectoires de soins intra hospitalières adaptées aux besoins spécifiques de la pharmacovigilance. Il s’agira, à partir des données d’un entrepôt hospitalier de caractériser les événements d’intérêt et d’identifier un lien entre l’administration de ces produits de santé et l’apparition des effets indésirables, ou encore de rechercher les cas de mésusage du médicament. L’hypothèse posée dans cette thèse est qu’une approche visuelle interactive serait adaptée pour l’exploitation de ces données biomédicales hétérogènes et multi-domaines dans le champ de la pharmacovigilance. Nous avons développé deux prototypes permettant la visualisation et l’analyse des trajectoires de soins. Le premier prototype est un outil de visualisation du dossier patient sous forme de frise chronologique. La deuxième application est un outil de visualisation et fouille d’une cohorte de séquences d’événements. Ce dernier outil repose sur la mise en œuvre d’algorithme d’analyse de séquences (Smith-Waterman, Apriori, GSP) pour la recherche de similarité ou de motifs d’événements récurrents. Ces interfaces homme-machine ont fait l’objet d’études d’utilisabilité sur des cas d’usage tirées de la pratique réelle qui ont prouvé leur potentiel pour un usage en routine
The massification of health data is an opportunity to answer questions about vigilance and quality of care. The emergence of big data in health is an opportunity to answer questions about vigilance and quality of care. In this thesis work, we will present approaches to exploit the diversity and volume of intra-hospital data for pharmacovigilance use and monitoring the proper use of drugs. This approach will be based on the modelling of intra-hospital care trajectories adapted to the specific needs of pharmacovigilance. Using data from a hospital warehouse, it will be necessary to characterize events of interest and identify a link between the administration of these health products and the occurrence of adverse reactions, or to look for cases of misuse of the drug. The hypothesis put forward in this thesis is that an interactive visual approach would be suitable for the exploitation of these heterogeneous and multi-domain biomedical data in the field of pharmacovigilance. We have developed two prototypes allowing the visualization and analysis of care trajectories. The first prototype is a tool for visualizing the patient file in the form of a timeline. The second application is a tool for visualizing and searching a cohort of event sequences The latter tool is based on the implementation of sequence analysis algorithms (Smith-Waterman, Apriori, GSP) for the search for similarity or patterns of recurring events. These human-machine interfaces have been the subject of usability studies on use cases from actual practice that have proven their potential for routine use
APA, Harvard, Vancouver, ISO, and other styles
6

Ferret, Laurie. "Anticoagulants oraux, réutilisation de données hospitalières informatisées dans une démarche de soutien à la qualité des soins." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S016/document.

Full text
Abstract:
Introduction :Les anticoagulants oraux soulèvent des problématiques majeures en termes de risque hémorragique et de bon usage. L’informatisation du dossier médical offre la possibilité d’accéder à de grandes bases de données que l’on peut exploiter de manière automatisée. L’objectif de ce travail est de montrer comment la réutilisation de données peut permettre d’étudier des problématiques liées aux anticoagulants et accompagner une démarche d’assurance de la qualité des soins. MéthodesCe travail a été réalisé sur les données informatisées (97 355 séjours) d’un centre hospitalier général. Pour chaque séjour nous disposons des données diagnostiques, biologiques, médicamenteuses, administratives et des courriers de sortie. Ce travail est organisé autour de 3 axes :Axe I. L’objectif est d’évaluer la qualité de la détection des facteurs pouvant majorer l’effet anticoagulant des antivitamines K (AVK), à l’aide de règles développées au cours de du projet européen PSIP (convention de subvention n° 216130). Une revue des cas sur une année a permis de calculer la valeur prédictive positive et la sensibilité des règles. Axe II. Nous avons réalisé une étude de cohorte historique sur les données de 2007 à 2012 pour déterminer les éléments majeurs impliqués dans l’élévation du risque hémorragique sous AVK dans la réalité clinique. Les cas étaient les séjours présentant une élévation de l’INR au-delà de 5, les témoins n’en présentaient pas. Axe III. Nous avons mis la réutilisation de données au service de l’étude de la qualité des prescriptions. D’une part nous avons évalué le suivi des recommandations de traitement du risque thromboembolique dans la fibrillation atriale (FA) chez la personne âgée, d’autre part nous avons étudié les modalités de prescription des anticoagulants oraux directs (AOD).Résultats : Axe I : La valeur prédictive positive des règles de détection des facteurs favorisant l’élévation de l’INR sous AVK est de 22,4%, leur sensibilité est de 84,6%. Les règles les plus contributives sont les règles de détection d’un syndrome infectieux et de l’administration d’amiodarone. Axe II : Les facteurs majeurs d’élévation du risque hémorragique sous AVK mis en évidence par l’étude de cohorte sont le syndrome infectieux, le cancer, l’hyprotidémie et l’insuffisance hépatique. Axe III : Le taux de suivi des recommandations dans la fibrillation atriale chez le sujet âgé est de 47.8%. Seuls 45% des patients reçoivent des anticoagulants oraux, 22,9% ne reçoivent aucun traitement antithrombotique et 32,1% reçoivent des antiagrégants plaquettaires. Les AOD sont quant à eux prescrits à des posologies inadaptées chez 15 à 31,4% des patients, respectivement pour le dabigatran et le rivaroxaban. Ces erreurs sont principalement des sous-dosages en AOD dans la FA de la personne âgée (82.6%). Discussion : L’informatisation des dossiers médicaux a permis la constitution de grandes bases de données médico-administratives, qui peuvent être utilisées à des fins variées comme nous le montrons dans ce travail. Dans le premier axe nous avons montré que des systèmes d’aide à la décision à base de règles permettent de caractériser les facteurs impliqués dans les surdosages en AVK avec une bonne sensibilité mais avec une faible valeur prédictive positive. Le second axe a montré que l’on pouvait utiliser ces données à des fins exploratoires pour identifier les facteurs liés à l’élévation de l’INR chez les patients recevant des AVK en pratique réelle. Le troisième axe montre que les systèmes à base de règles peuvent aussi être utilisés pour identifier des prescriptions inappropriées à des fins d’amélioration de la qualité des soins. Dans le domaine de l’anticoagulation ce travail ouvre des perspectives innovantes en vue de l’amélioration de la qualité des soins
Introduction :Oral anticoagulants raise major issues in terms of bleeding risk and appropriate use. The computerization of medical records offers the ability to access large databases that can be explored automatically. The objective of this work is to show how routinely collected data can be reused to study issues related to anticoagulants in a supportive approach to quality of care.MethodsThis work was carried out on the electronic data (97,355 records) of a community hospital. For each inpatient stay we have diagnostic, biological, drug and administrative data, and the discharge letters. This work is organized around three axes:Axis I. The objective is to evaluate the accuracy of the detection of factors that may increase the anticoagulant effect of vitamin K antagonists (VKA), using rules developed in the PSIP european project (grant agreement N° 216130). A case review on one year enabled the calculation of the positive predictive value and sensitivity of the rules. Axis II. We conducted a cohort study on data from 2007 to 2012 to determine the major elements involved in raising the risk of bleeding related to VKA in clinical reality. Cases were the stays with an elevation of the INR beyond 5, the controls did not have.Axis III. We made data reuse serve a study of the quality of the prescriptions. On the one hand we assessed treatment of the thromboembolic risk recommendations in atrial fibrillation (AF) in the elderly, on the other hand we investigated the prescription of direct oral anticoagulants.Results : Axis I : The positive predictive value of the rules intended to detect the factors favoring the elevation of INR in case of treatment with VKA is 22.4%, the sensitivity is 84.6%. The main contributive rules are the ones intended to detect an infectious syndrome and amiodarone.Axis II : The major factor increasing the INR with VKA treatment highlighted by the cohort study are infectious syndrome, cancer, hepatic insufficiency and hypoprotidemia. The recommendations compliance rate in atrial fibrillation in the elderly is 47.8%. Only 45% of patients receive oral anticoagulants, 22.9% do not receive antithrombotic treatment at all and 32.1% received platelet aggregation inhibitors. Direct oral anticoagulants are prescribed at inadequate dosages in 15 to 31.4% of patients, respectively for dabigatran and rivaroxaban. These errors are mainly underdosages in the elderly with atrial fibrillation (82.6%).Discussion : The computerization of medical records has led to the creation of large medical databases, which can be used for various purposes as we show in this work. In the first work axis we have shown that rule-based decision support systems detect the contributing factors for VKA overdose with a good sensitivity but a low positive predictive value. The second line shows that we could use the data for exploratory purposes to identify factors associated with increased INR in patients receiving VKA in “real life practice”. The third line shows that the rule-based systems can also be used to identify inappropriate prescribing for the purpose of improving the quality of care. In the field of anticoagulation this work opens up innovative perspectives for improving the quality of care
APA, Harvard, Vancouver, ISO, and other styles
7

Deboscker, Stéphanie. "Les entérocoques résistants aux glycopeptides : épidémiologie et modélisation de leur transmission hospitalière." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAJ106.

Full text
Abstract:
L’objectif de notre travail était d’étudier les facteurs d'acquisition des entérocoques résistants aux glycopeptides (ERG) en situation épidémique, de décrire leur histoire naturelle et de modéliser leur transmission entre 3 services spécialisés. L’analyse multivariée bayésienne de notre première étude a montré que des antécédents d'hospitalisation et la prise d'antibiotiques et d'antiacides pendant l'hospitalisation favorisaient l'acquisition. La description de la cohorte de patients suivis depuis 2007a fait apparaître que la moitié des patients étaient pauci-excréteurs après 3 mois. Enfin l’analyse de la littérature a révélé que le modèle le plus pertinent pour simuler la diffusion hospitalière des ERG était celui basé sur les agents (agent-based model). Les simulations ont confirmé l’importance de l’hygiène des mains pour la prise en charge des patients, au regard d’autres mesures barrières. Avec une compliance à 80%, il n’y avait pas de cas secondaires dans 50% des simulations
The objective of our work was to study the factors associated with acquisition of glycopeptide-resistant enterococci (GRE) during a single-strain outbreak, to describe their natural history and to model their transmission between 3 specialized wards. The Bayesian multivariable analysis of our first study showed that a history of hospitalization and the use of antibiotics and antacids during hospitalization were associated with an increased risk of GRE acquisition. The description of GRE-carriers followed since 2007 then showed that half of the patients had negative screenings after 3months. Finally, the literature review revealed that the most relevant model for simulating GRE hospital diffusion was an agent-based model. The simulations confirmed the importance of hand hygiene for patient care in comparison to other barrier measures. With 80% compliance, there were no secondary cases in 50% of the simulations
APA, Harvard, Vancouver, ISO, and other styles
8

Dehainsala, Hondjack. "Explicitation de la sémantique dans lesbases de données : Base de données à base ontologique et le modèle OntoDB." Phd thesis, Université de Poitiers, 2007. http://tel.archives-ouvertes.fr/tel-00157595.

Full text
Abstract:
Une ontologie de domaine est une représentation de la sémantique des concepts d'un domaine
en termes de classes et de propriétés, ainsi que des relations qui les lient. Avec le développement de
modèles d'ontologies stables dans différents domaines, OWL dans le domaine duWeb sémantique,
PLIB dans le domaine technique, de plus en plus de données (ou de métadonnées) sont décrites par référence à ces ontologies. La taille croissante de telles données rend nécessaire de les gérer au sein de bases de données originales, que nous appelons bases de données à base ontologique (BDBO), et qui possèdent la particularité de représenter, outre les données, les ontologies qui en définissent le sens. Plusieurs architectures de BDBO ont ainsi été proposées au cours des dernières années. Les chémas qu'elles utilisent pour la représentation des données sont soit constitués d'une unique table de triplets de type (sujet, prédicat, objet), soit éclatés en des tables unaires et binaires respectivement pour chaque classe et pour chaque propriété. Si de telles représentations permettent une grande flexibilité dans la structure des données représentées, elles ne sont ni susceptibles de passer à grande échelle lorsque chaque instance est décrite par un nombre significatif de propriétés, ni adaptée à la structure des bases de données usuelles, fondée sur les relations n-aires. C'est ce double inconvénient que vise à résoudre le modèle OntoDB. En introduisant des hypothèses de typages qui semblent acceptables dans beaucoup de domaine d'application, nous proposons une architecture de BDBO constituée de quatre parties : les deux premières parties correspondent à la structure usuelle des bases de données : données reposant sur un schéma logique de données, et méta-base décrivant l'ensemble de la structure de tables.
Les deux autres parties, originales, représentent respectivement les ontologies, et le méta-modèle
d'ontologie au sein d'un méta-schéma réflexif. Des mécanismes d'abstraction et de nomination permettent respectivement d'associer à chaque donnée le concept ontologique qui en définit le sens, et d'accéder aux données à partir des concepts, sans se préoccuper de la représentation des données. Cette architecture permet à la fois de gérer de façon efficace des données de grande taille définies par référence à des ontologies (données à base ontologique), mais aussi d'indexer des bases de données usuelles au niveau connaissance en leur adjoignant les deux parties : ontologie et méta-schéma. Le modèle d'architecture que nous proposons a été validé par le développement d'un prototype opérationnel implanté sur le système PostgreSQL avec le modèle d'ontologie PLIB. Nous présentons également une évaluation comparative de nos propositions aux modèles présentés antérieurement.
APA, Harvard, Vancouver, ISO, and other styles
9

Bounar, Boualem. "Génération automatique de programmes sur une base de données en réseau : couplage PROLOG-Base de données en réseau." Lyon 1, 1986. http://www.theses.fr/1986LYO11703.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

El, Khalil Firas. "Sécurité de la base de données cadastrales." Thesis, Polynésie française, 2015. http://www.theses.fr/2015POLF0001/document.

Full text
Abstract:
Le contrôle d'agrégation dit Quantity Based Aggregation (QBA) est lié au contrôle de l'inférence dans les bases de données et a rarement été traité par la communauté scientifique. Considérons un ensemble S formé de N éléments. L'agrégation d'éléments de l'ensemble S n'est considérée comme étant confidentielle qu'à partir d'un certain seuil k, avec k < N. Le but du contrôle QBA est donc de garantir que le nombre d'éléments de S délivrés à un utilisateur reste toujours inférieur à k. Dans cette thèse, nous traitons du problème du contrôle QBA dans les bases de données cadastrales. Ce travail répond à un besoin du service des affaires foncières de la Polynésie française. La politique de sécurité qu'il nous a été demandé d'implanter donne le droit à chaque utilisateur de connaître le propriétaire de n'importe quelle parcelle. Cette permission est toutefois limitée par les interdictions suivantes: l'utilisateur ne doit jamais arriver à connaître 1- tous les propriétaires dans une région donnée, et 2- toutes les parcelles appartenant au même propriétaire. Chacune de ces interdictions correspond, de manière évidente, à un problème de type QBA. Dans cette thèse, nous développons d'abord un modèle pour assurer la première interdiction, ensuite nous montrons comment adapter notre modèle à la seconde interdiction. Nous présentons, en outre, une implémentation de notre modèle pour les bases de données relationnelles
Quantity Based Aggregation (QBA) controls closely related to inference control database and has been rarely addressed by the scientific community. Let us consider a set S of N elements. The aggregation of k elements, at most, out of N is not considered sensitive, while the aggregation of mor than k out of N elements is considered sensitive and should be prevented. The role of QBA control is to make sure the number of disclosed elements of S is less than or equal to k, where k
APA, Harvard, Vancouver, ISO, and other styles
11

Dehainsala, Hondjack. "Explicitation de la sémantique dans les bases de données : base de données à base ontologique et le modèle OntoDB." Poitiers, 2007. http://www.theses.fr/2007POIT2270.

Full text
Abstract:
Une base de données à base ontologique (BDBO) est une base de données qui permet de représenter à la fois des données et l’ontologie qui en définit le sens. On propose dans cette thèse un modèle d’architecture de BDBO, appelé OntoDB, qui présente deux caractéristiques originales. D’une part, comme dans les bases de données usuelles, chaque entité est associée à un schéma logique qui définit la structure commune de toutes ses instances. Notre approche permet donc d’ajouter, a posteriori, une ontologie à une base de données existante pour indexer sémantiquement son contenu. D’autre part, le méta-modèle (réflexif) du modèle d’ontologie est lui-même représenté. Cela permet de supporter les évolutions du modèle d’ontologie. OntoDB a été validé par un prototype. Le prototype a fait l’objet d’une évaluation de performance qui a montré que l’approche proposée permettrait de gérer des données de grande taille et supporter beaucoup mieux le passage à l'échelle que les approches existantes
An Ontology–Based DataBase (OBDB) is a database which allows to store both data and ontologies that define data meaning. In this thesis, we propose a new architecture model for OBDB, called OntoDB. This model has two main original features. First, like usual databases, each stored entity is associated with a logical schema which define the structure of all its instances. Thus, our approach provides for adding ontology to existing database for semantic indexation of its content. Second, meta-model of the ontology model is also represented in the same database. This allows to support change and evolution of ontology models. The OntoDB model has been validated by a prototype. Performance evaluation of this prototype has been done and has shown that our approach allows to manage very large data and supports scalability much better than the previously proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
12

Lamer, Antoine. "Contribution à la prévention des risques liés à l’anesthésie par la valorisation des informations hospitalières au sein d’un entrepôt de données." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S021/document.

Full text
Abstract:
Introduction Le Système d'Information Hospitalier (SIH) exploite et enregistre chaque jours des millions d'informations liées à la prise en charge des patients : résultats d'analyses biologiques, mesures de paramètres physiologiques, administrations de médicaments, parcours dans les unités de soins, etc... Ces données sont traitées par des applications opérationnelles dont l'objectif est d'assurer un accès distant et une vision complète du dossier médical des patients au personnel médical. Ces données sont maintenant aussi utilisées pour répondre à d'autres objectifs comme la recherche clinique ou la santé publique, en particulier en les intégrant dans un entrepôt de données. La principale difficulté de ce type de projet est d'exploiter des données dans un autre but que celui pour lequel elles ont été enregistrées. Plusieurs études ont mis en évidence un lien statistique entre le respect d'indicateurs de qualité de prise en charge de l'anesthésie et le devenir du patient au cours du séjour hospitalier. Au CHRU de Lille, ces indicateurs de qualité, ainsi que les comorbidités du patient lors de la période post-opératoire pourraient être calculés grâce aux données recueillies par plusieurs applications du SIH. L'objectif de se travail est d'intégrer les données enregistrées par ces applications opérationnelles afin de pouvoir réaliser des études de recherche clinique.Méthode Dans un premier temps, la qualité des données enregistrées dans les systèmes sources est évaluée grâce aux méthodes présentées par la littérature ou développées dans le cadre ce projet. Puis, les problèmes de qualité mis en évidence sont traités lors de la phase d'intégration dans l'entrepôt de données. De nouvelles données sont calculées et agrégées afin de proposer des indicateurs de qualité de prise en charge. Enfin, deux études de cas permettent de tester l'utilisation du système développée.Résultats Les données pertinentes des applications du SIH ont été intégrées au sein d'un entrepôt de données d'anesthésie. Celui-ci répertorie les informations liées aux séjours hospitaliers et aux interventions réalisées depuis 2010 (médicaments administrées, étapes de l'intervention, mesures, parcours dans les unités de soins, ...) enregistrées par les applications sources. Des données agrégées ont été calculées et ont permis de mener deux études recherche clinique. La première étude a permis de mettre en évidence un lien statistique entre l'hypotension liée à l'induction de l'anesthésie et le devenir du patient. Des facteurs prédictifs de cette hypotension ont également étaient établis. La seconde étude a évalué le respect d'indicateurs de ventilation du patient et l'impact sur les comorbidités du système respiratoire.Discussion The data warehouse L'entrepôt de données développé dans le cadre de ce travail, et les méthodes d'intégration et de nettoyage de données mises en places permettent de conduire des analyses statistiques rétrospectives sur plus de 200 000 interventions. Le système pourra être étendu à d'autres systèmes sources au sein du CHRU de Lille mais également aux feuilles d'anesthésie utilisées par d'autres structures de soins
Introduction Hospital Information Systems (HIS) manage and register every day millions of data related to patient care: biological results, vital signs, drugs administrations, care process... These data are stored by operational applications provide remote access and a comprehensive picture of Electronic Health Record. These data may also be used to answer to others purposes as clinical research or public health, particularly when integrated in a data warehouse. Some studies highlighted a statistical link between the compliance of quality indicators related to anesthesia procedure and patient outcome during the hospital stay. In the University Hospital of Lille, the quality indicators, as well as the patient comorbidities during the post-operative period could be assessed with data collected by applications of the HIS. The main objective of the work is to integrate data collected by operational applications in order to realize clinical research studies.Methods First, the data quality of information registered by the operational applications is evaluated with methods … by the literature or developed in this work. Then, data quality problems highlighted by the evaluation are managed during the integration step of the ETL process. New data are computed and aggregated in order to dispose of indicators of quality of care. Finally, two studies bring out the usability of the system.Results Pertinent data from the HIS have been integrated in an anesthesia data warehouse. This system stores data about the hospital stay and interventions (drug administrations, vital signs …) since 2010. Aggregated data have been developed and used in two clinical research studies. The first study highlighted statistical link between the induction and patient outcome. The second study evaluated the compliance of quality indicators of ventilation and the impact on comorbity.Discussion The data warehouse and the cleaning and integration methods developed as part of this work allow performing statistical analysis on more than 200 000 interventions. This system can be implemented with other applications used in the CHRU of Lille but also with Anesthesia Information Management Systems used by other hospitals
APA, Harvard, Vancouver, ISO, and other styles
13

Lemaire, Pierre. "Base de données informatique : application aux leucémies aigue͏̈s." Paris 5, 1997. http://www.theses.fr/1997PA05P039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Kindombi, Lola Ndontoni. "Communications interactives avec une machine base de données." Paris 11, 1985. http://www.theses.fr/1985PA112379.

Full text
Abstract:
Ce rapport présente une contribution à la réalisation d’un système construit selon le modèle d’interconnexion des systèmes ouverts défini par l’ISO (International Standard Organisation), en insistant sur la Couche Présentation et la Couche Application. La Couche Application comprend : a) un système de gestion de bases de données, centralisé sur une Machine Base de Données (le DORSAL32), utilisant les notions d’ "activités" et d’ "images internes des utilisateurs" pour contrôler les sollicitations externes ; b) un ensemble de "Gérants de Terminaux" en interaction avec le système de gestion de bases de données, offrant à l’utilisateur final une interface souple et indépendante des caractéristiques du terminal utilisé. La Couche Présentation, extensible, est constituée : a) d’une sous-couche de "Présentations Spécifiques" par "image de présentation" ; b) d’une sous-couche de "Présentation Basique" utilisant les fonctions de la Couche Session pour offrir une connexion-présentation découpée en "phases" séquentielles, chaque "phase" étant définie comme support d’exécution d’une Présentation Spécifique. Le système réalisé a été mis en exploitation sous le moniteur MMT2 sur le MITRA-525.
APA, Harvard, Vancouver, ISO, and other styles
15

Hsu, Lung-Cheng. "Pbase : une base de données déductive en Prolog." Compiègne, 1988. http://www.theses.fr/1988COMPD126.

Full text
Abstract:
Ce travail présente un SGBD (Système de Gestion de Base de Données) couplant PROLOG II et VAX RMS (Record Management System). Les LDD (Langage de Définition de Données) et le LMD (Langage de Manipulation des Données) sont implantés en PROLOG et la gestion du stockage et de la recherche des enregistrements correspondant aux faits est déléguée à RMS. L'organisation indexée est adoptée pour fournir un temps de réponse satisfaisant. Une interface écrite en PASCAL assure la communication entre PROLOG et RMS. L'intérêt de PBASE est qu'il peut fonctionner comme un SGBD général ou bien qu'il peut coopérer avec un système expert pour gérer des faits volumineux stockés en mémoire secondaire. L'ouverture vers VAX RDB (Relational DataBase) est aussi possible. Bien que PBASE s'applique aussi bien aux relations normalisées que celles non-normalisées, un module de normalisation est inclus afin d'éviter les problèmes créés par la redondance de données
This thesis describes a relational database system coupling PROLOG II and VAX RMS (Record Management Services). The SQL-like DDL (Data Definition Language) and DML (Data Manipulation Language) are implemented in PROLOG and the management of storage and research of fact record is delegated to RMS. The indexed file organization is adopted to provide a satisfactory response time. An interface written in PASCAL is called to enable the communication between PROLOG and RMS. Once the interface is established, access to the database is transparent. No precompilation is requiert. PBASE can be used as a general DBMS or it can cooperate with an expert system (Our SQL translation module can be considered as such) to manage the voluminous facts stored in the secondary memory. It can also cooperate with VAX RDB (Relational DataBase) to constitute a powerful deductive database. Although PBASE works for normalized relations as well as non-normalized ones, a normalization module is included to avoid the problems caused by the redundancy of data
APA, Harvard, Vancouver, ISO, and other styles
16

Fankam, Nguemkam Chimène. "OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques." Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. https://tel.archives-ouvertes.fr/tel-00452533.

Full text
Abstract:
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc. ) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc. ) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web
The need to represent the semantics of data in various scientific fields (medicine, geography, engineering, etc…) has resulted in the definition of data referring to ontologies, also called ontology-based data. With the proliferation of domain ontologies, and the increasing volume of data to handle, has emerge the need to define systems capable of managing large size of ontology-based data. Such systems are called Ontology Based DataBase (OBDB) Management Systems. The main limitations of existing OBDB systems are (1) their rigidity, (2) lack of support for non standard data (spatial, temporal, etc…) and (3) their lack of effectiveness to manage large size data. In this thesis, we propose a new OBDB called OntoDB2, allowing (1) the support of ontologies based on different ontology models, (2) the extension of its model to meet specific applications requirements, and (3) an original management of ontology-based data facilitating scalability. Onto DB2 is based on the existence of a kernel ontology, and model-based techniques to enable a flexible extension of this kernel. We propose to represent only canonical data by transforming, under certain conditions, any given non-canonical data to its canonical representation. We propose to use the ontology query language to (1) to access non-canonical data thereby transform and, (2) index and pre-calculate the reasoning operations by using the mechanisms of the underlying DBMS
APA, Harvard, Vancouver, ISO, and other styles
17

Ficheur, Grégoire. "Réutilisation de données hospitalières pour la recherche d'effets indésirables liés à la prise d'un médicament ou à la pose d'un dispositif médical implantable." Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S015/document.

Full text
Abstract:
Introduction : les effets indésirables associés à un traitement médicamenteux ou à la pose d'un dispositif médical implantable doivent être recherchés systématiquement après le début de leur commercialisation. Les études réalisées pendant cette phase sont des études observationnelles qui peuvent s'envisager à partir des bases de données hospitalières. L'objectif de ce travail est d'étudier l'intérêt de la ré-utilisation de données hospitalières pour la mise en évidence de tels effets indésirables.Matériel et méthodes : deux bases de données hospitalières sont ré-utilisées pour les années 2007 à 2013 : une première contenant 171 000 000 de séjours hospitaliers incluant les codes diagnostiques, les codes d'actes et des données démographiques, ces données étant chaînées selon un identifiant unique de patient ; une seconde issue d'un centre hospitalier contenant les mêmes types d'informations pour 80 000 séjours ainsi que les résultats de biologie médicale, les administrations médicamenteuses et les courriers hospitaliers pour chacun des séjours. Quatre études sont conduites sur ces données afin d'identifier d'une part des évènements indésirables médicamenteux et d'autre part des évènements indésirables faisant suite à la pose d'un dispositif médical implantable.Résultats : la première étude démontre l'aptitude d'un jeu de règles de détection à identifier automatiquement les effets indésirables à type d'hyperkaliémie. Une deuxième étude décrit la variation d'un paramètre de biologie médicale associée à la présence d'un motif séquentiel fréquent composé d'administrations de médicaments et de résultats de biologie médicale. Un troisième travail a permis la construction d'un outil web permettant d'explorer à la volée les motifs de réhospitalisation des patients ayant eu une pose de dispositif médical implantable. Une quatrième et dernière étude a permis l'estimation du risque thrombotique et hémorragique faisant suite à la pose d'une prothèse totale de hanche.Conclusion : la ré-utilisation de données hospitalières dans une perspective pharmacoépidémiologique permet l'identification d'effets indésirables associés à une administration de médicament ou à la pose d'un dispositif médical implantable. L'intérêt de ces données réside dans la puissance statistique qu'elles apportent ainsi que dans la multiplicité des types de recherches d'association qu'elles permettent
Introduction:The adverse events associated with drug administration or placement of an implantable medical device should be sought systematically after the beginning of the commercialisation. Studies conducted in this phase are observational studies that can be performed from hospital databases. The objective of this work is to study the interest of the re-use of hospital data for the identification of such an adverse event.Materials and methods:Two hospital databases have been re-used between the years 2007 to 2013: the first contains 171 million inpatient stays including diagnostic codes, procedures and demographic data. This data is linked with a single patient identifier; the second database contains the same kinds of information for 80,000 stays and also the laboratory results and drug administrations for each inpatient stay. Four studies were conducted on these pieces of data to identify adverse drug events and adverse events following the placement of an implantable medical device.Results:The first study demonstrates the ability of a set of detection of rules to automatically identify adverse drug events with hyperkalaemia. The second study describes the variation of a laboratory results associated with the presence of a frequent sequential pattern composed of drug administrations and laboratory results. The third piece of work enables the user to build a web tool exploring on the fly the reasons for rehospitalisation of patients with an implantable medical device. The fourth and final study estimates the thrombotic and bleeding risks following a total hip replacement.Conclusion:The re-use of hospital data in a pharmacoepidemiological perspective allows the identification of adverse events associated with drug administration or placement of an implantable medical device. The value of this data is the amount statistical power they bring as well as the types of associations they allow to analyse
APA, Harvard, Vancouver, ISO, and other styles
18

Bec, Xavier. "Une base de données pour les effets spéciaux numériques." Paris 8, 2000. http://www.theses.fr/2000PA081818.

Full text
Abstract:
Le developpement d'une base de donnees performante est primordial dans la conception d'effets speciaux numeriques. Posseder sa propre base de donnees c'est avoir la possibilite de l'adapter rapidement aux exigences de la production ou au rythme des innovations et surtout de presenter des effets toujours plus spectaculaires pour le cinema et la publicite. Dans cette these, une nouvelle base de donnees concue chez buf compagnie est presentee. Elle s'appuie sur une organisation particulierement efficace et evolutive, notamment grace a l'utilisation d'un langage de commandes specifique. Les interets qu'apportent ce langage sont multiples : il offre a l'utilisateur des solutions pour la prise en charge d'animations ou de phenomenes complexes et pour la gestion de scenes lourdes ou de taches repetitives. Les contraintes liees a la production conduisent souvent a l'elaboration de solutions simples mais toutes aussi performantes. De nouvelles formulations sont proposees pour la manipulation de l'animation (notamment a l'aide de courbes et de volumes de deformation) et pour la construction de modeles geometriques sophistiques. Une solution elegante est enfin presentee pour la simulation dela fumee en synthese d'images. Elle s'appuie sur l'utilisation du langage de commandes et met en avant l'interet de la base de donnees presentee.
APA, Harvard, Vancouver, ISO, and other styles
19

Jouzier, Cécile. "Constitution d'une base de données d'histoire médico-pharmaceutique bordelaise." Bordeaux 2, 2000. http://www.theses.fr/2000BOR2P107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Devulder, Grégory. "Base de données de séquences, phylogénie et identification bactérienne." Lyon 1, 2004. http://www.theses.fr/2004LYO10164.

Full text
Abstract:
Les méthodes conventionnelles d'identification et de caractérisation des micro-organismes reposent sur des critères biochimiques ou phénotypiques. Ces méthodes éprouvées et performantes pour l'identification d'un grand nombre d'espèces, présentent toutefois des performances limitées pour l'identification de certaines espèces. L'objectivité de l'information contenue dans les séquences d'ADN et l'augmentation importante des séquences contenues dans les bases de données ouvrent de nouvelles perspectives liées à l'utilisation des méthodes moléculaires dans le cadre de l'identification bactérienne. Les différentes étapes indispensables à l'identification moléculaire peuvent être longues et fastidieuses. Leur automatisation était donc indispensable. Nous avons développé BIBI (Bio Informatic Bacterial Identification) un environnement d'identification bactérien à partir des séquences d'ADN. Accessible sur internet (http://pbil. Univ-lyon1. Fr/bibi), et utilisable quel que soit le domaine d'activité, ce programme garantit un temps de réponse constant et une universalité des résultats. Pour accroître la pertinence du résultat, nous avons également mis en place des banques de séquences adaptées à l'identification bactérienne. Associées à BIBI, ces bases taxinomiquement propres ont pour vocation d'assister l'utilisateur dans le processus d'identification
APA, Harvard, Vancouver, ISO, and other styles
21

Ould, Yahia Sabiha. "Interrogation multi-critères d'une base de données spatio-temporelles." Troyes, 2005. http://www.theses.fr/2005TROY0006.

Full text
Abstract:
Les travaux décrits dans cette thèse s'inscrivent dans le cadre du projet interrégional intitulé CAractérisation Symbolique de SItuations de ConduitE (CASSICE) qui regroupe plusieurs équipes de chercheurs. L'objectif du projet CASSICE est l'automatisation et l'alimentation d'une base de données de situations de conduite. Cela comprend notamment la reconnaissance des manoeuvres. Ces manoeuvres réalisées par le conducteur sont détectées à partir des données issues de capteurs installés sur un véhicule expérimental en situation de conduite réelle. Il s'agit dans cette thèse de proposer une interface permettant à un expert psychologue une analyse des comportements du conducteur mis en évidence par la base de données. Le projet CASSICE permet l'accès à une base de données à représentation continue, numériques ou symboliques, associées à des images. Le langage d'interrogation doit être le plus proche possible des critères de recherche employés par les experts psychologues. Ces fonctionnalités sont proposées dans le système CIBAM (Construction et Interrogation d'une BAse de données Multimédia) qui utilise une méthode d'indexation et d'interrogation multi-critères d'une base de données représentant une situation dynamique
The study of the human behavior in driving situations is of primary importance for the improvement of drivers security. This study is complex because of the numerous situations in which the driver may be involved. The objective of the CASSICE project (Symbolic Characterization of Driving Situations) is to elaborate a tool in order to simplify the analysis task of the driver's behavior. In this paper, we will mainly take an interest in the indexation and querying of a multimedia database including the numerical data and the video sequences relating to a type of driving situations. We will put the emphasis on the queries to this database. They are often complex because they are formulated according to criteria depending on time, space and they use terms of the natural language
APA, Harvard, Vancouver, ISO, and other styles
22

Vachey, Françoise. "Les suffixes toponymiques français : atlas et base de données." Nancy 2, 1999. http://www.theses.fr/1999NAN21036.

Full text
Abstract:
L'étude des suffixes toponymiques occupe une place insignifiante dans les recherches toponymiques. Mais que recouvre donc la notion de "suffixe" ? En principe, les toponymes retenus sont constitués d'un segment de base suivi d'un autre élément qui se suffit à lui-même et ainsi appelé "suffixe", mais quelquefois la frontière est ténue car certains suffixes s'apparentent à des substantifs et ont une signification propre en dehors du terme auxquels ils se rattachent, c'est notamment le cas du suffixe déterminatif -olalos signifiant "clairière" en gaulois. Notre propos porte sur les communes de France ainsi que sur les hameaux et lieux-dits lorsqu'ils sont significatifs et apportent à notre recherche une précision supplémentaire. Cette thèse se matérialise sous forme de trois volumes : - une base de données - un atlas - un volume explicatif. Nous nous sommes attachés à inventorier dans une base de données les noms des lieux français suffixés en -(i)acus répondant à ces critères. Nous en avons dénombré 1545, cette base de données se veut avant tout un outil de travail pour les chercheurs, elle n'est en aucune mesure exhaustive, et peut, à tout moment être enrichie de nouveaux toponymes. La rédaction et la composition de l'atlas par suffixes obéissent à plusieurs motivations : créer un ouvrage permettant d'avoir des repères dans l'espace et une visualisation des noms de lieux suffixés. Tenter de synthétiser des connaissances éparses concernant les suffixes toponymiques et par la présentation cartographique, les rendre plus proches de notre vécu. Le volume explicatif, quant à lui, se propose de recenser les principaux suffixes toponymiques et d'expliquer leurs fonctionnements sous divers éclairages : étymologiques, sémantiques, syntagmatiques. . . L'onomastique n'est pas une science sclérosée, l'influence dialectale y est prépondérante dans l'évolution des formes, ainsi ce travail vivra par les remarques que ne manqueront pas de faire les onomasticiens et les dialectologues, observations qui nous permettront soit de compléter notre information, soit de redresser des erreurs d'interprétations.
APA, Harvard, Vancouver, ISO, and other styles
23

Ploquin, Catherine. "LAB langage d'analyse associé à une base de données." Bordeaux 1, 1985. http://www.theses.fr/1985BOR10534.

Full text
Abstract:
Le lab est un langage d'analyse faisant partie d'un atelier de genie logiciel. L'outil associe possede deux fonctions principales: stockage d'informations relatives au logiciel dans une base de donnees, et passage automatique du langage d'analyse a differents langages de programmation. Ce travail presente certaines recherches et realisations recentes en genie logiciel:. Gestion du logiciel et des differentes versions (sccs et make sous unix). Modularite (notion de package dans le langage ada). Conception descendante par raffinements successifs (langage pdl integre dans l'atelier vulcain). Passage automatique d'un langage d'analyse a un langage de programmation (atelier softpen). Il montre ensuite comment l'outil developpe integre ces differents concepts permettant de realiser de bons logiciels tout en reduisant les couts de developpement
APA, Harvard, Vancouver, ISO, and other styles
24

Abdelhédi, Fatma. "Conception assistée d’entrepôts de données et de documents XML pour l’analyse OLAP." Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10005/document.

Full text
Abstract:
Aujourd’hui, les entrepôts de données constituent un enjeu majeur pour les applications décisionnelles au sein des entreprises. Les sources d’un entrepôt, c’est à dire l’origine des données qui l’alimentent, sont diverses et hétérogènes : fichiers séquentiels, feuilles de tableur, bases de données relationnelles, documents du Web. La complexité est telle que les logiciels du marché ne répondent que partiellement aux attentes des décideurs lorsque ceux-ci souhaitent analyser les données. Nos travaux s’inscrivent donc dans le contexte des systèmes décisionnels qui intègrent tous types de données (principalement extraites de bases de données relationnelles et de bases de documents XML) et qui sont destinés à des décideurs. Ils visent à proposer des modèles, des méthodes et des outils logiciels pour élaborer et manipuler des entrepôts de données. Nos travaux ont plus précisément porté sur deux problématiques complémentaires : l’élaboration assistée d’un entrepôt de données ainsi que la modélisation et l’analyse OLAP de documents XML
Today, data warehouses are a major issue for business intelligence applications within companies. Sources of a warehouse, i.e. the origin of data that feed, are diverse and heterogeneous sequential files, spreadsheets, relational databases, Web documents. The complexity is such that the software on the market only partially meets the needs of decision makers when they want to analyze the data. Therefore, our work is within the decision support systems context that integrate all data types (mainly extracted from relational databases and XML documents databases) for decision makers. They aim to provide models, methods and software tools to elaborate and manipulate data warehouses. Our work has specifically focused on two complementary issues: aided data warehouse and modeling and OLAP analysis of XML documents
APA, Harvard, Vancouver, ISO, and other styles
25

Pineau, Nicolas. "La performance en analyse sensorielle : une approche base de données." Phd thesis, Université de Bourgogne, 2006. http://tel.archives-ouvertes.fr/tel-00125171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Gagnon, Bertrand. "Gestion d'information sur les procédés thermiques par base de données." Thesis, McGill University, 1986. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=65447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Folio, Patrice. "Etablissement d'une base de données protéomique de Listeria monocytogenes EGDe." Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF21478.

Full text
Abstract:
Listeria monocytogenes, bactérie pathogène d'origine alimentaire, représente l'un des principaux risques sanitaires de la filière agro-alimentaire. Ce risque est accentué par sa capacité à coloniser les surfaces et à former des communautés bactériennes organisées, résistantes et persistantes, les biofilms. Ces structures représentent ainsi une source non négligeable de (re)contamination des produits alimentaires. Maîtriser le risque biofilm représente donc un enjeu économique et hygiénique important et passe en partie par la compréhension des phénomènes physiologiques et moléculaires qui sont associés à leur formation. Afin de caractériser le phénotype biofilm chez un microorgansime, deux approches utilisant les technologies des puces à ADN et de l'électrophorèse bidimentionnelle ont été menées. En préalable à cette thématique, il s'est avéré intéressant de créer une banque de gels d'électrophorèses bidimensionnelles obtenus pour différentes conditions de culture de L. Monocytogenes EGDe, support indispensable à toutes les études protéomiques comparatives. Environ 1300 spots protéiques différents ont ainsi pu être résolus et 126 protéines correspondant à 201 spots différents ont été identifiées(http://www. Clermont. Inra. Fr/proteome/index. Htm). Dans les conditions utilisées, la souche EGDe adhère rapidement à l'acier inoxydable et forme des biofilms denses après 7 jours de contact. Le développement sous forme d'un biofilm statique induit des modifications d'expression rapides et importantes (environ 15% du protéone et 8% du transcriptome après 2 heures d'adhésion). Ces cellules sont caractérisées par un état physiologique particulier marqué par l'induction d'une réponse générale au stress et par la répression de déterminants génétiques impliqués notamment dans la division cellulaire, la réplication de l'ADN, la biosynthèse d'ARN et des protéines. Il semble enfin qu'un certain nombre de gènes codant des protéines de la surface cellulaire, tels que flaA et inIH, et des gènes de fonction inconnue soient impliqués dans les étapes précoces de formation du biofilm che L monocytogenes. Ils représentent ainsi autant de voies intéressantes pour des études fonctionnelles ultéieures ou encore des cibles pour l'élaboration de nouveaux moyens de lutte contre ces biofilms
APA, Harvard, Vancouver, ISO, and other styles
28

Persyn, Emmanuel. "Base de données informatiques sur la première guerre du Golfe." Lille 3, 2003. http://www.theses.fr/2003LIL30018.

Full text
Abstract:
Cette thèse est présentée sur deux supports. Le CD-Rom contient la base de données sur la guerre du Golfe de 1991. Celle-ci retrace la chronologie détaillée depuis l'invasion du Koweit, en août 1990, jusqu'au cessez-le-feu en février 1991. Elle se caractérise par de multiples entrées qui permettent de découvrir les événements, les lieux, les personnages et les ouvrages parus sur la question. Le volume dactylographié présente la méthodologie appliquée pour la constitution de cette base de données, le conflit et son influence sur les relations israélo-palestiniennes
APA, Harvard, Vancouver, ISO, and other styles
29

Tahir, Hassane. "Aide à la contextualisation de l’administration de base de données." Paris 6, 2013. http://www.theses.fr/2013PA066789.

Full text
Abstract:
La complexité des tâches d'administration de bases de données nécessite le développement d'outils pour assister les experts DBA. A chaque apparition d’un incident, l'administrateur de base de données (DBA) est la première personne blâmée. La plupart des DBAs travaillent sous de fortes contraintes d'urgence et ont peu de chance d'être proactif. Ils doivent être constamment prêts à analyser et à corriger les défaillances en utilisant un grand nombre de procédures. En outre, ils réajustent en permanence ces procédures et élaborent des pratiques qui permettent de gérer une multitude de situations spécifiques qui diffèrent de la situation générique par quelques éléments contextuels et l'utilisation de méthodes plus adaptées. Ces pratiques doivent être adaptées à ces éléments de contexte pour résoudre le problème donné. L'objectif de cette thèse est d'utiliser le formalisme des graphes contextuels pour améliorer les procédures d'administration de base de données. La thèse montre également l'intérêt de l'utilisation des graphes contextuels pour capturer ces pratiques en vue de permettre leur réutilisation dans les contextes du travail. Jusqu'à présent, cette amélioration est réalisée par le DBA grâce à des pratiques qui adaptent les procédures au contexte dans lequel les tâches doivent être exécutées et les incidents apparaissent. Ce travail servira de base pour la conception et la mise en œuvre d'un Système d’Aide Intelligent Basée sur le Contexte (SAIBC) et qui sera utilisé par les DBAs
The complexity of database administration tasks requires the development of tools for supporting database experts. When problems occur, the database administrator (DBA) is frequently the first person blamed. Most DBAs work in a fire-fighting mode and have little opportunity to be proactive. They must be constantly ready to analyze and correct failures based on a large set of procedures. In addition, they are continually readjusting these procedures and developing practices to manage a multitude of specific situations that differ from the generic situation by some few contextual elements. These practices have to deal with these contextual elements in order to solve the problem at hand. This thesis aims to use Contextual Graphs formalism in order to improve existing procedures used in database administration. The thesis shows also the benefits of using Contextual Graphs to capture user practices in order to be reused in the working contexts. Up to now, this improvement is achieved by a DBA through practices that adapt procedures to the context in which tasks should be performed and the incidents appear. This work will be the basis for designing and implementing a Context-Based Intelligent Assistant System (CBIAS) for supporting DBAs
APA, Harvard, Vancouver, ISO, and other styles
30

Treger, Michèle. "Spécification et implantation d'une base de données des contacts intermoléculaires." Université Louis Pasteur (Strasbourg) (1971-2008), 1991. http://www.theses.fr/1991STR13089.

Full text
Abstract:
Nous avons specifie et implante une base de donnees relationnelle des contacts inter et intramoleculaires dans les cristaux de macromolecules biologiques, calcules a partir des donnees contenues dans la protein data bank. Nous avons modelise les regions de contact, les interactions entre regions et les interactions entre atomes par des objets mathematiques, ce qui a permis d'obtenir une definition precise des regions, avec une preuve d'existence et d'unicite. Des specifications ont ete ecrites a plusieurs niveaux (algebriques, par pre- et post-conditions) jusqu'a la programmation. La base de donnees que nous avons creee, les programmes de mises a jour et de traitements des donnees que nous avons developpes constituent un outil d'investigation pour une etude systematique des regions de contact et permettent leur representation tridimensionnelle sur ecran graphique
APA, Harvard, Vancouver, ISO, and other styles
31

État-Le, Blanc Marie-Sylvie d'. "Une base de données sédimentologiques : structure, mise en place, applications." Bordeaux 1, 1986. http://www.theses.fr/1986BOR10565.

Full text
Abstract:
La base de donnees est construite sur le modele relationnel, elle utilise le logiciel rdb de digital. Sa structure permet de stocker les donnees relatives a une mission oceanographique et a tous les prelevements et analyses qui s'y rattachent. Les programmes d'acces sont ecrits en fortran 77 ainsi que le programme de calcul des parametres granulometriques, la consultation se fait grace au logiciel datatrieve (digital). L'application de ce travail est faite avec les donnees de la mission misedor
APA, Harvard, Vancouver, ISO, and other styles
32

Peerbocus, Mohamed Ally. "Gestion de l'évolution spatiotemporelle dans une base de données géographiques." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090055.

Full text
Abstract:
Cette thèse traite de la mise à jour des bases de données géographiques, en particulier pour des applications cartographiques. Cette opération est complexe, souvent longue, en particulier lorsqu'il est nécessaire de représenter la nature dynamique des entités géographiques. Dans cette thèse, une nouvelle approche, appelée l'approche des cartes spatio-temporelles documentées, CSD, est proposée pour la mise à jour des bases de données géographiques et la gestion de l'évolution spatio-temporelle. Les changements géographiques sont étudiés selon trois perspectives : monde réel, carte et bases de données. L'approche CSD permet aux utilisateurs d'avoir accès à des versions passées ou alternatives d'une carte, de comparer les différentes versions d'un objet géographique, d'identifier les changements et de comprendre les raisons de ces changements, en particulier dans le contexte d'échange de données entre producteurs et clients. De plus, cette approche permet d'offrir une histoire documentée de l'évolution des objets géographiques. Par ailleurs, L'approche CSD assure la non-duplication des données dans la base de données géographiques. L'approche CSD permet de prendre en compte d'autres besoins des utilisateurs du domaine géographique : 1. Elle peut aider à la gestion des transactions de longue durée dans le processus de mise à jour des bases de données géographiques. 2. Elle peut être un outil efficace pour la gestion de l'information géographique dans des projets : des versions de carte peuvent être créées à la demande montrant les différentes étapes du projet, voire les alternatives. 3. Elle peut servir à organiser une équipe autour d'un projet en permettant aux différents intervenants de travailler sur différentes versions du projet et ensuite permettre leur fusion. 4. Elle peut être utile comme un outil de prévention dans la gestion des risques en permettant aux spécialistes de suivre l'évolution de limites de zones à risque.
APA, Harvard, Vancouver, ISO, and other styles
33

Curé, Olivier. "Relations entre bases de données et ontologies dans le cadre du web des données." Habilitation à diriger des recherches, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00843284.

Full text
Abstract:
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
APA, Harvard, Vancouver, ISO, and other styles
34

De, Vlieger P. "Création d'un environnement de gestion de base de données " en grille ". Application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00654660.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source. L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
35

De, Vlieger Paul. "Création d'un environnement de gestion de base de données "en grille" : application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00719688.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source.L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
36

Grignard, Arnaud. "Modèles de visualisation à base d'agents." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066268/document.

Full text
Abstract:
Ce mémoire part du constat que la visualisation est le parent pauvre de l'approche de modélisation à base d'agents: peu citée, peu mise en avant, elle constitue néanmoins, pour beaucoup de modélisateurs, non seulement leur premier point d'entrée vers la construction de modèles, mais aussi une façon de plus en plus prégnante, de concevoir, vérifier, voire valider des modèles de systèmes complexes. Le domaine de la modélisation à base d'agents, longtemps peu structuré, est en train de progressivement s'organiser en termes de méthodologies de conception, de communication, de description. Le succès du protocole ODD est là pour en témoigner: face à des demandes de représentation de systèmes de plus en plus complexes, les modélisateurs ont besoin de mettre de l'ordre dans leurs façons de modéliser et ils y parviennent. Cependant, il est étonnant de constater qu'aucune place n'est réservée dans ODD, ni dans aucune autre méthodologie approchante, à la façon de visualiser le modèle décrit ou à concevoir. Pour beaucoup de théoriciens de la modélisation, cette étape n'existe tout simplement pas, ou, si elle existe, est considérée comme le lointain produit dérivé d'un modèle déjà conçu, vérifié et validé. Pourtant, l'étude des pratiques de la modélisation à base d'agents révèle tout le contraire: l'aller-retour entre l'écriture et la visualisation d'un modèle fait partie intégrante du quotidien de nombreux chercheurs, comme en témoigne le succès de la plate-forme NetLogo. Cette visualisation, partie d'une démarche intégrée, permet de façon intuitive de vérifier et raffiner aussi bien les comportements individuels des agents que les structures collectives ou émergentes attendues. Poussée à l'extrême, cette pratique se rencontre aussi dans les démarches de modélisation et/ou simulation participative, où la visualisation du modèle sert de médiation entre acteurs et de support aux tâches, collectives, de modélisation. Absente des propositions méthodologiques, la visualisation de modèles à base d'agents se retrouve donc essentiellement délimitée et structurée par des pratiques individuelles, parfois partagées sous la forme de préceptes , mais rarement généralisables au-delà de la conception d'un modèle. Il existe pourtant des façons de visualiser, des manières de chercher à faire ressortir une information spécifique, des méthodes à suivre pour étudier visuellement une abstraction…
Information visualization is the study of interactive visual representations of abstract data to reinforce human cognition. It is very closely associated with data mining issues which allow to explore, understand and analyze phenomena, systems or data masses whose complexity continues to grow today. However, most existing visualization techniques are not suited to the exploration and understanding of datasets that consist of a large number of individual data from heterogeneous sources that share many properties with what are commonly called "complex systems". The reason is often the use of monolithic and centralized approaches. This situation is reminiscent of the modeling of complex systems (social sciences, chemistry, ecology, and many other fields) before progress represented by the generalization of agent-based approaches twenty years ago. In this thesis, I defend the idea that the same approach can be applied with the same success to the field of information visualization. By starting from the now commonly accepted idea that the agent-based models offer appropriate representations the complexity of a real system, I propose to use an approach based on the definition of agent-based visualization models to facilitate visual representation of complex data and to provide innovative support which allows to explore, programmatically and visually, their underlying dynamics. Just like their software counterparts, agent-based visualization models are composed of autonomous graphical entities that can interact and organize themselves, learn from the data they process and as a result adapt their behavior and visual representations. By providing a user the ability to describe visualization tasks in this form, my goal is to allow them to benefit from the flexibility, modularity and adaptability inherent in agent-based approaches. These concepts have been implemented and experimented on the GAMA modeling and simulation platform in which I developed a 3D immersive environment offering the user different point of views and way to interact with agents. Their implementation is validated on models chosen for their properties, supports a linear progression in terms of complexity, allowing us to highlight the concepts of flexibility, modularity and adaptability. Finally, I demonstrate through the particular case of data visualization, how my approach allows, in real time, to represent, to clarify, or even discover their dynamics and how that progress in terms of visualization can contributing,in turn, to improve the modeling of complex systems
APA, Harvard, Vancouver, ISO, and other styles
37

Devogele, Thomas. "Processus d'intégration et d'appariement de bases de données géographiques : application à une base de données routières multi-échelles." Versailles-St Quentin en Yvelines, 1997. https://tel.archives-ouvertes.fr/tel-00085113.

Full text
Abstract:
Les phénomènes du monde réel sont actuellement représentés dans les bases de données géographiques (bdg) sous différentes formes. La réutilisation de telles bdg nécessite un processus d'intégration afin de fédérer l'information provenant de différentes sources. L'objectif de cette thèse est de définir un processus d'intégration de bdg en mode vecteur a deux dimensions dans une base multi-représentations. Il propose l'extension d'un processus d'intégration a trois phases (pre-intégration, déclaration, intégration). L'extension est fondée sur une taxonomie des conflits d'intégration entre bdg et sur l'ajout d'un processus d'appariement géométrique et topologique. Ce processus a été mis en oeuvre sur les trois principales bases de données de l'ign pour le thème routier dans la région de Lagny. Etant donnée la complexité des phénomènes géographiques, plusieurs modélisations des phénomènes peuvent entre définies. La taxonomie des conflits d'intégration de bdg effectue une structuration de ces différences en six catégories de conflits qui ont été traitées dans le processus d'intégration. Certains conflits sont pris en compte dans la phase de pre-intégration. D'autres font l'objet d'un traitement spécifique : extension du langage de déclaration des correspondances, ajout d'opérations de résolution de ce conflit. Le processus d'appariement consiste à identifier les données représentant le même phénomène du monde réel. Un processus d'appariement a été développé pour les données de types routières à différentes échelles. Les résultats obtenus font apparaître un taux de correspondance de l'ordre de 90%. Un processus générique en a été déduit afin de guider la conception des processus d'appariement concernant d'autres types de données. Cette thèse apporte donc un cadre général et détaillé pour l'intégration de bdg et contribue ainsi à l'essor d'applications multi -représentations et de l'interopérabilité entre les bdg en adaptant ces processus à des bdg réparties sur un réseau.
APA, Harvard, Vancouver, ISO, and other styles
38

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Full text
Abstract:
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
APA, Harvard, Vancouver, ISO, and other styles
39

Jean, Stéphane. "OntoQL, un langage d'exploitation des bases de données à base ontologique." Phd thesis, Université de Poitiers, 2007. http://tel.archives-ouvertes.fr/tel-00201777.

Full text
Abstract:
Nous appelons Bases de Données à Base Ontologique (BDBO), les bases de données qui contiennent à la fois des données et des ontologies qui en décrivent la sémantique. Dans le contexte du Web Sémantique, de nombreuses BDBO associées à des langages qui permettent d'interroger les données et les ontologies qu'elles contiennent sont apparues. Conçus pour permettre la persistance et l'interrogation des données Web, ces BDBO et ces langages sont spécifiques aux modèles d'ontologies Web, ils se focalisent sur les ontologies conceptuelles et ils ne prennent pas en compte la structure relationnelle inhérente à des données contenues dans une base de données. C'est ce triple problème que vise à résoudre le langage OntoQL proposé dans cette thèse. Ce langage répond au triple problème évoqué précédemment en présentant trois caractéristiques essentielles qui le distinguent des autres langages proposés : (1) le langage OntoQL est indépendant d'un modèle d'ontologies particulier. En effet, ce langage est basé sur un noyau commun aux différents modèles d'ontologies et des instructions de ce langage permettent de l'étendre, (2) le langage OntoQL exploite la couche linguistique qui peut être associée à une ontologie conceptuelle pour permettre d'exprimer des instructions dans différentes langues naturelles et (3) le langage OntoQL est compatible avec le langage SQL, permettant ainsi d'exploiter les données au niveau logique d'une BDBO, et il étend ce langage pour permettre d'accéder aux données au niveau ontologique indépendamment de la représentation logique des données tout en permettant d'en manipuler la structure.
APA, Harvard, Vancouver, ISO, and other styles
40

Alfonso, Espinosa-Oviedo Javier. "Coordination fiable de services de données à base de politiques active." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01011464.

Full text
Abstract:
Nous proposons une approche pour ajouter des propriétés non-fonctionnelles (traitement d'exceptions, atomicité, sécurité, persistance) à des coordinations de services. L'approche est basée sur un Modèle de Politiques Actives (AP Model) pour représenter les coordinations de services avec des propriétés non-fonctionnelles comme une collection de types. Dans notre modèle, une coordination de services est représentée comme un workflow compose d'un ensemble ordonné d'activité. Chaque activité est en charge d'implante un appel à l'opération d'un service. Nous utilisons le type Activité pour représenter le workflow et ses composants (c-à-d, les activités du workflow et l'ordre entre eux). Une propriété non-fonctionnelle est représentée comme un ou plusieurs types de politiques actives, chaque politique est compose d'un ensemble de règles événement-condition-action qui implantent un aspect d'un propriété. Les instances des entités du modèle, politique active et activité peuvent être exécutées. Nous utilisons le type unité d'exécution pour les représenter comme des entités dont l'exécution passe par des différents états d'exécution en exécution. Lorsqu'une politique active est associée à une ou plusieurs unités d'exécution, les règles vérifient si l'unité d'exécution respecte la propriété non-fonctionnelle implantée en évaluant leurs conditions sur leurs états d'exécution. Lorsqu'une propriété n'est pas vérifiée, les règles exécutant leurs actions pour renforcer les propriétés en cours d'exécution. Nous avons aussi proposé un Moteur d'exécution de politiques actives pour exécuter un workflow orientés politiques actives modélisé en utilisant notre AP Model. Le moteur implante un modèle d'exécution qui détermine comment les instances d'une AP, une règle et une activité interagissent entre elles pour ajouter des propriétés non-fonctionnelles (NFP) à un workflow en cours d'exécution. Nous avons validé le modèle AP et le moteur d'exécution de politiques actives en définissant des types de politiques actives pour adresser le traitement d'exceptions, l'atomicité, le traitement d'état, la persistance et l'authentification. Ces types de politiques actives ont été utilisés pour implanter des applications à base de services fiables, et pour intégrer les données fournies par des services à travers des mashups.
APA, Harvard, Vancouver, ISO, and other styles
41

Espinosa, Oviedo Javier Alfonso. "Coordination fiable de services de données à base de politiques actives." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM022/document.

Full text
Abstract:
Nous proposons une approche pour ajouter des propriétés non-fonctionnelles (traitement d'exceptions, atomicité, sécurité, persistance) à des coordinations de services. L'approche est basée sur un Modèle de Politiques Actives (AP Model) pour représenter les coordinations de services avec des propriétés non-fonctionnelles comme une collection de types. Dans notre modèle, une coordination de services est représentée comme un workflow compose d'un ensemble ordonné d'activité. Chaque activité est en charge d'implante un appel à l'opération d'un service. Nous utilisons le type Activité pour représenter le workflow et ses composants (c-à-d, les activités du workflow et l'ordre entre eux). Une propriété non-fonctionnelle est représentée comme un ou plusieurs types de politiques actives, chaque politique est compose d'un ensemble de règles événement-condition-action qui implantent un aspect d'un propriété. Les instances des entités du modèle, politique active et activité peuvent être exécutées. Nous utilisons le type unité d'exécution pour les représenter comme des entités dont l'exécution passe par des différents états d'exécution en exécution. Lorsqu'une politique active est associée à une ou plusieurs unités d'exécution, les règles vérifient si l'unité d'exécution respecte la propriété non-fonctionnelle implantée en évaluant leurs conditions sur leurs états d'exécution. Lorsqu'une propriété n'est pas vérifiée, les règles exécutant leurs actions pour renforcer les propriétés en cours d'exécution. Nous avons aussi proposé un Moteur d'exécution de politiques actives pour exécuter un workflow orientés politiques actives modélisé en utilisant notre AP Model. Le moteur implante un modèle d'exécution qui détermine comment les instances d'une AP, une règle et une activité interagissent entre elles pour ajouter des propriétés non-fonctionnelles (NFP) à un workflow en cours d'exécution. Nous avons validé le modèle AP et le moteur d'exécution de politiques actives en définissant des types de politiques actives pour adresser le traitement d'exceptions, l'atomicité, le traitement d'état, la persistance et l'authentification. Ces types de politiques actives ont été utilisés pour implanter des applications à base de services fiables, et pour intégrer les données fournies par des services à travers des mashups
We propose an approach for adding non-functional properties (exception handling, atomicity, security, persistence) to services' coordinations. The approach is based on an Active Policy Model (AP Model) for representing services' coordinations with non-functional properties as a collection of types. In our model, a services' coordination is represented as a workflow composed of an ordered set of activities, each activity in charge of implementing a call to a service' operation. We use the type Activity for representing a workflow and its components (i.e., the workflow' activities and the order among them). A non-functional property is represented as one or several Active Policy types, each policy composed of a set of event-condition-action rules in charge of implementing an aspect of the property. Instances of active policy and activity types are considered in the model as entities that can be executed. We use the Execution Unit type for representing them as entities that go through a series of states at runtime. When an active policy is associated to one or several execution units, its rules verify whether each unit respects the implemented non-functional property by evaluating their conditions over their execution unit state, and when the property is not verified, the rules execute their actions for enforcing the property at runtime. We also proposed a proof of concept Active Policy Execution Engine for executing an active policy oriented workflow modelled using our AP Model. The engine implements an execution model that determines how AP, Rule and Activity instances interact among each other for adding non-functional properties (NFPs) to a workflow at execution time. We validated the AP Model and the Active Policy Execution Engine by defining active policy types for addressing exception handling, atomicity, state management, persistency and authentication properties. These active policy types were used for implementing reliable service oriented applications, and mashups for integrating data from services
APA, Harvard, Vancouver, ISO, and other styles
42

Dubois, Jean-Christophe. "Vers une interrogation en langage naturel d'une base de données image." Nancy 1, 1998. http://www.theses.fr/1998NAN10044.

Full text
Abstract:
Les premiers travaux présentés dans ce mémoire se sont déroulés dans le cadre d'un projet qui avait pour objectif la réalisation d'un système d'aide vocal permettant à une standardiste malvoyante d'accéder à toutes les informations contenues dans la base de données d'une entreprise. Nous avons mené une étude spécifique afin de concevoir une procédure d'accès tolérant aux fautes d'orthographe lors d'une interrogation par nom. Le système effectue une comparaison entre les transcriptions phonétiques des noms de la base de données et celles du nom épelé. Ces transcriptions sont réalisées en trois étapes : phonémisation, détection d'ilots de confiance et codage en classes phonétiques. Le second volet de nos travaux a porté sur l'emploi du langage naturel (LN) dans l'énonciation des requêtes soumises aux systèmes de recherche d'information (SRI). Le but est d'utiliser la richesse du LN pour améliorer les qualités de recherche d'un SRI. Pour cela, nous avons développé un mode de représentation permettant de modéliser l'intention du locuteur. Cette représentation s'effectue à l'aide d'une structure hiérarchisée appelée schéma d'intention du locuteur (SIL) et constituée de quadruplets. Un quadruplet est composé d'un domaine au sein duquel une axiologie met en opposition deux sous-ensembles : les éléments du domaine sur lesquels portent l'intérêt de l'utilisateur et le reste du domaine. Des mécanismes ont été définis afin d'effectuer des opérations liées aux changements de focalisation de l'utilisateur et notamment la transposition d'axiologies et la généralisation de caractéristiques. La structure des SIL autorise une étude en contexte des énoncés faits en LN ce qui permet une analyse plus fine des connecteurs, des expressions référentielles ou de la négation. Nous nous sommes attachés à montrer dans cette thèse comment des techniques issues du traitement du LN pouvaient contribuer à l'amélioration des performances des SRI en terme de pertinence
APA, Harvard, Vancouver, ISO, and other styles
43

Da, Costa David. "Visualisation et fouille interactive de données à base de points d'intérêts." Tours, 2007. http://www.theses.fr/2007TOUR4021.

Full text
Abstract:
Dans ce travail de thèse, nous présentons le problème de la visualisation et la fouille de données. Nous remarquons généralement que les méthodes de visualisation sont propres aux types de données et qu'il est nécessaire de passer beaucoup de temps à analyser les résultats afin d'obtenir une réponse satisfaisante sur l'aspect de celle-ci. Nous avons donc développé une méthode de visualisation basée sur des points d'intérêts. Cet outil visualise tous types de données et est générique car il utilise seulement une mesure de similarité. Par ailleurs ces méthodes doivent pouvoir traiter des grands volumes de données. Nous avons aussi cherché à améliorer les performances de nos algorithmes de visualisation, c'est ainsi que nous sommes parvenus à représenter un million de données. Nous avons aussi étendu notre outil à la classification non supervisée de données. La plupart des méthodes actuelles de classificatoin non supervisée de données fonctionnent de manière automatique, l'utilisateur n'est que peu impliqué dans le processus. Nous souhaitons impliquer l'utilisateur de manière plus significative dans le processus de la classification pour améliorer sa compréhension des données
In this thesis, we present the problem of the visual data mining. We generally notice that it is specific to the types of data and that it is necessary to spend a long time to analyze the results in order to obtain an answer on the aspect of data. In this thesis, we have developed an interactive visualization environment for data exploration using points of interest. This tool visualizes all types of data and is generic because it uses only one similarity measure. These methods must be able to deal with large data sets. We also sought to improve the performances of our visualization algorithms, thus we managed to represent one million data. We also extended our tool to the data clustering. Most existing data clustering methods work in an automatic way, the user is not implied iin the process. We try to involve more significantly the user role in the data clustering process in order to improve his comprehensibility of the data results
APA, Harvard, Vancouver, ISO, and other styles
44

Rolbert, Monique. "Résolution des formes pronominales dans l'interface d'interrogation d'une base de données." Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX22018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Pinasseau, Marianne. "Elaboration d'une base de données bibliographique sur les eaux minérales embouteillées." Bordeaux 2, 1999. http://www.theses.fr/1999BOR2P012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Kratky, Andreas. "Les auras numériques : pour une poétique de la base de données." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010561/document.

Full text
Abstract:
La base de données est un outil omniprésent dans nos vies, qui est impliquée dans un grand nombre de nos activités quotidiennes. Conçue comme système technique destiné à rendre la gastion des informations plus efficace, et comme support de stockage privilégié, la base de données, avec son utilisation dans de multiples contextes, a acquis une importance dont les implications esthétiques et politiques vont au-delà des questions techniques.La recherche à la fois théorique et pratique étudie la base de données comme un moyen expressif et poétique de création, et met en évidence ses caractères spécifiques, notamment la discrédisation des données et leur mise en relation flexible. Le terme d'aura utilisé par Walter Benjamin pour analyser les transformations de l'expérience esthétique engendrées par la rationalité industrielle et la technique à la fin du dix-neuvième siècle, est reconsidérée afin de formuler une poétique de la base de données. La partie pratique de notre recherche comporte deux projets interactifs fondés sur les principes poétiques élaborés au cours de cette thèse
Database are ubiquitous in our lives and play an important rôle in many aspects of our daily activities. Conceived as a technical support to facilitate the efficient management of information and as the preferred means of storage, the database has gained a level of importance with aesthetic and political implications that go far beyond purely technical questions.Both theorical and practical in its approach, our research investigates the database as a means of expressive and poetic creation and reveals its specific character, in particular the discretization of data and the establishment of flexible relationships between them. In order to develop a poetics of the database we will reconsider the term « aura », which was utilized by walter Benjamin to analyse the transformations of the nature of aesthetic experience brought about by industrial rationalisation and technology at the end of the nineteenth century. The practical part of our research consists of two interactive projects based on the poetic principles elaborated in context of this dissertation
APA, Harvard, Vancouver, ISO, and other styles
47

Toumani, Farouk. "Le raisonnement taxinomique dans les modèles conceptuels de données : application à la retro-conception des bases de données relationnelles." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0051.

Full text
Abstract:
Les logiques terminologiques, en tant que formalismes modernes de représentation des connaissances, suscitent actuellement beaucoup d'intérêt dans la communauté des bases de données. Elles permettent le développement de nouveaux modèles de données dotés de la capacité de raisonnement taxinomique. Cependant, ces formalismes s'avèrent peu adapté la représentation conceptuelle des bases de données ou l’accent doit être m1s sur la description précise et naturelle de l’univers du discours. Dans la première partie de ce travail, nous présentons une évaluation des logiques terminologiques en mettant en regard les caractéristiques de ces formalismes avec les exigences de la modélisation conceptuelle. Nous montrons que les logiques terminologiques ne permettent pas une modélisation directe de l'univers du discours et que les représentations proposées par ces formalismes souffrent du problème de la surcharge sémantique. Nous proposons ensuite le modèle qui résulte d’une formalisation d’un modèle sémantique, en l'occurrence un modèle entité-association (E / A), à l’aide d'une logique terminologique. Nous montrons qu'il y a une équivalence entre les schémas E/A et les schémas TERM par rapport à la mesure de la capacité d’information. Ce résultat permet de ramener le raisonnement sur un schéma E/A à un raisonnement sur le schéma TERM qui lui est équivalent. Comme application de ce travail, nous proposons d'utiliser le modèle TER. M dans un processus de rétro-conception de bases de données relationnelles. Celui-ci permet la construction automatique des schémas conceptuels, tout en assurant leur correction (consistance et minimaliste). Il offre également la possibilité de raisonner sur les schémas conceptuels pour les faire évoluer de manière incrémentale ou pour les enrichir en découvrant de nouvelles connaissances qui étaient implicites
Terrninological logics, as modem knowledge representation formalisms, are acknowledged to be one of the most promising artificial intelligence techniques in database applications. They allow the development of new data models equipped with taxonomic reasoning ability. However, these languages turned out to be inadequate in conceptual modelling area where emphasis must be put on the accurate and natural desc1iption of the universe of discourse. In this work, we first examine the features of terminological logics with respect to the requirements of conceptual modelling. We show that terminological logics do not support direct mode/ling requirement and constructs in these formalisms are semantically overloaded. Then we propose a model, called as a formalization of a semantic model, namely an Entity Relationship (E/R) model, using terminological logics. We demonstrate that E/R schemas and schemas are equivalent with respect to their formation capacity measure. This result ensure that the reasoning on an E/R schema can be reduced to a reasoning on its equivalent M schemas. As an application of this work, we propose to use in a relational database reverse engineering process in order to support automatic construction and enrichment of conceptual schemas and to maintain their correctness (consistency and minimality)
APA, Harvard, Vancouver, ISO, and other styles
48

Verlaine, Lionel. "Optimisation des requêtes dans une machine bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066532.

Full text
Abstract:
CCette thèse propose des solutions optimisant l'évaluation de questions et la jointure. Ces propositions sont étudiées et mises en œuvre à partir du SGBD Sabrina issu du projet SABRE sur matériel Carrousel à la SAGEM. L'évaluation de questions permet d'optimiser le niveau logique du traitement d'une requête. La décomposition la plus pertinente est établie en fonction d'heuristiques simples. L'algorithme de jointure propose utilise des mécanismes minimisant à la fois le nombre d'entrées/sorties disque et le nombre de comparaisons. Il admet un temps d'exécution proportionnel au nombre de tuples. L'ordonnancement de jointures est résolu par un algorithme original de jointure multi-relations et par une méthode d'ordonnancement associée permettant un haut degré de parallélisme.
APA, Harvard, Vancouver, ISO, and other styles
49

Brahimi, Lahcene. "Données de tests non fonctionnels de l'ombre à la lumière : une approche multidimensionnelle pour déployer une base de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0009/document.

Full text
Abstract:
Le choix d'un système de gestion de bases de données (SGBD) et de plateforme d'exécution pour le déploiement est une tâche primordiale pour la satisfaction des besoins non-fonctionnels(comme la performance temporelle et la consommation d'énergie). La difficulté de ce choix explique la multitude de tests pour évaluer la qualité des bases de données (BD) développées.Cette évaluation se base essentiellement sur l'utilisation des métriques associées aux besoins non fonctionnels. En effet, une mine de tests existe couvrant toutes les phases de cycle de vie de conception d'une BD. Les tests et leurs environnements sont généralement publiés dans des articles scientifiques ou dans des sites web dédiés comme le TPC (Transaction Processing Council).Par conséquent, cette thèse contribue à la capitalisation et l'exploitation des tests effectués afin de diminuer la complexité du processus de choix. En analysant finement les tests, nous remarquons que chaque test porte sur les jeux de données utilisés, la plateforme d'exécution, les besoins non fonctionnels, les requêtes, etc. Nous proposons une démarche de conceptualisation et de persistance de toutes .ces dimensions ainsi que les résultats de tests. Cette thèse a donné lieu aux trois contributions. (1) Une conceptualisation basée sur des modélisations descriptive,prescriptive et ontologique pour expliciter les différentes dimensions. (2) Le développement d'un entrepôt de tests multidimensionnel permettant de stocker les environnements de tests et leurs résultats. (3) Le développement d'une méthodologie de prise de décision basée sur un système de recommandation de SGBD et de plateformes
Choosing appropriate database management systems (DBMS) and/or execution platforms for given database (DB) is complex and tends to be time- and effort-intensive since this choice has an important impact on the satisfaction of non-functional requirements (e.g., temporal performance or energy consumption). lndeed, a large number of tests have been performed for assessing the quality of developed DB. This assessment often involves metrics associated with non-functional requirement. That leads to a mine of tests covering all life-cycle phases of the DB's design. Tests and their environments are usually published in scientific articles or specific websites such as Transaction Processing Council (TPC). Therefore, this thesis bas taken a special interest to the capitalization and the reutilization of performed tests to reduce and mastery the complexity of the DBMS/platforms selection process. By analyzing the test accurately, we identify that tests concem: the data set, the execution platform, the addressed non-functional requirements, the used queries, etc. Thus, we propose an approach of conceptualization and persistence of all dimensions as well as the results of tests. Conseguently, this thesis leads to the following contributions. (1) The design model based on descriptive, prescriptive and ontological concepts to raise the different dimensions. (2) The development of a multidimensional repository to store the test environments and their results. (3) The development of a decision making methodology based on a recommender system for DBMS and platforms selection
APA, Harvard, Vancouver, ISO, and other styles
50

Dârlea, Georgiana-Lavinia. "Un système de classification supervisée à base de règles implicatives." Chambéry, 2010. http://www.theses.fr/2010CHAMS001.

Full text
Abstract:
Le travail de recherche de la thèse concerne la classification supervisée de données et plus particulièrement l'apprentissage semi-automatique de classifieurs à base de règles floues graduelles. Le manuscrit de la thèse présente une description de la problématique de classification ainsi que les principales méthodes de classification déjà développées, afin de placer la méthode proposée dans le contexte général de la spécialité. Ensuite, les travaux de la thèse sont présentés: la définition d'un cadre formel pour la représentation d'un classifieur élémentaire à base de règles floues graduelles dans un espace 2D, la spécification d'un algorithme d'apprentissage de classifieurs élémentaires à partir de données, la conception d'un système multi-dimensionel de classification multi-classes par combinaison de classifieurs élémentaires. L'implémentation de l'ensemble des fonctionnalités est ensuite détaillée, puis finalement les développements réalisés sont utilisés pour deux applications en imagerie: analyse de la qualité des produits industriels par tomographie, classification en régions d'intérêt d'images satellitaires radar
This PhD thesis presents a series of research works done in the field of supervised data classification more precisely in the domain of semi-automatic learning of fuzzy rules-based classifiers. The prepared manuscript presents first an overview of the classification problem, and also of the main classification methods that have already been implemented and certified in order to place the proposed method in the general context of the domain. Once the context established, the actual research work is presented: the definition of a formal background for representing an elementary fuzzy rule-based classifier in a bi-dimensional space, the description of a learning algorithm for these elementary classifiers for a given data set and the conception of a multi-dimensional classification system which is able to handle multi-classes problems by combining the elementary classifiers. The implementation and testing of all these functionalities and finally the application of the resulted classifier on two real-world digital image problems are finally presented: the analysis of the quality of industrial products using 3D tomographic images and the identification of regions of interest in radar satellite images
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography