To see the other types of publications on this topic, follow the link: Donnée de base.

Dissertations / Theses on the topic 'Donnée de base'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Donnée de base.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dubois, Jean-Christophe. "Vers une interrogation en langage naturel d'une base de données image." Nancy 1, 1998. http://www.theses.fr/1998NAN10044.

Full text
Abstract:
Les premiers travaux présentés dans ce mémoire se sont déroulés dans le cadre d'un projet qui avait pour objectif la réalisation d'un système d'aide vocal permettant à une standardiste malvoyante d'accéder à toutes les informations contenues dans la base de données d'une entreprise. Nous avons mené une étude spécifique afin de concevoir une procédure d'accès tolérant aux fautes d'orthographe lors d'une interrogation par nom. Le système effectue une comparaison entre les transcriptions phonétiques des noms de la base de données et celles du nom épelé. Ces transcriptions sont réalisées en trois étapes : phonémisation, détection d'ilots de confiance et codage en classes phonétiques. Le second volet de nos travaux a porté sur l'emploi du langage naturel (LN) dans l'énonciation des requêtes soumises aux systèmes de recherche d'information (SRI). Le but est d'utiliser la richesse du LN pour améliorer les qualités de recherche d'un SRI. Pour cela, nous avons développé un mode de représentation permettant de modéliser l'intention du locuteur. Cette représentation s'effectue à l'aide d'une structure hiérarchisée appelée schéma d'intention du locuteur (SIL) et constituée de quadruplets. Un quadruplet est composé d'un domaine au sein duquel une axiologie met en opposition deux sous-ensembles : les éléments du domaine sur lesquels portent l'intérêt de l'utilisateur et le reste du domaine. Des mécanismes ont été définis afin d'effectuer des opérations liées aux changements de focalisation de l'utilisateur et notamment la transposition d'axiologies et la généralisation de caractéristiques. La structure des SIL autorise une étude en contexte des énoncés faits en LN ce qui permet une analyse plus fine des connecteurs, des expressions référentielles ou de la négation. Nous nous sommes attachés à montrer dans cette thèse comment des techniques issues du traitement du LN pouvaient contribuer à l'amélioration des performances des SRI en terme de pertinence
APA, Harvard, Vancouver, ISO, and other styles
2

Kerhervé, Brigitte. "Vues relationnelles : implantation dans les systèmes de gestion de bases de données centralisés et répartis." Paris 6, 1986. http://www.theses.fr/1986PA066090.

Full text
Abstract:
Nous décrivons les choix qui ont été faits dans le prototype SABRE. Nous analysons par la suite l'implantation de vues concrètes qui correspondent à la matérialisation des vues relationnelles. Nous montrons que ces vues concrètes permettent de définir un nouveau type de SGBD réparti où la définition et le stockage des données sont faits en fonction des interrogations sur les sites distants, de manière à maximiser les interrogations locales. Nous décrivons et analysons les mécanismes nécessaires à l'implantation d'un tel type de SGBD réparti par vues concrètes, notamment du point de vue des mises à jour.
APA, Harvard, Vancouver, ISO, and other styles
3

Carbonneau, Charles. "Développement d'une base de donnée [i.e. données] expérimentale sur le comportement dynamique des barrages en béton." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0029/NQ67096.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Benatallah, Boualem. "Gestion de l'évolution du schéma d'une base de données à objets : une approche par compromis." Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00345357.

Full text
Abstract:
Dans cette thèse, nous intéressons au problème de l'évolution des schémas pour les bases de données à objets. Nous considérons d'abord les solutions proposées pour la gestion de l'évolution de schéma de bases de données à objets. Nous proposons une classification des approches existantes. Pour chacune de ces approches nous décrivons son principe, les mécanismes d'évolution associés, ainsi que les produits et les prototypes qui l'implantent. Nous analysons ces travaux en soulignant les avantages et les inconvénients de chaque approche. Nous présentons ensuite notre approche. D'une part, cette approche propose un cadre qui permet de combiner les fonctionnalités de la modification et du versionnement pour une meilleure gestion de l'évolution de schéma. D'autre part, elle offre à l'utilisateur un langage permettant de décrire les liens entre les différents états de la base de données afin de traduire le plus fidèlement possible les évolutions du monde réel. Le versionnement de schéma évite la perte d'informations et assure que les anciens programmes d'applications continuent de fonctionner. Cependant, le nombre de versions peut devenir important ; ce qui rend complexe leur gestion. Notre approche permet de limiter le nombre de versions: (1) l'évolution d'un schéma est traduite par sa modification si l'évolution est non-soustractive (ne provoque pas la suppression de propriétés) ou si l'utilisateur le décide, (2) La technique utilisée pour adapter les instances au schéma après l'évolution, est basée sur la caractérisation de l'importance de l'existence en tant que telle d'une version d'objet. Ainsi, le nombre de versions est limité à celles qui sont fréquemment accédées par des programmes, (3) la possibilité donnée à l'administrateur de réorganiser la base de données lui permet de supprimer des versions historiques du schéma
APA, Harvard, Vancouver, ISO, and other styles
5

Ziane, Mikal, and François Bouillé. "Optimisation de requêtes pour un système de gestion de bases de données parallèle." Paris 6, 1992. http://www.theses.fr/1992PA066689.

Full text
Abstract:
Dans le cadre du projet ESPRIT II EDS nous avons conçu et réalisé un optimiseur physique pour un système de gestion de bases de données parallèle. Cet optimiseur prend en compte plusieurs types de parallélisme, d'algorithmes parallèles et de stratégies de fragmentation. D'autre part, nous dégageons quels types de connaissance déterminent l'extensibilité et l'efficacité d'un optimiseur. Enfin, nous proposons une nouvelle méthode d'optimisation de la traversée de chemins dans les bases de données à objets, qui améliore les méthodes traditionnelles.
APA, Harvard, Vancouver, ISO, and other styles
6

Dumas, Menjivar Marlon. "TEMPOS : une plate-forme pour le développement d'applications temporelles au dessus de SGBD à objets." Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00006741.

Full text
Abstract:
Les données temporelles sont présentes dans de nombreuses applications utilisant des Systèmes de Gestion de Bases de Données (SGBD). Aussi, la plupart de ces systèmes offrent des types correspondant aux concepts de date et de durée, grâce auxquels il est possible de modéliser des associations temporelles simples, comme par exemple la date de naissance ou l'âge d'une personne. Toutefois, à quelques nuances près, aucun de ces systèmes n'offre des abstractions dédiées à la modélisation d'associations temporelles plus complexes, telles que l'historique du salaire d'un employé, ou la séquence d'annotations attachées à une vidéo. Dès lors, ces associations doivent être codées au travers de constructeurs de type tels que ''liste'' et ''n-uplet'', et la sémantique de ce codage doit être intégrée dans la logique des programmes applicatifs, accroissant par là leur complexité. Pour combler ces lacunes, des extensions dites ''temporelles'' de modèles et de langages pour Bases de Données ont été proposées. Cette thèse analyse et unifie les contributions de ces travaux, dans le but de les intégrer dans une extension temporelle du standard pour SGBD à objets de l'ODMG. Le résultat est une plate-forme logicielle baptisée TEMPOS, fondée sur trois modèles de sophistication croissante : un modèle du temps, un modèle d'historiques et un modèle d'objets et de propriétés temporels. Ce dernier fournit des fonctionnalités facilitant la transformation de bases de données conformes à l'ODMG en des bases de données temporelles. à partir de ces trois modèles, des extensions des langages de spécification de schéma et d'interrogation de l'ODMG sont définies. Enfin, un outil de visualisation basé sur un nouveau paradigme de navigation interactive au travers d'objets temporels est développé. L'ensemble des propositions sont formalisées, implantées au dessus d'un SGBD commercial, et validées par des études de cas.
APA, Harvard, Vancouver, ISO, and other styles
7

Verlaine, Lionel. "Optimisation des requêtes dans une machine bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066532.

Full text
Abstract:
CCette thèse propose des solutions optimisant l'évaluation de questions et la jointure. Ces propositions sont étudiées et mises en œuvre à partir du SGBD Sabrina issu du projet SABRE sur matériel Carrousel à la SAGEM. L'évaluation de questions permet d'optimiser le niveau logique du traitement d'une requête. La décomposition la plus pertinente est établie en fonction d'heuristiques simples. L'algorithme de jointure propose utilise des mécanismes minimisant à la fois le nombre d'entrées/sorties disque et le nombre de comparaisons. Il admet un temps d'exécution proportionnel au nombre de tuples. L'ordonnancement de jointures est résolu par un algorithme original de jointure multi-relations et par une méthode d'ordonnancement associée permettant un haut degré de parallélisme.
APA, Harvard, Vancouver, ISO, and other styles
8

Adame, Issifou. "Conception et réalisation de la décentralisation sur micro-ordinateur d'une base de données économique." Lyon 1, 1985. http://www.theses.fr/1985LYO19008.

Full text
Abstract:
Toute entreprise a besoin des informations internes fournies par sa gestion courante et de celles de son environnement pour éclairer ses décisions industrielles ou commerciales, mais s’ il est plus facile à une entreprise de recenser ses informations internes, il lui est plus difficile de rassembler celles de son environnement. C'est pour répondre à ce besoin dans la branche économique du bâtiment que nous avons dans un premier temps réalisé une banque de données centralisées qui fournit des informations externes de manière intermittente aux entreprises, puis dans un second temps, nous avons, en nous appuyant sur la micro-informatique étudié la décentralisation de cette base de données de manière à permettre à chaque utilisateur : - de stocker et de disposer chez soi d'une plus grande masse d'informations externes, - de pouvoir constituer une base locale cohérente des informations internes et externes qu'il pourra consulter de manière instantanée, - de pouvoir utiliser directement les outils logiciels de simulation et d’aide à la décision pour mieux bâtir des modèles afin de mieux prévoir pour mieux décider
APA, Harvard, Vancouver, ISO, and other styles
9

Youssefi, Abdelhakim El. "Conception et réalisation d'un système de gestion de base de données suivant un modèle objet : sgbd saad." Valenciennes, 1989. https://ged.uphf.fr/nuxeo/site/esupversions/15cd2400-18e9-4918-bb42-2da410672996.

Full text
Abstract:
Proposition d'un modelé objet reposant sur des concepts simples et puissants (classe, bien, agrégation, héritage) qui font de ce modelé un bon outil de modélisation : le monde réel peut être représenté de manière naturelle et intuitive. Les fonctionnalités du système de gestion de base de données SAAD développés autour du modèle proposé sont ensuite décrites. L'implantation du système en langage ADA est présentée ainsi qu'une architecture multi-utilisateur utilisant le parallélisme ADA.
APA, Harvard, Vancouver, ISO, and other styles
10

Pollet, Yann. "Un système de gestion de bases de données opérationnelles pour les systèmes d'information et de communication." Rouen, 1995. http://www.theses.fr/1995ROUES047.

Full text
Abstract:
Le présent mémoire s'inscrit dans le cadre des recherches actuellement menées autour des systèmes d'information et de communication (SIC). Il synthétise nos travaux réalisés dans le but de définir des principes de gestion des données pour les SIC du proche futur, tant en termes de fonctionnalités qu'en termes d'architectures logicielles et de principes d'implémentation. En nous appuyant sur les besoins précis des SIC, et sur les acquis actuels dans le domaine des systèmes de gestion de bases de données (SGBD) sur les plans scientifique (modèles théoriques) et technique (progiciels existants), nous proposons ici un modèle de données spécifiquement adapté aux besoins des SIC, incluant en particulier une représentation de l'espace et des données géographiques. A ce modèle est associé un formalisme d'interface de haut niveau entre applicatifs et base de données, reposant sur l'utilisation d'un langage à objet standard (C++), et s'inscrivant dans la logique de développements de nature industrielle. Nous avons étudié par ailleurs des principes d'architecture permettant la réalisation d'implémentations simples et efficaces de ce modèle sur la base des progiciels de gestion industriellement éprouvés existant aujourd'hui (SGBD relationnels, systèmes d'information géographique, systèmes de gestion électronique de documents, etc. ), ou encore sur leurs évolutions prévues à court terme dans le respect des standards. Enfin, à partir de ces principes, un prototype d'un tel composant de gestion de données a été développé dans le but de confirmer l'apport des concepts proposés
APA, Harvard, Vancouver, ISO, and other styles
11

Subtil, Pascal. "Amélioration de la flexibilité dans les bases d'objets flous : expérimentation dans le cadre du logiciel FIRMS." Nancy 1, 1995. http://www.theses.fr/1995NAN10028.

Full text
Abstract:
Cette thèse offre, à la fois, un cadre formel et un cadre pratique permettant de représenter et de rechercher, dans une base d'objets, des objets définis de manière floue. Sur le plan formel, la solution proposée présente les points originaux suivants: concept de domaine nuance, extension du concept de variable linguistique de Zadeh, qui permet pour un même caractère d'être value de manière quantitative ou qualitative selon les objets, d'une même classe, avec ou sans nuances. Concept de caractère agrégat qui autorise la définition des objets d'une même classe à des niveaux de précision différents et permet leur mise en correspondance. Concept de thesaurus flou qui, grâce à des heuristiques paramétrables, rend possible la génération des fonctions caractéristiques nécessaires à la mise en œuvre de la théorie des possibilités et allège ainsi considérablement la mise en œuvre d'applications comportant des données floues. Sur le plan pratique, la thèse présente un prototype, le logiciel FIRMS (Fuzzy Information Retrieval And Management System), qui installe les concepts proposés dans un environnement de programmation orienté objet. Plusieurs expérimentations dans le domaine des sciences de gestion ont permis de valider les solutions proposées et de dégager les grandes lignes d'une démarche de conception d'une base d'objets flous
APA, Harvard, Vancouver, ISO, and other styles
12

Coupaye, Thierry. "Un modèle d'exécution paramétrique pour systèmes de bases de données actifs." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004983.

Full text
Abstract:
Un systeme de bases de données actif est capable d'executer automatiquement des actions predefinies en reponse a des evenements specifiques lorsque certaines conditions sont satisfaites. Les regles actives, de la forme evenement-Condition-Action, sont au coeur de cette approche. Dans cette these, nous nous interessons aux modeles d'execution des systemes actifs. Le modele d'execution d'un systeme actif decrit quand et comment (ordonnancement, synchronisation) sont executées, au cours d'une application, les regles declenchées lors de l'execution d'une transaction. Nous proposons tout d'abord une taxonomie et une representation graphique des modeles d'execution des systemes actifs. Nous exposons ensuite un modele d'execution parametrique nomme Flare (Flexible active rule execution). Une caracteristique essentielle de ce modele est de considerer des modules de regles - chaque module etant destine a une utilisation particuliere des regles. On peut specifier, d'une part, le comportement de chaque regle d'un module, et d'autre part, la strategie d'execution de chaque module. Il suffit, pour cela, de choisir une valeur pour chacun des parametres proposes parmi un ensemble de valeurs predefinies. Nous donnons egalement une semantique denotationnelle (ou fonctionnelle) du modele. Nous montrons que ce formalisme fournit une specification implantable que nous utilisons dans le cadre de l'experimentation que nous menons autours de NAOS - un mecanisme de regles actives pour le SGBD a objets O2 - afin de remplacer son moteur d'execution par Flare.
APA, Harvard, Vancouver, ISO, and other styles
13

Simon, Arnaud. "Outils classificatoires par objets pour l'extraction de connaissances dans des bases de données." Nancy 1, 2000. http://www.theses.fr/2000NAN10069.

Full text
Abstract:
Cette dernière décennie a vu évoluer la problématique relative au traitement des données d'une part par un facteur d'échelle - les données ainsi que la représentation qui leur est associée sont de plus en plus nombreuses - et de disponibilité (notamment par le développement des réseaux de communication et des supports de stockage) de l'autre. L'étude des techniques permettrait d'exploiter ces masses de données maintenant disponibles fait l'objet du courant de recherche appelé extraction de connaissances dans des bases de données ou ECBD. Les principales techniques étudiées dans le cadre de l'ECBD sont issues des bases de données, de l'apprentissage, de la représentation des connaissances, des statistiques, de l'analyse de données et de la visualisation. L'ECBD est ainsi un domaine de recherche pluridisciplinaire où l'ensemble des techniques mises en oeuvre visent l'objectif commun qui consiste à exploiter au mieux les données. L'approche de l'ECBD qui est adoptée dans ce mémoire de thèse est fondée sur l'étude d'outils classificatoires par objets. Les techniques classiques d'arbres de décision et principalement de treillis de Galois sont adaptées - ces techniques relèvent des problématiques issues des modèles fondés sur des « tableaux de données» -- au cas ou les données relèvent d'un système de représentation des connaissances par objets, ou système de RCO. Un système de RCO a pour fonction de stocker et d'organiser les connaissances autour de la notion de hiérarchie d'objets et de fournir des services inférentiels - qui sont destinés à compléter l'information disponible - et d'accès à l'information (filtrage) tous deux fondés sur des méthodes classificatoires. Par ailleurs, un système de RCO permet de manipuler des données « complexes» car leurs attributs ne se réduisent pas à des types de base atomique mais peuvent être d'autres objets (relations) ; aussi bien mono que multivalués. Les fonctionnalités de représentation et inférentielles des systèmes de RCO sont mises à profit pour l'ECBD pour elles-même mais aussi pour la construction de structures classificatoires d'arbres de décision et de treillis de Galois. Les structures ainsi construites sont des hiérarchies d'objets qui relèvent du modèle de RCO. Une telle approche a pour avantages de prendre en compte les connaissances disponibles et de produire des structures directement interprétables et réutilisables - pour mener à bien des inférences ou des constructions de nouvelles structures. Les structures de treillis de Galois sont également mises à profit pour la construction de toutes les règles d'association partielles. Nous montrons que notre approche possède l'avantage de construire moins de règles, car des règles redondantes ne sont pas produites, de permettre une mise à jour des règles pour tenir compte de nouveaux individus ou de nouvelles propriétés et d'améliorer l'expressivité des règles.
APA, Harvard, Vancouver, ISO, and other styles
14

Roncancio, Claudia Lucia. "Règles actives et règles déductives dans les bases de données à objets." Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10240.

Full text
Abstract:
L'objectif de cette thèse est l'enrichissement d'un système de gestion de bases de données à objets (SGBDO) par l'intégration de certaines fonctions typiquement remplies par des langages de règles. Plus précisément, nous nous sommes intéressés à l'intégration de règles actives dans un système à objets, afin de lui conférer la capacité de réagir à des situations particulières. Nous avons travaillé cet aspect en profondeur et nous proposons un modèle de règles actives qui tient pleinement compte des spécificités du contexte objet. Nous avons étudié l'approche langage de programmation pour base de données (LPBD) et l'intégration des règles actives dans un tel langage. Ceci a été validé par l'application de notre modèle de règles au LPBD orienté objet Peplom, pour lequel nous proposons les éléments nécessaires à une intégration harmonieuse du point de vue du modèle de données, du langage proprement dit ainsi que de sa mise en œuvre. Ceci constitue la partie principale de notre travail. Une deuxième partie de cette thèse, plus prospective et complémentaire à la première, porte sur l'intégration de règles déductives dans ce même contexte. Nous nous intéressons ici à des règles propres aux bases de données déductives, dont le principal objectif est de fournir un langage à la fois déclaratif et puissant pour la déduction d'information. Ces caractéristiques, fortement appréciées pour la manipulation de données, sont absentes de la plupart des LPBD des systèmes à objets et ne sont pas non plus les traits essentiels des règles actives telles que nous les proposons. Face à cette constatation, nous proposons l'intégration d'un langage de règles déductives à un langage de programmation essentiellement impératif
APA, Harvard, Vancouver, ISO, and other styles
15

Tlili, Assed. "Structuration des données de la conception d'un bâtiment pour une utilisation informatique." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1986. http://tel.archives-ouvertes.fr/tel-00529509.

Full text
Abstract:
Cette recherche propose une structure et un dictionnaire de données de la conception thermique d'un bâtiment d'habitation. L'analyse qui y est effectuée facilite la tâche des créateurs de logiciels spécifiques aux différents domaines de la conception des bâtiments en les dispensant des analyses séparées et répétées. Ces logiciels se partagent les données, saisies et manipulées une seule fois, et les échangent entre eux sans problèmes de compatibilité. La démarche se résume en quatre points : - L'analyse préliminaire de la conception d'un bâtiment fournit des listes, de phases, de fonctions et tâches, de dossiers et documents, et enfin d'ouvrages, à partir desquelles pourraient être collectées les données. - Cette collecte sera effectuée dans le domaine restreint de la conception thermique, pour permettre une analyse plus détaillée. Celle-ci aboutit, grâce aux méthodes de structuration, à la "structure brute" du premier niveau, qui contient des fichiers, et à la "structure simplifiée" du second niveau, qui contient des structures de données. - La "méta-structure" du troisième niveau contient la totalité des résultats dans le fichier "STRUCTURE" : nomenclature des données classées par types, et le fichier "DICTIONNAIRE" : tous les paramètres des données classées par ordre alphabétique. - L'application est réalisée grâce au fichier "BASE", dont le contenu (identifiants et valeurs des données) est saisi une seule fois par le premier utilisateur. La méthode qui a permis la proposition de ces résultats pour ce domaine restreint reste valable pour les domaines non traités. Le traitement de tous les domaines de la conception d'un bâtiment aboutirait à un système de CAO global.
APA, Harvard, Vancouver, ISO, and other styles
16

Akroun, Lakhdar. "Decidability and complexity of simulation preorder for data-centric Web services." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22523/document.

Full text
Abstract:
Dans cette thèse nous nous intéressons au problème d’analyse des spécifications des protocoles d’interactions des services Web orientés données. La spécification de ce type de protocoles inclut les données en plus de la signature des opérations et des contraintes d’ordonnancement des messages. L’analyse des services orientés données est complexe car l’exécution d’un service engendre une infinité d’états. Notre travail se concentre autour du problème d’existence d’une relation de simulation quand les spécifications des protocoles des services Web sont représentés en utilisant un système à transition orienté données. D’abord nous avons étudié le modèle Colombo [BCG+05]. Dans ce modèle, un service (i) échange des messages en utilisant des variables ; (ii) modifie une base de donnée partagée ; (iii) son comportement est modélisé avec un système à transition. Nous montrons que tester l’existence de la relation de simulation entre deux services Colombo non bornée est indécidable. Puis, nous considérons le cas où les services sont bornés. Nous montrons pour ce cas que le test de simulation est (i) exptime-complet pour les services Colombo qui n’accèdent pas à la base de donnée (noté ColomboDB=∅), et (ii) 2exptime-complet quand le service peut accéder à une base de donnée bornée (Colombobound). Dans la seconde partie de cette thèse, nous avons défini un modèle générique pour étudier l’impact de différents paramètres sur le test de simulation dans le contexte des services Web orientés données. Le modèle générique est un système à transition gardé qui peut lire et écrire à partir d’une base de donnée et échanger des messages avec son environnement (d’autres services ou un client). Dans le modèle générique toutes les actions sont des requêtes sur des bases de données (modification de la base de données, messages échangés et aussi les gardes). Dans ce contexte, nous avons obtenu les résultats suivant : (i) pour les services gardés sans mise à jour, le test de simulation est caractérisé par rapport à la décidabilité du test de satisfiabilité du langage utilisé pour exprimer les gardes augmenté avec une forme restrictive de négation, (ii) pour les services sans mise à jour mais qui peuvent envoyer comme message le résultat d’une requête, nous avons trouvé des conditions suffisantes d’indécidabilité et de décidabilité par rapport au langage utilisé pour exprimer l’échange de messages, et (iii) nous avons étudié le cas des services qui ne peuvent que insérer des tuples dans la base de donnée. Pour ce cas, nous avons étudié la simulation ainsi que la weak simulation et nous avons montré que : (a) la weak simulation est indécidable quand les requêtes d’insertion sont des requêtes conjonctives, (b) le test de simulation est indécidable si la satisfiabilité du langage de requête utilisé pour exprimer les insertions augmenté avec une certaine forme de négation est indécidable. Enfin, nous avons étudié l’interaction entre le langage utilisé pour exprimer les gardes et celui utilisé pour les insertions, nous exhibons une classe de service où la satisfiabilité des deux langages est décidable alors que le test de simulation entre les services qui leur sont associés ne l’est pas<br>In this thesis we address the problem of analyzing specifications of data-centric Web service interaction protocols (also called data-centric business protocols). Specifications of such protocols include data in addition to operation signatures and messages ordering constraints. Analysis of data-centric services is a complex task because of the inherently infinite states of the underlying service execution instances. Our work focuses on characterizing the problem of checking a refinement relation between service interaction protocol specifications. More specifically, we consider the problem of checking the simulation preorder when service business protocols are represented using data-centric state machines. First we study the Colombo model [BCG+05]. In this framework, a service (i) exchanges messages using variables; (ii) acts on a shared database; (iii) has a transition based behavior. We show that the simulation test for unbounded Colombo is undecidable. Then, we consider the case of bounded Colombo where we show that simulation is (i) exptime-complete for Colombo services without any access to the database (noted ColomboDB=∅), and (ii) 2exptime-complete when only bounded databases are considered (the obtained model is noted Colombobound). In the second part of this thesis, we define a generic model to study the impact of various parameters on the simulation test in the context of datacentric services. The generic model is a guarded transition system acting (i.e., read and write) on databases (i.e., local and shared) and exchanging messages with its environment (i.e., other services or users). The model was designed with a database theory perspective, where all actions are viewed as queries (i.e modification of databases, messages exchanges and guards). In this context, we obtain the following results (i) for update free guarded services (i.e., generic services with guards and only able to send empty messages) the decidability of simulation is fully characterized w.r.t decidability of satisfiability of the query language used to express the guards augmented with a restrictive form of negation, (ii) for update free send services (i.e., generic services without guards and able to send as messages the result of queries over local and shared database), we exhibit sufficient conditions for both decidability and undecidability of simulation test w.r.t the language used to compute messages payloads, and (iii) we study the case of insert services (i.e., generic services without guards and with the ability of insert the result of queries into the local and the shared database). In this case, we study the simulation as well as the weak simulation relations where we show that: (i) the weak simulation is undecidable when the insertions are expressed as conjunctive queries, (ii) the simulation is undecidable if satisfiability of the query language used to express the insertion augmented with a restricted form of negation is undecidable. Finally, we study the interaction between the queries used as guards and the ones used as insert where we exhibit a class of services where satisfiability of both languages is decidable while simulation is undecidable
APA, Harvard, Vancouver, ISO, and other styles
17

Nauer, Emmanuel. "Principes de conception de systèmes hypertextes pour la fouille de données bibliographiques multibases." Nancy 1, 2001. http://www.theses.fr/2001NAN10008.

Full text
Abstract:
Le besoin en information est primordial pour la recherche et la veille scientifiques et techniques. L'importante quantité de données disponibles actuellement sur un domaine d'activité nécessite de mettre en oeuvre des moyens adaptés pour exploiter ces données. Le but de ce travail de recherche est de fournir un environnement pour exploiter les données d'un domaine (références bibliographiques et Web) pour des besoins de recherches bibliographiques ou d'analyses de domaines. Dans ce cadre une approche générale pour construire un système hypertexte de fouille de données bibliographiques est proposé. L'hypertexte favorise l'accès exploratoire des données. Des fonctionnalités de fouille (dénombrements, classifications, extractions de règles) sont déclenchées à la demande pour analyser plus précisément les données. L'idée principale de cette thèse est que la fouille de données et la recherche d'information sont deux approches complémentaires pour appréhender des données : la fouille de données permet de guider la recherche d'information à partir des connaissances extraites des données. Inversement, la recherche d'information permet de guider la fouille de données par l'exploitation des connaissances issues de la fouille. La fouille de données favorise également l'accès à l'information sur le Web. Concrètement, les connaissances extraites des données bibliographiques fournissent une aide à la formulation de requêtes et permettent d'améliorer la précision des réponses obtenues lors de l'interrogation de moteurs de recherche. La mise en place d'un tel système nécessite d'exploiter les travaux de recherche en fouille de données, recherche d'information et bases de données. D'un point de vue technique, les outils de ces différents domaines sont combinés grâce à une approche modulaire exploitant XML pour la représentation et l'échange des données manipulées, et un traitement par flux de données<br>Information is essential in scientific and technical research and watch. The significant quantity of currently available data in a domain requires to implement adapted tools to exploit them. The goal of this research is to provide an environment in which the data of a domain (bibliographical references and Web) can be exploited for bibliographical search or domain analysis needs. In this framework, a general approach to build an hypertextual datamining system on bibliographical data is proposed. The use of hypextext capabilities favorizes an explorative access to data. Functionalities of datamining (statistical information, classifications, rules extraction) may be available to analyze data more precisely. The principal idea of this thesis is that datamining and information retrieval are two complementary approaches to access and analyse data : datamining allows to guide the information retrieval by using the knowledge extracted from the data. Conversely, information retrieval allows to guide the datami- ning pro cess by taking into account the extracted knowledge. The datamining process also favours the information access on the Web. Concretely, the knowledge extracted from bibliographical data provides a help for query formulation and improve the answer's precision of web search engine Building such a system requires the exploitation of different technics, Le. Datamining, information retrieval and database management. From a technical point of view, the tools of these fields are combined thanks to a modular approach exploiting XML for the representation and the exchange of the data, and a data flow processing
APA, Harvard, Vancouver, ISO, and other styles
18

Grazziottin, Ribeiro Helena. "Un service de règles actives pour fédérations de bases de données." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10084.

Full text
Abstract:
Dans les SGBD actifs la notion de réaction automatique à des événements est offerte au travers de règles actives de la forme Événement-Condition-Action. Ces règles sont gérées par des mécanismes spécifiques, dits actifs, intégrés dans les SGBD. Nous nous intéressons à l'introduction de ces mécanismes dans les fédérations de données. Les fédérations sont caractérisées par la distribution et l'autonomie de leurs composants et les mécanismes actifs doivent donc s'adapter à de telles caractéristiques. Notre approche propose de mettre en œuvre ces mécanismes sous forme d'un service de règles et un service d'événements qui coopèrent. Dans cette thèse nous nous intéressons plus précisément à la définition et à la structuration d'un service de règles. Nous proposons un service adaptable nommé ADRUS (pour ADaptable RUle Service) qui permet la construction et le contrôle de gestionnaires de règles spécialisés selon les besoins des applications de la fédération bases de données. Les modèles implantés par ces gestionnaires sont spécifiés à partir des trois métamodèles offerts par le service : le métamodèle de définition et de manipulation de règles, le métamodèle d'exécution de règles et le métamodèle de coopération entre gestionnaires. Notre travail se concentre sur la définition de la structure et des caractéristiques des métamodèles. Nous modélisons la coopération entre gestionnaires de règles, d'événements et de transactions car celle-ci est fondamentale pour l'exécution des règles dans une fédération. Nous présentons une expérience d'utilisation de notre service dans le cadre de la mise en œuvre de systèmes ODAS. Ces systèmes sont basés sur des services d'événements et de règles ouverts et répartis (Open and Distributed Active Services) utilisés au niveau d'une fédération de bases de données dans le contexte d'une application de type commerce électronique
APA, Harvard, Vancouver, ISO, and other styles
19

Er-Rouane, Sadik. "Méthodologie d'acquisition et de traitement des données hydrogéologiques : application au cas de la plaine de la Bahira." Nancy 1, 1992. http://www.theses.fr/1992NAN10397.

Full text
Abstract:
L'objectif de ce travail est l'aménagement et la mise en valeur de la plaine de la Bahira grâce à l'exploitation rationnelle de ses ressources hydrogéologiques. La synthèse entreprise au niveau de toute la plaine sur la base des anciens travaux, a mis en évidence une masse de données très disparates dont le traitement a rendu indispensable le recours à l'outil informatique. Cela conduisit à l'élaboration d'une méthodologie précise et a la mise en place d'une base de données programmée sous dbase III plus et qui est composée de fichiers spécialises se rapportant aux quatre principales classes d'informations: géologie, caractéristiques hydrodynamiques, piézométries, prélèvements par pompages. La gestion de cette base de données se fait à deux niveaux, elle permet d'une part l'exécution des taches habituelles, telles que consultations, tris, mises à jour. . . , mais elle a été surtout orientée vers une exploitation entièrement informatisée, grâce à une édition de divers fichiers magnétiques spécifiques qui seront repris par des logiciels de géostatistique et de modélisation mathématique. Si la conception actuelle de cette base de données est bien adaptée au cas de la Bahira, elle reste tout à fait perfectible et généralisable en d'autres unîtes. En ce qui concerne la modélisation, les travaux sont très avances en Bahira occidentale, l'extension à l'ensemble de la plaine est en cours selon un modèle multicouche à aquifères non noyés
APA, Harvard, Vancouver, ISO, and other styles
20

Séraphin, John. "Réalisation d'un intranet : cohérence d'un ensemble réparti et communicant, autour d'une architecture réflexive." Paris 5, 1998. http://www.theses.fr/1998PA05S007.

Full text
Abstract:
Un intranet permet de déployer les applications client-serveur sur l'ensemble des postes de l'entreprise. Il concerne cependant des centaines de personnes, peu familières des technologies et de l'approche hypertexte. Les problèmes de cohérence et de persistance des liens, des modèles de documents, des feuilles de style, d'administration et d'exploitation de l'ensemble, s'avèrent alors d'une acuité inconnue sur l'internet. Nous présentons ici une architecture de base, réflexive, orientée-documents et commune a un intranet qui associe dans sa phase actuelle le web, les bases de données, un métalangage de manipulation de description et des techniques issues de l'intelligence artificielle, pour proposer aux utilisateurs connectes au réseau d'entreprise un accès fiable et uniforme a un ensemble facilement extensible de données locales ou transversales. Ricercar met en place un ensemble de bases de métadonnées fédérées qui décrivent et référencent les objets disponibles. Les serveurs web associes à ces bases composent ainsi dynamiquement les documents correspondants, indépendamment du serveur interroge ou de la localisation effective de ces données. Cette architecture garantit la qualité de service en assurant notamment la permanence des url publiées et la génération dynamique de la structure (l'arborescence) d'un serveur. Elle propose un modèle de navigation uniforme, géré l'authentification et les accès des utilisateurs et, enfin, autorise une surveillance d'ensemble ainsi que des statistiques de fréquentation modulaires et significatives. Suite a ses différents amorçages, Ricercar enregistre, dans cette même base repartie, la description et les références de ses propres données ainsi que celle des méta-scripts utilises pour générer dynamiquement les documents de l'intranet. Cette réflexivité, qui lui permet de manipuler et d'enrichir ses structures, en fait ainsi un système ouvert et adaptatif. Nous analysons donc les spécificités techniques et organisationnelles qui singularisent à notre sens l'intranet par rapport à l'internet ainsi que leur implémentation dans Ricercar, compare à un orb, dont nous présenterons les applications concrètes ainsi que les différentes perspectives d'évolution.
APA, Harvard, Vancouver, ISO, and other styles
21

Romero, Julien. "Harvesting commonsense and hidden knowledge from web services." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT032.

Full text
Abstract:
In this thesis, we harvest knowledge of two different types from online resources . The first one is commonsense knowledge, i.e. intuitive knowledge shared by most people like ``the sky is blue''. We extract salient statements from query logs and question-answering by carefully designing question patterns. Next, we validate our statements by querying other web sources such as Wikipedia, Google Books, or image tags from Flickr. We aggregate these signals to create a final score for each statement. We obtain a knowledge base, QUASIMODO, which, compared to its competitors, has better precision and captures more salient facts.Dans cette thèse, nous collectons sur le web deux types de connaissances. Le premier porte sur le sens commun, i.e. des connaissances intuitives partagées par la plupart des gens comme ``le ciel est bleu''. Nous utilisons des logs de requêtes et des forums de questions-réponses pour extraire des faits essentiels grâce à des questions avec une forme particulière. Ensuite, nous validons nos affirmations grâce à d'autres ressources comme Wikipedia, Google Books ou les tags d'images sur Flickr. Finalement, nous groupons tous les signaux pour donner un score à chaque fait. Nous obtenons une base de connaissance, QUASIMODO, qui, comparée à ses concurrents, montre une plus grande précision et collecte plus de faits essentiels.Le deuxième type de connaissances qui nous intéresse sont les connaissances cachées, i.e. qui ne sont pas directement données par un fournisseur de données. En effet, les services web donnent généralement un accès partiel à l'information. Il faut donc combiner des méthodes d'accès pour obtenir plus de connaissances: c'est de la réécriture de requête. Dans un premier scénario, nous étudions le cas où les fonctions ont la forme d'un chemin, la base de donnée est contrainte par des "dépendences d'inclusion unitaires" et les requêtes sont atomiques. Nous montrons que le problème est alors décidable en temps polynomial. Ensuite, nous retirons toutes les contraites et nous créons un nouvelle catégorie pertinente de plans: les "smart plans". Nous montrons qu'il est décidable de les trouver<br>In this thesis, we harvest knowledge of two different types from online resources . The first one is commonsense knowledge, i.e. intuitive knowledge shared by most people like ``the sky is blue''. We extract salient statements from query logs and question-answering by carefully designing question patterns. Next, we validate our statements by querying other web sources such as Wikipedia, Google Books, or image tags from Flickr. We aggregate these signals to create a final score for each statement. We obtain a knowledge base, QUASIMODO, which, compared to its competitors, has better precision and captures more salient facts.The other kind of knowledge we investigate is hidden knowledge, i.e. knowledge not directly given by a data provider. More concretely, some Web services allow accessing the data only through predefined access functions. To answer a user query, we have to combine different such access functions, i.e., we have to rewrite the query in terms of the functions. We study two different scenarios: In the first scenario, the access functions have the shape of a path, the knowledge base respects constraints called ``Unary Inclusion Dependencies'', and the query is atomic. We show that the problem is decidable in polynomial time, and we provide an algorithm with theoretical evidence. In the second scenario, we remove the constraints and create a new class of relevant plans called "smart plans". We show that it is decidable to find these plans and we provide an algorithm
APA, Harvard, Vancouver, ISO, and other styles
22

Sérasset, Gilles. "Sublim : un systeme universel de bases lexicales multilingues et NADIA : sa specialisation aux bases lexicales interlingues par acceptations." Université Joseph Fourier (Grenoble), 1994. http://tel.archives-ouvertes.fr/tel-00005112.

Full text
Abstract:
Le but de cette these est de definir et developper un systeme de bases lexicales multilingues independant des applications et des theories linguistiques. Elle debute donc par une etude des dictionnaires (imprimes ou electroniques) et des outils de gestion de bases lexicales, avec, notamment, le projet ESPRIT MULTILEX, considere comme l'effort le plus avance, mais qui presente quelques faiblesses (architecture lexicale par transfert, structures linguistiques codees sous forme de structures de traits types. ). La deuxieme partie de cette these est consacree a la definition de SUBLIM, un systeme de gestion de bases lexicales multilingues qui permet de specifier l'architecture lexicale (organisation des dictionnaires) et l'architecture linguistique (organisation des informations linguistiques des unites des dictionnaires), sans imposer de contraintes ni sur les types de dictionnaires choisis, ni sur les structures linguistiques utilisees. La troisieme et derniere partie de cette these presente une specialisation de ce systeme generique en un systeme dedie a la gestion de bases lexicales multilingues fondees sur les acceptions interlingues : NADIA. Cette approche generalise certaines methodes interlingues comme celle du projet de traduction multilingue ULTRA, et permet la definition de bases lexicales multilingues ne se basant pas sur une approche par connaissances
APA, Harvard, Vancouver, ISO, and other styles
23

Watson, Victor. "Estimation de paramètres physiques à partir de leur description par une base de mesure de très grande dimension." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30091/document.

Full text
Abstract:
Cette thèse contribue au développement de diverses méthodes permettant la détermination des paramètres stellaires fondamentaux (température effective, gravité de surface et "métallicité" i.e., la composition chimique globale), ainsi que de la vitesse de rotation projetée (vsini), à partir de l'analyse de spectres à haute résolution. Plusieurs méthodes seront présentées, et leurs performances respectives en terme d'extraction des paramètres fondamentaux seront discutées. Nous mettrons en particulier l'accent sur une mise en œuvre originale de la méthode dite Sliced Inverse Regression (SIR, Watson et al. 2017)<br>This thesis contributes to the development of various methods for the determination of the stellar fundamental parameters (effective temperature, surface gravity and "metallicity" ie, the overall chemical composition), as well as the projected rotation speed (vsini), from the analysis of high resolution spectra. Several methods will be presented, and their respective performances in terms of extraction of the fundamental parameters will be discussed. In particular, we will focus on an original implementation of the Sliced Inverse Regression method (SIR, Watson et al., 2017)
APA, Harvard, Vancouver, ISO, and other styles
24

Faudemay, Pascal. "Un processeur VLSI pour les opérations de bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066468.

Full text
Abstract:
Ce processeur est capable d'effectuer toutes les opérations des langages de manipulation de données relationnels, des bases de textes et les opérations essentielles des bases de connaissances. Il est optimum dans un environnement à limitation par les transferts en mémoire. Ce co-processeur est formé d'un vecteur de composants VLSI identiques dont chacun est connecté avec le suivant. Il dérive des filtres à comparateurs et des mémoires associatives, dont il étend les fonctionnalités. Nous montrons que ce VLSI est faisable dans la technologie CMOS actuelle. Il conduit à des performances très compétitives pour la jointure, la sélection relationnelle et l’édition de textes. Ce processeur est en cours de réalisation.
APA, Harvard, Vancouver, ISO, and other styles
25

Ogier, Jean-Marc. "Contribution à l'analyse automatique de documents cartographiques. Interprétation de données cadastrales." Rouen, 1994. http://www.theses.fr/1994ROUES008.

Full text
Abstract:
Les travaux présentés dans ce mémoire abordent le problème de l'analyse automatique de documents cartographiques. L'application proposée concerne l'interprétation des documents cadastraux français. La méthodologie employée s'appuie sur des résultats d'études sur la perception visuelle et sur une description hiérarchisée du document. La stratégie, basée sur le modèle du document, utilise une approche mixte avec différents points de vue sur l'image à traiter. La partie descendante est caractérisée par un ensemble de traitements qui, grâce à une analyse multi-résolution de l'image, permettent d'émettre des hypothèses sur la structure globale de l'image. Les hypothèses émises par ce point de vue sont validées par un ensemble de traitements d'analyse de l'image. Cette analyse est réalisée selon différents niveaux hiérarchiques sur lesquels sont implantés des spécialistes charges de l'extraction de caractéristiques spécifiques au document traité. Dans le cas du cadastre, ces spécialistes traitent de l'analyse des zones texturées, de l'extraction des objets linéaires, de la reconnaissance des caractères et de la reconstitution des entités cadastrales. Les résultats de cette analyse mixte peuvent mettre en évidence des objets non interprétables au sens du cadastre, à cause d'incohérences sémantiques dues à différents facteurs. Une stratégie d'analyse est alors proposée, elle permet grâce à des cycles d'aller-retours entre les traitements hauts et bas niveaux, de résoudre les incohérences de façon autonome. Les résultats présentés, issus de tests effectués sur des données de laboratoire, laissent augurer de bonnes performances sur des bases de données plus importantes et permettent d'envisager l'adaptabilité de la stratégie à d'autres types de documents
APA, Harvard, Vancouver, ISO, and other styles
26

Kim, Myung-Joon. "Études sur l'approche base de données pour la gestion d'objets issus du développement de logiciel." Nancy 1, 1986. http://www.theses.fr/1986NAN10072.

Full text
Abstract:
Les travaux menés se divisent en trois étapes progressives : 1) Étude de la base de données relationnelle et intégration des applications de base de données relationnelle dans le langage LTR-3 à l'aide de la notion de type abstrait de données ; 2) Études approfondies sur le modèle entité-association et proposition d'une méthode de transformation du modèle entité-association au modèle relationnel ; 3) Première description d'un système de gestion d'objets basé sur le modèle entité-association avec la spécification de ses fonctions
APA, Harvard, Vancouver, ISO, and other styles
27

Djezzar, Linda. "Contribution à l'étude acoustico-perceptive des occlusives du français." Nancy 1, 1995. http://www.theses.fr/1995NAN10009.

Full text
Abstract:
Diverses études ont montré que l'identification des occlusives repose sur l'utilisation de nombreux et redondants indices qui sont essentiellement fournis par le bruit d'explosion et les transitions formantiques. Néanmoins, dans les systèmes de reconnaissance de la parole existants, les taux de reconnaissance des palato-vélaires en contexte antérieur et des dentales en contexte labialise ne sont pas encore satisfaisants. Cette thèse a consisté en une étude acoustico-perceptive en vue d'une meilleure compréhension et connaissance du pouvoir de discrimination du bruit d'explosion par rapport à la reconnaissance du lieu d'articulation consonantique. Cette étude est constituée de trois parties. Expériences de perception du bruit d'explosion extrait d'occlusives sourdes du français. Notre objectif était de tester les performances des auditeurs dans l'identification du lieu d'articulation consonantique indépendamment de la voyelle qui suit. Nous nous sommes tout particulièrement intéressés aux caractéristiques spectrales du bruit d'explosion et à l'effet de la connaissance explicite de la voyelle sur les performances auditives. Description acoustique des principaux indices acoustiques fournis par le bruit d'explosion. Notre but était de tester la robustesse de chacun de ces indices vis-à-vis des variations contextuelles et individuelles. Pour ce faire, nous avons développe une base de données acoustico-phonétiques multi-locuteurs contenant tous les contextes vocaliques. Mise en œuvre d'un décodeur acoustico-phonétique d'occlusives hybride intégrant les résultats obtenus dans les deux parties précédentes
APA, Harvard, Vancouver, ISO, and other styles
28

Mocellin, Françoise. "Gestion de données et de présentations multimédias par un SGBD à objets." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004956.

Full text
Abstract:
Un Système de Gestion de Bases de Données Multimédia doit être capable de manipuler et gérer les données telles que l'image, le texte, le son ou la vidéo, ainsi que des présentations multimédias. Une présentation synchronise et compose différents objets, chacun possédant des aspects temporels sous forme d'une Ombre Temporelle (constituée d'un délai et d'une durée). La synchronisation est définie par un ensemble de contraintes temporelles. Nous proposons un modèle de comportements d'une présentation dont le but est d'ajouter une nouvelle dimension aux objets pour pouvoir leur associer un comportement particulier au cours de leur présentation. On appelle comportement d'un objet, l'ensemble des actions qu'il est susceptible d'entreprendre suite à des événements lors de sa présentation. Le déroulement de la présentation devient imprévisible et dépend des événements qui se produisent et déclenchent une suite d'actions. L'ensemble des comportements lié à la présentation constitue l'Ombre Comportementale d'un objet. Par exemple, elle permet de traiter l'interaction avec l'utilisateur lors des présentations. Pour montrer la faisabilité de notre approche, nous avons étendu un SGBD à objets existant O2. Ces extensions correspondent à des bibliothèques de classes prédéfinies et réutilisables qui permettent de construire, manipuler, interroger et jouer toutes sortes de présentations.
APA, Harvard, Vancouver, ISO, and other styles
29

Bouzeghoub, Mokrane. "Secsi : un système expert en conception de systèmes d'informations, modélisation conceptuelle de schémas de bases de données." Paris 6, 1986. http://www.theses.fr/1986PA066046.

Full text
Abstract:
Les principaux objectifs du système sont d'une part la constitution d'une base de connaissances regroupant à la fois des acquis théoriques sur les modèles et une expérience pratique en conception de bases de données, et d'autre part la réalisation d'un système d'outils ouvert, capable aussi bien de données, et d'autre part la réalisation d'un système d'outils ouvert, capable aussi bien d'expliquer et de justifier ses choix et ses résultats que d'intégrer de nouveaux concepts et de nouvelles règles de conception. Outre l'architecture générale et les fonctionnalités du système, cette thèse décrit le modèle de représentation de connaissances base sur les réseaux sémantiques, les règles d'inférence et la méthodologie de conception adoptée.
APA, Harvard, Vancouver, ISO, and other styles
30

Pillu, Hugo. "Knowledge flows through patent citation data." Phd thesis, Ecole Centrale Paris, 2009. http://tel.archives-ouvertes.fr/tel-00458678.

Full text
Abstract:
Dans cette thèse, nous analysons les différents aspects des externalités de connaissance et la façon dont les citations de brevet peuvent être utilisées comme un indicateur de ces flux. La première partie de cette thèse examine la littérature traditionnelle sur les externalités de connaissance, et cela d'un point de vue à la fois qualitatif et quantitatif (la forme quantitative est réalisée grâce à une méta-analyse). Nous insistons sur les conséquences résultant de l'utilisation de différents canaux de mesure de ces externalités, précisément nous nous attardons sur les hypothèses sous-jacentes et sur leurs implications en termes d'estimations empiriques. Ce point est important car ces canaux sont la principale source d'hétérogénéité des résultats empiriques. Dans la seconde partie, nous explorons des données de brevets et de citations de brevet encore peu étudiées (ces données sont extraites de la base de données Patstat pour les offices de brevets du G5, de l'OEB et de l'OMPI). Cette analyse est à nouveau réalisée à la fois en termes qualitatifs et quantitatifs. La troisième partie, dans un premier temps, examine de façon empirique les caractéristiques des flux de connaissance entre et au sein des inventeurs des pays du G5 et cela pour 13 secteurs industriels. Dans un deuxième temps, cette partie propose et valide la création d'un indicateur de stocks de connaissance qui prend en compte les externalités de connaissance internationales. Cet indicateur se révèle particulièrement utile puisque les indicateurs traditionnels ne sont pas toujours disponibles (comme les indicateurs basés sur les dépenses de R&D). Enfin, l'indicateur précédemment créé sera appliqué à une étude de cas consacrée à l'analyse des déterminants de l'innovation pour les technologies énergétiques efficientes.
APA, Harvard, Vancouver, ISO, and other styles
31

Canavaggio, Jean-François. "TEMPOS : un modèle d'historiques pour un SGBD temporel." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004924.

Full text
Abstract:
Un SGBD temporel doit offrir les fonctionnalités permettant aux applications de dater les informations et de gérer l'histoire de leur évolution. Cette thèse présente le modèle d'historiques TEMPOS et le prototype qui a été réalisé au dessus du SGBD O2. TEMPOS s'appuie sur un modèle du temps, qui permet de manipuler des valeurs temporelles, simples et complexes, exprimées dans différentes unités. Le jeu d'unité est extensible, et les opérations définies sont indépendantes des unités. La multiplicité des formes externes des valeurs temporelles est également prise en compte. Le modèle d'historiques proposé dans TEMPOS intègre les fonctionnalités essentielles attendues pour gérer la dimension historique des informations d'une base de données. La définition de différents types d'historiques (discret, en escalier, interpolé) permet de donner la signification des valeurs saisies et d'interpoler les autres valeurs. Ainsi, en TEMPOS, un historique est vu comme une chronique (séquence de valeurs datées), un domaine temporel d'observation, et une fonction d'interpolation. Le modèle permet diverses structurations des historiques basées sur le regroupement d'instants. Les opérations d'interrogation des historiques sont issues de l'extension temporelle des opérateurs de l'algèbre relationnelle et également d'une adaptation d'opérateurs sur les séquences, qui permettent en particulier de raisonner sur la succession dans le temps. Les opérations classiques de mise à jour sont étendues pour prendre en compte la dimension temporelle. Toutes les opérations sur les historiques sont définies de manière à être indépendantes de la représentation et de l'unité d'observation temporelle des historiques. Le prototype comprend une hiérarchie de classes implantant les types et les opérations proposés dans TEMPOS, et un préprocesseur TempOQL permettant de manipuler des valeurs temporelles dans des requêtes OQL.
APA, Harvard, Vancouver, ISO, and other styles
32

David, Romain. "De la conception d'un système d'observation à large échelle au déploiement et à l'exploitation de son système d'information : application à l'observation des habitats coralligènes et à la colonisation de récifs artificiels (ARMS)." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0215/document.

Full text
Abstract:
Dans le domaine marin, des protocoles d’observation développés dans de nombreux cadres produisent un grand volume de données hétérogènes, difficiles à agréger et à utiliser. Ce travail propose i) des méthodes, protocoles et recommandations pour construire et/ou soutenir la mise en place de réseaux de suivis multi-usagers,) des utilisations novatrices des données.Deux cas d’étude ont été choisis : les habitats coralligènes à l’échelle de la Méditerranée et la colonisation de récifs artificiels dans différentes mers régionales.L’expérimentation à large échelle se base sur des méthodes de mesures les plus simples possibles, décrites très explicitement dans des termes standardisés, sur des opérateurs intercalibrés et une méthode de traitement des données. Un mécanisme de couplage de données de différentes origines reposant sur la requalification des facteurs descriptifs hétérogènes et une méthode d’analyse et de fouille de données basé sur la théorie des graphes sont proposées<br>In the marine domain, observation protocols developed in many settings produce a large volume of heterogeneous data that are difficult to aggregate and use. This work proposes to develop i) methods, protocols and recommendations to build and / or support the establishment of multi-user monitoring networks, ii) innovative uses of data.Two case studies were chosen: coralligenous habitats at the Mediterranean scale and the colonisation of artificial reefs in different regional seas.Large-scale experimentation is based on the simplest possible measurement methods, described very explicitly in standardised terms, on intercalibrated operators and a method of data processing. A mechanism for coupling data from different origins based on the requalification of heterogeneous descriptive factors and a method for analysis and data mining based on graph theory is also proposed
APA, Harvard, Vancouver, ISO, and other styles
33

Boukebeche, Madani. "AIPSys : un système à base de connaissances orienté objet en vue de l'aide à la prescription de médicaments." Paris 5, 1997. http://www.theses.fr/1997PA055005.

Full text
Abstract:
Cette thèse s'inscrit dans le projet AIP (artificial intelligence & pharmacology) dont l'objectif est de faire bénéficier le domaine de la prescription de médicaments et en particulier l'automédication de la méthodologie et des techniques issues de l'intelligence artificielle. Il s'adresse à un large éventail d'utilisateurs potentiels allant du grand public, aux étudiants en médecine, pharmaciens et médecins. Pour prendre en compte les multiples aspects de ce projet, notamment l'hétérogénéité des connaissances du domaine d'application, nous avons conçu et développé un système à base de connaissances oriente objet, appelé aipsys, intégrant une base de données structurée elle aussi selon l'approche orientée objet. Ce choix doit permettre de maitriser à la fois la complexité caractérisant les données relatives aux médicaments et la variété des types de connaissances permettant de les prescrire. Ainsi, les entités du domaine d'application (pathologies, malades et médicaments) sont organisées en classes hiérarchisées et isomorphes. Les connaissances sur les procédures de diagnostic et de prescription de médicaments sont représentées par règles de production pouvant inclure des requêtes d'interrogation de la base de données sur les médicaments. Cette diversité de représentation permet alors une grande souplesse de programmation. L'accomplissement des taches de diagnostic, de traitements thérapeutiques et de prescription de médicaments est réalisé par la mise en œuvre des raisonnements bases sur le processus de classification des malades par rapport à la hiérarchie des classes de malades. Ceci est effectué par un parcours intelligent d'arbres de décision guide par des heuristiques et des données sur les malades et leurs pathologies, collectées au moyen d'un dialogue en mode question/réponse. Une fois que la classe d'un malade est connue, les prescriptions sont élaborées à partir des classes de médicaments isomorphes à cette dernière. Pour ce faire, un mécanisme d'inférence fondé sur le principe d'envois de messages et sur une distribution du contrôle au niveau des règles est proposé. Les bases de connaissances d'aipsys sont organisées en modules et le processus d'héritage est étendu aux règles et aux modules de connaissances, ce qui permet une optimisation de la mémoire de travail.
APA, Harvard, Vancouver, ISO, and other styles
34

Bertrand, Laurent. "Contribution à la mise en place d'un système d'aide au diagnostic en métallurgie : stockage, analyse et interpolation des diagrammes de transformation en refroidissement continu des aciers." Saint-Etienne, 1995. http://www.theses.fr/1995STET4012.

Full text
Abstract:
Cette recherche de base, pour le groupe Usinor-Sacilor, s'inscrit dans le cadre de l'élaboration de bases de données matériaux concernant les données métallurgiques, dans le but d'alimenter les codes de calcul par des données de qualité et d'aider le diagnostic des métallurgistes. Les diagrammes de transformation d'acier sont nécessaires à la simulation des changements de phases lors d'un traitement thermomécanique. Aujourd'hui une quantité importante de données est disponible sur papier. Ces courbes et toutes les données qui s'y rapportent, rassemblées à différentes époques et par différents opérateurs, s'avèrent d'une qualité plus ou moins bonne. Mais les efforts apportés à l'automatisation et à l'acquisition des machines d'essais mettent à notre disposition des données expérimentales de qualité qui coutent relativement cher. La base de connaissance, développée afin de mettre à disposition cet ensemble d'informations, emploie des techniques très variées, à savoir une architecture client-serveur, une analyse par imagerie et une modélisation statistique par réseau de neurones. Ceci a conduit à sa mise en place et son utilisation par le groupe Usinor-Sacilor. L'apprentissage du modèle de prédiction doit se faire sur une base de données suffisamment large de manière à couvrir une gamme de nuances plus importante. Pour accroitre les performances, le couplage du modèle neuronal à un modèle métallurgique est prévu
APA, Harvard, Vancouver, ISO, and other styles
35

Diop, Mody. "Système d'acquisition de données microclimatiques à vocation agronomique." Rouen, 1993. http://www.theses.fr/1993ROUES024.

Full text
Abstract:
Le but poursuivi dans ce travail concerne l'élaboration d'une microstation d'acquisition de données climatologiques à vocation strictement agronomique destinée à être intégrée dans un réseau spécialisé. Après une présentation de l'intérêt d'un tel système dans la gestion optimale de l'agriculture, le premier chapitre expose les contraintes du cahier des charges. L'ensemble des capteurs utilisés ainsi que l'électronique de gestion associée sont présentés au second chapitre. Le chapitre suivant présente l'organisation logicielle du système en insistant sur les techniques propres à économiser l'énergie. Enfin l'avant-dernier chapitre précise les résultats et procédures d'étalonnage et l'ouvrage se termine par une présentation d'un ensemble typique de résultats d'exploitation
APA, Harvard, Vancouver, ISO, and other styles
36

Poulon, Fanny. "Tissue database of autofluorescence response to improve intra-operative diagnosis of primitive brain tumors." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS236/document.

Full text
Abstract:
Le premier traitement standard pour les tumeurs cérébrales est la résection chirurgicale. Dans cette procédure un enjeu important demeure, l'identification des berges tumorales pour assurer une résection totale et éviter le risque de récidive pour le patient. A ce jour aucune technique d'imagerie peropératoire est capable de résoudre l'infiltration tumorale du tissu sain. La norme pour le diagnostic des berges tumorales est l'analyse histologique des biopsies. Une méthode ex vivo qui requiert un à plusieurs jours pour fournir ler apport pathologique final, un lapse de temps qui peut s'avérer fatal pour le patient. La microscopie optique a récemment été développer vers une utilisation clinique peropératoire pour répondre à cet enjeu. Dans travail, la technique de microscopie à deux-photons a été préférée pouressayer de répondre à cette problématique. Cette méthode donne accès à deux contrastes d'imagerie, la génération de seconde harmonique et l’émission de fluorescence, qui peuvent être combinés à des mesures quantitatives, tel que la spectroscopie et le temps de vie de fluorescence. Combiner ces quatre modalités de détection donnera une information complète sur la structure et le métabolisme de la région observée. Pour soutenir le développement technique vers une sonde endomicroscopique visant une utilisation peropératoire, les données en résultants doivent être fiables, et se montrer d'un intérêt pour le chirurgien. Par conséquent, une base de données sur le signal d'autofluorescence des tissus a été construite et présentée dans ce manuscrit, avec des algorithmes capables de discriminer de façon fiable les régions tumorales des régions saines. Des algorithmes qui ont montré le potentiel d'être automatisé dans une configuration clinique, afin de fournir une réponse en temps-réel au chirurgien<br>The first standard approach for brain tumor treatment is the surgical resection. In this protocol an important challenge remains, the identification of tumor margins to ensure a complete resection and avoid risk of tumor recurrence. Nowadays no intra-operative means of contrast are able to resolve infiltrated regions from healthy tissue. The standard for tumor margin diagnosis is the histological analysis of biopsies. An ex vivo method that requires one to several days to issue a final pathological reports, a time lapse that could be fatal to the patient. Optical microscopy have recently been developed towards an intra-operative clinical use to answer this challenge. In this work, the technique of two-photon microscopy based on the autofluorescence of tissue have been favored. This technique gives access to two imaging contrasts, the second-harmonic generation and emission of fluorescence, and can be combined to quantitative measurements, such as spectroscopy and fluorescence lifetime. The combination of these four modalities of detection will give a complete structural and metabolic information on the observed region. To support the technical development towards an endomicroscopic probe, the resulted data have to be reliable and proved to be of interest for the surgeon. Consequently, an extensive database of the autofluorescence response of brain tumor tissue have been constructed and presented in this manuscript, with algorithms able to discriminate with reliability tumoral from healthy regions. Algorithms that have shown potential to be automatized in a clinical setting, in order to give a real-time answer to the surgeons
APA, Harvard, Vancouver, ISO, and other styles
37

Boughanem, Hicham. "Evaluation des termes de transport et de dissipation de surface de flamme par simulation numérique directe de la combustion turbulente." Rouen, 1998. http://www.theses.fr/1998ROUES040.

Full text
Abstract:
L'hypothèse transport par gradient de la variable de progrès a un domaine de validité limité dans le cas des flammes turbulentes prémélangées et l'existence de deux régimes de transport, gradient et contre-gradient, a été démontrée à l'aide de simulations numériques directes, réalisées dans des configurations de flammes planes. Une base de données a permis de caractériser l'influence du dégagement de chaleur, du rapport de vitesse (u p/s l), et l'amplitude d'un champ d'accélération externe. L'influence du rapport de longueur (l t/ l) n'est pas étudiée. Les simulations révèlent une forte corrélation entre la nature du transport turbulent et la vitesse et l'épaisseur de flamme turbulente. Ces effets ne sont pas correctement décrits dans les modèles de combustion. Une approche conditionnelle gaz frais / gaz brûlés est proposée pour résoudre les difficultés rencontrées. Ce travail a permis d'observer le développement d'instabilités de flammes dans des configurations turbulentes. Un critère est proposé pour déterminer le domaine d'influence de ces instabilités (instabilités de Darrieus-Landau, instabilités de Rayleigh-Taylor, instabilités thermo-diffusives). Ce critère suggère que le rôle des instabilités de flamme n'est pas limité à des écoulements à faible nombre de Reynolds.
APA, Harvard, Vancouver, ISO, and other styles
38

Machado, Javam de Castro. "Parallélisme et transactions dans les bases de données à objets." Université Joseph Fourier (Grenoble), 1995. https://tel.archives-ouvertes.fr/tel-00005039.

Full text
Abstract:
Notre travail cherche à exploiter le parallélisme dans le contexte des systèmes de gestion de bases de données a objets a d'autres niveaux d'abstraction que celui d'une requête SQL, à savoir le parallélisme intra-transaction et le parallélisme intra-application. Notre approche pour parallélisassions des transactions considère un modèle de transactions classiques, ou une transaction est une séquence d’Operations. Le parallélisme intra-transaction consiste à transformer le code d'une transaction pour pouvoir exécuter ses opérations en parallèle. Notre approche pour l'exploitation du parallélisme intra-application étend tout d'abord le modèle de parallélisme intra-transaction de manière à considérer la transaction comme unité de parallélisassions. Deuxièmement nous avons considère l'exploitation du parallélisme intra-application dans un contexte ou le modèle de transaction fournit des transactions emboitées. Nous avons développé un modèle de parallélisassions des applications où nous associons le parallélisme offert par le modèle des transactions emboitées avec le parallélisme par transformation de notre approche de parallélisation des transactions<br>Nous avons implanté un premier prototype qui met en œuvre le modèle de parallélisation des transactions. Pour cela, nous avons utilisé le système de bases de données à objet 02. Notre prototype introduit le parallélisme par la création et la synchronisation des activités parallèles au sein du processus client 02 qui exécute une application. Le système étant développé sur une machine monoprocesseur, les fonctions liées au parallélisme utilisent de processus légers. Nous avons applique ensuite notre modèle de parallélisations au système de règles NAOS. Notre approche considère l'ensemble de règles d'un cycle d'exécution, dites règles candidates, pour la parallélisation. Nous construisons un plan d'exécution pour les règles candidates d'un cycle qui détermine l'exécution séquentielle ou parallèle pour les règles
APA, Harvard, Vancouver, ISO, and other styles
39

Gay, Jean-Christophe. "Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00720204.

Full text
Abstract:
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d'un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu'à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d'expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu'à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d'utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l'algorithme du Volume. L'instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l'implémentation séquentielle et en 10 minutes par l'implémentation parallèle de l'algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l'application d'une heuristique de construction gloutonne puis d'une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d'opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s'ils aident à réduire le coût global des affectations.
APA, Harvard, Vancouver, ISO, and other styles
40

Bogo, Gilles. "Conception d'applications pour systèmes transactionnels coopérants." Habilitation à diriger des recherches, Grenoble INPG, 1985. http://tel.archives-ouvertes.fr/tel-00315574.

Full text
Abstract:
Les moyens offerts par les systèmes de gestion de base de données et les systèmes transactionnels pour maintenir la cohérence et l'intégrité des systèmes d'information sont tout d'abord analysés tant en centralisé qu'en réparti. La seconde partie est consacrée à l'étude de deux grandes classes de méthodes de conception, l'une fondée sur les modèles de description de données, l'autre sur les types abstraits. Dans chaque cas, une méthode particulière est présentée et analysée. Après présentation de l'application bancaire pilote, la troisième partie définit un modèle pour la description des applications transactionnelles. Celui-ci est appliqué et confronté à l'application pilote. La dernière partie décrit la réalisation de ce modèle dans le langage ADA. Un environnement de conception est construit et se présente comme un sur-ensemble du langage ADA. Enfin, cet outil est comparé à d'autres propositions du domaine de la recherche
APA, Harvard, Vancouver, ISO, and other styles
41

Ahmed-Nacer, Mohamed. "Un modèle de gestion et d'évolution de schéma pour les bases de données de génie logiciel." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0067.

Full text
Abstract:
"la 4e de couverture indique : Dans cette thèse, nous nous intéressons à l'évolution des schémas pour les bases de données de génie logiciel<br>Nous faisons d'abord le point des travaux concernant l'évolution de schémas et l’évolution des modèles de procédés logiciels ; nous définissons des critères d'évolution et nous montrons que les principales approches ne satisfont pas les besoins en génie logiciel<br>Nous présentons ensuite notre modèle : celui-ci permet l'existence simultanée de plusieurs points de vues de la base d'objets, la composition de schémas et enfin, l'expression de politiques différentes d'évolution de ces schémas ; chaque application pouvant définir la politique d’évolution souhaitée&lt;<br>La gestion des points de vue se fonde sur le versionnement de la métabase. Le maintien de la cohérence de la base d'objets et du système global de gestion et d'évolution de schémas est assuré par l'expression de contraintes au niveau de cette métabase. La composition des schémas utilise une technique de configurations de logiciels appliqués aux types et la définition de politique d’évolution utilise les capacités de la base active du système Adèle"
APA, Harvard, Vancouver, ISO, and other styles
42

Casallas-Gutiérrez, Rubby. "Objets historiques et annotations pour les environnements logiciels." Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004982.

Full text
Abstract:
Dans un environnement guidé par les procédés de fabrication de logiciel (EGPFL), la gestion de l'information est un problème complexe qui doit concilier deux besoins: gérer le produit logiciel et gérer les procédés de fabrication. Outre la grande quantité d'entités diverses et fortement interdépendantes, la gestion du produit doit prendre en compte l'aspect évolutif et les facteurs de variation du logiciel, ainsi que la nature coopérative des activités de fabrication des logiciels. La gestion des procédés recouvre la modélisation, l'exécution, l'évaluation et la supervision des procédés. Diverses informations doivent alors être prises en compte: la trace d'exécution des procédés, les événements survenus dans l'environnement et les mesures de qualité. Nous proposons les objets historiques annotés pour gérer l'information d'un EGPFL. L'objet historique constitue la notion de base d'un modèle à objets historique permettant de représenter à la fois les entités logicielles et leur évolution. La notion d'annotation vient, quant à elle, enrichir ce modèle pour permettre d'introduire des informations qui dénotent des faits (notes, mesures, observations, etc) pouvant être ponctuellement associés aux entités de l'EGPFL. Un langage de requêtes est défini afin d'accéder aux différentes informations. Grâce à ce langage, l'EGPFL dispose d'un service puissant pour rassembler, à partir de la base d'objets, les diverses informations nécessaires à l'évaluation et au contrôle des procédés de fabrication. Nous proposons également d'exploiter les possibilités offertes par notre modèle pour définir des événements et, éventuellement, en conserver un historique. Les événements permettent d'identifier des situations liant des informations provenant aussi bien de l'état courant que des états passés de l'EGPFL. C'est pourquoi la définition d'un événement peut comporter des conditions exprimées dans le langage de requêtes. L'emploi d'annotations permet d'enregistrer les occurences d'événements, ainsi qu'une partie de l'état du système. Une implantation du modèle est proposée dans le système Adèle
APA, Harvard, Vancouver, ISO, and other styles
43

Delestre, Nicolas. "Metadyne, un hypermédia adaptatif pour l'enseignement." Rouen, 2000. http://www.theses.fr/2000ROUES006.

Full text
Abstract:
L'enseignement assisté par ordinateur (EAO) est depuis plus de vingt ans un domaine de recherche pluridisciplinaire des plus actifs. La problématique principale de ces recherches a été la production de systèmes d'enseignement axés sur la transmission du savoir-faire : systèmes de plus en plus intelligents avec de fortes capacités pédagogiques. Mais ces recherches se sont totalement désintéressées de la problématique liée a une bonne transmission du savoir. Or, l'apparition des nouvelles technologies de l'information et de la communication a révolutionné cette façon de penser, car elles sont propices à la diffusion du savoir à grande échelle. Des systèmes de construction de cours hypermédia ont donc été développés, dont la plupart étaient, et sont, basés sur le concept de réutilisation d'items didactiques. Cependant, ces derniers incitent l'enseignant à ne suivre aucune méthodologie pour construire leurs cours (on leurs propose seulement d'agencer les items didactiques), et les cours ainsi créés ne profitent pas des avancées issues des recherches dans les domaines de l'EAO et des hypermédias adaptatifs. Ceci définit donc notre problématique de recherche : définir et prototyper un système qui permette à des enseignants de construire des cours hypermédia qui pourront par la suite s'adapter aux caractéristiques et volontés de chaque apprenant. A travers une démarche mixte, modélisation des connaissances et modélisation objet, nous avons déterminé un modèle conceptuel, c'est-à-dire l'ensemble des connaissances qui sont du ressort des enseignants, des apprenants ainsi que celles qui sont intrinsèques aux items didactiques. Ceci nous a permis de définir un modèle objet, qui finalement a donné naissance à un prototype basé sur une architecture client(s)-serveur, composé d'une base de données objets, d'un serveur d'objets distribués et enfin d'un serveur web.
APA, Harvard, Vancouver, ISO, and other styles
44

Boittiaux-Zidani, Jacqueline. "Décompositions d'une relation." Habilitation à diriger des recherches, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00320987.

Full text
Abstract:
Etude de l'algèbre des relations en vue d'applications aux bases de données. Choix d'une formalisation générale; opérations de projection, recopie-projection, produit. Etude d'une décomposition simple et d'une décomposition généralisée
APA, Harvard, Vancouver, ISO, and other styles
45

Asli, Abderrazak. "Système ambulatoire de suivi de paramètres climatiques pour l'agronomie." Rouen, 1997. http://www.theses.fr/1997ROUES041.

Full text
Abstract:
L'objectif de ce mémoire était une contribution à la conception et à la réalisation d'une station ambulatoire à vocation strictement agricole répondant aux exigences du cahier de charges défini par les experts agronomes. Cette station a pour but de doter l'exploitant agricole moderne d'une aide climatologique de précision et ceci en temps réel avec un cout relativement dérisoire. Le mémoire présente l'architecture de cet instrument compose d'un ensemble de capteurs et d'une électronique organisée autour d'un microcontrôleur et d'un composant FPGA. Un chapitre est consacré à l'organisation logicielle et le mémoire se termine par la présentation des résultats d'une validation sur site d'une année. En conclusion nous envisagerons l'évolution ultérieure de ce dispositif et son extension au domaine du suivi de la pollution atmosphérique.
APA, Harvard, Vancouver, ISO, and other styles
46

Capponi, Cécile. "Identification et Exploitation des Types dans un modèle de connaissances à objets." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00345845.

Full text
Abstract:
Les modèles de connaissances à objets (MCO) souffrent d'une surcharge dans l'utilisation de leur langage de représentation associé. Si ce langage a pour objectif d'être adapté à la représentation informatique d'un domaine d'application, nous montrons qu'il n'est pas pertinent de l'utiliser pour définir des structures de données, certes utiles pour la représentation du domaine, mais dépourvues de signification directe dans ce domaine (ex. une matrice dans le domaine de l'astronomie). Cette thèse propose un système de types à deux niveaux, appelé METÈO. Le premier niveau de METÈO est un langage pour l'implémentation de types abstraits de données (ADT) qui sont nécessaires à la description minimale des éléments pertinents du domaine d'application. Ainsi, METÈO libère le langage de représentation d'une tâche à laquelle il n'a pas à s'adapter. Le second niveau de METÈO traite de l'affinement des ADT opéré dans la description des objets de représentation. Nous rappelons les deux interprétations des objets de représentation: l'intension d'un objet est une tentative de description de ce que cet objet dénote dans le domaine d'application: son extension. L'équivalence généralement admise entre ces deux aspects de l'objet est une illusion, et contribue de plus à annihiler une des véritables finalités d'un modèle de connaissances: aider une caractérisation des plus précises d'un domaine d'application. Ainsi, les types du second niveau de METÈO s'attachent à la représentation et la manipulation des intensions des objets, indépendamment de leurs extensions. L'interprétation en extension des objets est effectuée par l'utilisateur, METÈO gère en interne les descriptions de ces objets alors dénuées de leur signification, et le MCO peut alors se concentrer sur la coopération entre ces deux aspects des objets, considérés non-équivalents dans cette étude. METÈO contribue ainsi à clarifier le rôle de chaque partenaire impliqué dans la construction et l'exploitation d'une base de connaissances. Plus généralement, METÈO jette un pont entre les spécificités des MCO et les techniques usuelles de programmation de structures de données manipulables. Un prototype de METÈO a été développé pour un couplage avec le MCO TROPES
APA, Harvard, Vancouver, ISO, and other styles
47

Baveye, Yoann. "Automatic prediction of emotions induced by movies." Thesis, Ecully, Ecole centrale de Lyon, 2015. http://www.theses.fr/2015ECDL0035/document.

Full text
Abstract:
Jamais les films n’ont été aussi facilement accessibles aux spectateurs qui peuvent profiter de leur potentiel presque sans limite à susciter des émotions. Savoir à l’avance les émotions qu’un film est susceptible d’induire à ses spectateurs pourrait donc aider à améliorer la précision des systèmes de distribution de contenus, d’indexation ou même de synthèse des vidéos. Cependant, le transfert de cette expertise aux ordinateurs est une tâche complexe, en partie due à la nature subjective des émotions. Cette thèse est donc dédiée à la détection automatique des émotions induites par les films, basée sur les propriétés intrinsèques du signal audiovisuel. Pour s’atteler à cette tâche, une base de données de vidéos annotées selon les émotions induites aux spectateurs est nécessaire. Cependant, les bases de données existantes ne sont pas publiques à cause de problèmes de droit d’auteur ou sont de taille restreinte. Pour répondre à ce besoin spécifique, cette thèse présente le développement de la base de données LIRIS-ACCEDE. Cette base a trois avantages principaux: (1) elle utilise des films sous licence Creative Commons et peut donc être partagée sans enfreindre le droit d’auteur, (2) elle est composée de 9800 extraits vidéos de bonne qualité qui proviennent de 160 films et courts métrages, et (3) les 9800 extraits ont été classés selon les axes de “valence” et “arousal” induits grâce un protocole de comparaisons par paires mis en place sur un site de crowdsourcing. L’accord inter-annotateurs élevé reflète la cohérence des annotations malgré la forte différence culturelle parmi les annotateurs. Trois autres expériences sont également présentées dans cette thèse. Premièrement, des scores émotionnels ont été collectés pour un sous-ensemble de vidéos de la base LIRIS-ACCEDE dans le but de faire une validation croisée des classements obtenus via crowdsourcing. Les scores émotionnels ont aussi rendu possible l’apprentissage d’un processus gaussien par régression, modélisant le bruit lié aux annotations, afin de convertir tous les rangs liés aux vidéos de la base LIRIS-ACCEDE en scores émotionnels définis dans l’espace 2D valence-arousal. Deuxièmement, des annotations continues pour 30 films ont été collectées dans le but de créer des modèles algorithmiques temporellement fiables. Enfin, une dernière expérience a été réalisée dans le but de mesurer de façon continue des données physiologiques sur des participants regardant les 30 films utilisés lors de l’expérience précédente. La corrélation entre les annotations physiologiques et les scores continus renforce la validité des résultats de ces expériences. Equipée d’une base de données, cette thèse présente un modèle algorithmique afin d’estimer les émotions induites par les films. Le système utilise à son avantage les récentes avancées dans le domaine de l’apprentissage profond et prend en compte la relation entre des scènes consécutives. Le système est composé de deux réseaux de neurones convolutionnels ajustés. L’un est dédié à la modalité visuelle et utilise en entrée des versions recadrées des principales frames des segments vidéos, alors que l’autre est dédié à la modalité audio grâce à l’utilisation de spectrogrammes audio. Les activations de la dernière couche entièrement connectée de chaque réseau sont concaténées pour nourrir un réseau de neurones récurrent utilisant des neurones spécifiques appelés “Long-Short-Term- Memory” qui permettent l’apprentissage des dépendances temporelles entre des segments vidéo successifs. La performance obtenue par le modèle est comparée à celle d’un modèle basique similaire à l’état de l’art et montre des résultats très prometteurs mais qui reflètent la complexité de telles tâches. En effet, la prédiction automatique des émotions induites par les films est donc toujours une tâche très difficile qui est loin d’être complètement résolue<br>Never before have movies been as easily accessible to viewers, who can enjoy anywhere the almost unlimited potential of movies for inducing emotions. Thus, knowing in advance the emotions that a movie is likely to elicit to its viewers could help to improve the accuracy of content delivery, video indexing or even summarization. However, transferring this expertise to computers is a complex task due in part to the subjective nature of emotions. The present thesis work is dedicated to the automatic prediction of emotions induced by movies based on the intrinsic properties of the audiovisual signal. To computationally deal with this problem, a video dataset annotated along the emotions induced to viewers is needed. However, existing datasets are not public due to copyright issues or are of a very limited size and content diversity. To answer to this specific need, this thesis addresses the development of the LIRIS-ACCEDE dataset. The advantages of this dataset are threefold: (1) it is based on movies under Creative Commons licenses and thus can be shared without infringing copyright, (2) it is composed of 9,800 good quality video excerpts with a large content diversity extracted from 160 feature films and short films, and (3) the 9,800 excerpts have been ranked through a pair-wise video comparison protocol along the induced valence and arousal axes using crowdsourcing. The high inter-annotator agreement reflects that annotations are fully consistent, despite the large diversity of raters’ cultural backgrounds. Three other experiments are also introduced in this thesis. First, affective ratings were collected for a subset of the LIRIS-ACCEDE dataset in order to cross-validate the crowdsourced annotations. The affective ratings made also possible the learning of Gaussian Processes for Regression, modeling the noisiness from measurements, to map the whole ranked LIRIS-ACCEDE dataset into the 2D valence-arousal affective space. Second, continuous ratings for 30 movies were collected in order develop temporally relevant computational models. Finally, a last experiment was performed in order to collect continuous physiological measurements for the 30 movies used in the second experiment. The correlation between both modalities strengthens the validity of the results of the experiments. Armed with a dataset, this thesis presents a computational model to infer the emotions induced by movies. The framework builds on the recent advances in deep learning and takes into account the relationship between consecutive scenes. It is composed of two fine-tuned Convolutional Neural Networks. One is dedicated to the visual modality and uses as input crops of key frames extracted from video segments, while the second one is dedicated to the audio modality through the use of audio spectrograms. The activations of the last fully connected layer of both networks are conv catenated to feed a Long Short-Term Memory Recurrent Neural Network to learn the dependencies between the consecutive video segments. The performance obtained by the model is compared to the performance of a baseline similar to previous work and shows very promising results but reflects the complexity of such tasks. Indeed, the automatic prediction of emotions induced by movies is still a very challenging task which is far from being solved
APA, Harvard, Vancouver, ISO, and other styles
48

Couffin, Florent. "Modèle de données de référence et processus de spécialisation pour l'intégration des activités de conception en génie automatique." Cachan, Ecole normale supérieure, 1997. http://www.theses.fr/1997DENS0005.

Full text
Abstract:
La conception des systèmes automatisés de production, systèmes artificiels complexes, nécessite la coopération de nombreuses activités. Chacune de ces activités est en général réalisée par un acteur - concepteur. Pour améliorer la coopération entre ces acteurs - concepteurs, il est nécessaire qu'ils puissent communiquer. Le principe choisi pour réaliser cette communication est base sur l'intégration par les données. Cette intégration repose sur un modèle de données commun, appelé modèle particulier, représentant l'univers du discours particulier des acteurs - concepteurs impliques dans la communication. Ce modèle a pour objet d'offrir aux acteurs - concepteurs un référentiel commun leur permettant d'avoir une interprétation unique des données échangées ou partagées. Afin de représenter ces modèles, nous définissons un outil de modélisation adapte a la description des données manipulées en génie automatique. Nous proposons un outil de modélisation, base sur le modèle entité - relation. Deux extensions sont introduites, l'une permet de décrire des identifications relatives d'objets et l'autre des contraintes d'existence entre objets. Pour faciliter la conception des modèles particuliers, nous proposons une méthode de réutilisation de modèles génériques appelés modèles de référence. Cette méthode est constituée d'une suite d'étapes permettant de spécialiser un modèle de référence pour obtenir un modèle particulier. Pour chacune des étapes de la méthode, nous définissons des opérations de spécialisation et des règles de validation basées sur une algèbre entité - relation. Enfin, nous définissons un modèle de référence pour le génie automatique basée sur l'extension du modèle de référence normalise base-PTA. Ce modèle de référence est construit par intégration des méta-modèles des outils de modélisation du génie automatique au modèle base-PTA
APA, Harvard, Vancouver, ISO, and other styles
49

Valceschini-Deza, Nathalie. "Accès sémantique aux bases de données textuelles." Nancy 2, 1999. http://www.theses.fr/1999NAN21021.

Full text
Abstract:
Les besoins justifiant cette recherche sont ceux de l'analyse du contenu textuel, les banques de données textuelles étant de plus en plus nombreuses et volumineuses. Ce travail est une contribution au problème de l'accès sémantique aux bases de données électroniques. Les données à notre disposition sont une base de données à dominante sciences humaines comportant environ 3000 oeuvres : FRANTEXT. Pour utiliser cette base et les bases de données littéraires en général nous proposons un outil basé sur le test statistique de l'écart réduit. Ce type de méthode prend en entrée un mot (ou une expression, un chapitre, un roman) et fournit comme une liste de mots-résultats qui sont corrélés statistiquement au premier mot (ou mot-pôle). La sémantique différentielle sert d'appui théorique à ce travail. Ce choix est motivé par les raisons suivantes : - elle pose comme postulat que les structures textuelles varient en fonction des genres ; - elle propose des unités de sens au palier inférieur au mot : les sèmes. Ces sèmes permettent d'expliquer la cohérence textuelle et de lier les différents niveaux : de l'en-deça du mot au texte : - elle interprète les unités en contexte. Cela permet d'expliquer les variations de sens d'un mot. De par sa nature, elle est compatible avec le test de l'écart réduit. A l'aide de ces trois composantes (données, outil et théorie sémantique), nous avons défini des méthodologies d'interrogation des bases de données littéraires. Nous nous sommes surtout intéressé à la thématique des textes. Mais l'étude de phénomènes connexes a été abordée, par exemple la stéréotypie. L'utilisation des statistiques a été illustrée et accompagnée de méthodologies constituant des aides à l'interprétation. D'autres procédés et méthodologies ont été proposées en amont et en aval des tests statistiques notamment l'utilisation de patrons morpho-syntaxiques pour obtenir des sous-corpus cohérents d'un point de vue sémantique et aptes à subir un traitement statistique. Les applications de ce type de recherches sont les suivantes : - l'étude des oeuvres par le biais de vérifications d'hypothèses et d'intuitions ; - le développement de stratégies d'interrogations fiables, testables par des élèves dans un cadre d'enseignement ; - l'étude des comportements socio-culturels dans les différents genres textuels ; - la recherche d'informations sur les régularités et les différences des textes en vue de la réalisation d'une typologie des genres textuels.
APA, Harvard, Vancouver, ISO, and other styles
50

Gilard-Pioc, Séverine. "Proposition d'une méthode d'exploitation d'une base de donnée nationale, le PMSI, pour estimer la fréquence des enfants maltraités en France, âgés de 0 à 5 ans, leur taux de létalité hospitalière et les caractéristiques de leurs séjours hospitaliers." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCI017/document.

Full text
Abstract:
Les situations de maltraitances à enfants sont nombreuses et les conséquences peuvent être dramatiques. Le nombre d’enfants maltraités en France est très probablement sous-estimé par le sous-repérage de ces enfants et le manque de données épidémiologiques. Nous proposons une méthode innovante de repérage rétrospectif des situations de maltraitances physiques à enfants et de leurs conséquences, en termes de mortalité, retentissement somatique ou psychiatrique et consommation de soins, à partir de grandes bases de données nationales existantes : le Programme de Médicalisation des Systèmes d’Information (PMSI) et le Système Nationale d’Information Inter-Régimes de l’Assurance Maladie (SNIIRAM). Les données de la base nationale du PMSI permettront de fournir un ordre de grandeur de la fréquence des maltraitances physiques faites aux enfants au niveau national et régional. Pour approcher cette valeur, nous souhaitons l’encadrer par une borne supérieure et une borne inférieure. Nous avons pensé que la borne inférieure pourrait correspondre aux cas de maltraitances physiques codées comme telles dans le PMSI, dont nous savons qu’ils sont sous-déclarés. La borne supérieure correspondrait à la somme de ces cas et de tous ceux susceptibles de l’être. Les cas susceptibles de représenter des situations de maltraitance à enfant (ou cas potentiels) ont été identifiés par le repérage de caractéristiques particulières des lésions traumatiques et de l’âge de l’enfant sur son ou ses séjours hospitaliers. Le Système National d'Information Inter-Régimes de l'Assurance maladie (SNIIRAM) rassemble des données individuelles des bénéficiaires, depuis 2004. Ces données sont l’âge, le sexe, la commune de résidence, l’existence d’une affection de longue durée (ALD), le bénéfice de la couverture universelle complémentaire (CMU-C), le statut vital et la consommation de soin en ville. L’analyse du SNIIRAM permettra ainsi de retracer le parcours des patients selon la pathologie présentée. Dans le cas des enfants repérés comme étant maltraités, il semble intéressant de pouvoir décrire les pathologies somatique et psychiatrique associées et de les comparer aux pathologies présentées par les enfants non repérés comme étant maltraités. Ce retentissement pourra être décrit via les codes ALD (concernant les affections de longues durées), mais également via les données de consommation de médicaments et d’autres prestations<br>Importance: Childhood abuse is a global public health issue yet there is a serious lack of reliable epidemiological data and the figures reported are very often underestimated. A large part of these children are not diagnosed. Moreover, diagnosed children are not recorded in a single database.Objective: The aim of this study is to provide two estimations of the frequency of child physical abuse requiring hospitalization (hospital prevalence) and the corresponding in-hospital fatality. Design, setting and participants: This was a national retrospective study using a national hospital database (PMSI).We included all children aged less than 2 years old hospitalized at least once in France from 2007 to 2014. Infants less than 1 month old were excluded in order to exclude all pathologies and neonatal complications.Three groups were defined: group1 - physically abused children (identified by the ICD 10 codes used in the PMSI concerning physical abuse); group2 - possible physically abused children (suspicious physical injuries associated with child maltreatment); and group3 - all other hospitalized children (the control group).Main outcomes and measurements: First, based on the number of children aged 0 to 2 years in France in 2010, we provide two estimations of the frequency of child physical abuse requiring hospitalization (hospital prevalence): a lower bound represented by the children of group 1 and an upper bound represented by the children of group 1+2.Secondly, we studied the follow-up of these children from their inclusion to 2014, thanks to the linkage of the differents hospital stays; with regard to the number of hospitalizations, their length of stay, their reasons and in-hospital fatality.Results: In our study, 2,628,386 children were included: 4,172 in group1, 12,024 in group2 and 2,612,190 in group3. The national annual hospital prevalence of child physical abuse (and hospital fatality) in children aged 0 to 2 years ranged from 1.6‰ (2.52%) to 5.7‰ (2.01%). Most hospital deaths occurred during the first hospital stay (between 99% and 99.6%) and are 10 times higher than in the control group. The length of stay of abused children is up to 5 times longer than for other children. Conclusions and relevance: To our knowledge, this is the first study to provide an estimation of the frequency of child physical abuse requiring hospitalization and the corresponding in-hospital fatality. Three out of four children may not be identified as being maltreated and are at risk of recurrent abuses. More effective prevention should be implemented by health professionals in order to identify those children
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!