Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Formalisation de la connaissance.

Thèses sur le sujet « Formalisation de la connaissance »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Formalisation de la connaissance ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Chabot, Robert. « La nécessité d'une analyse sociologique des situations de travail préalablement au recueil des connaissances et à leur formalisation dans la base de connaissance d'un système expert ». Aix-Marseille 1, 1994. http://www.theses.fr/1994AIX10008.

Texte intégral
Résumé :
Lorsqu'une entreprise veut développer un système expert, des problèmes méthodologiques se posent : ils concernent l'explicitation des connaissances, en amont de leur formalisation. A ces difficultés d'acquisition des connaissances, s'ajoute le problème de l'insertion organisationnelle des systèmes experts. Quelles sont les conséquences sur l'organisation du travail, sur le contenu des taches ? En fait, l'expertise recherchée en intelligence artificielle correspond à ce que nous appelons le savoir, c'est à dire le produit de l'interaction entre un acteur, des dispositifs techniques et son environnement. Alors que la connaissance, en tant qu'information, est la condition de développement de ce savoir. Dans le cadre d'une recherche en collaboration avec une entreprise développant un systeme expert, nous avons tente de montrer en quoi la sociologie, de par sa pratique concernant l'analyse des situations de travail et des pratiques techniques, était en mesure de fournir des outils d'inventaire, de localisation et de description des savoirs, utiles au cogniticien
When a company wants to develop an expert system, several problems of methodology occur concerning the clarification of knowledge prior to its formalization. To these knowledge-acquisition difficulties is added the problem of the expert system's organizational integration. What are the consequences on work organisation and on the contents of the tasks ? As a metter of fact, in artificial intelligence, the expertise corresponds to what we call "knows", i. E. The product of an interaction between the actor, the technical plan of action and his environment, whereas knowledge as information is the condition of "knows" development. Within the context of research in collaboration with a company developping an expert system, we tried to show in what way sociology, through its methods concerning analysing work situations and technnical practices, was fully capable of providing the knowledge-engineer with useful tools for assessment, localization and description of knows
Styles APA, Harvard, Vancouver, ISO, etc.
2

Grosz, Georges. « Formalisation des connaissances reutilisables pour la conception des systemes d'information ». Paris 6, 1991. http://www.theses.fr/1991PA066510.

Texte intégral
Résumé :
La these explore une nouvelle voie pour la conception des systemes d'information (si) fondee sur la reutilisation. L'etude porte sur l'etape la plus en amont du cycle de conception d'un si. Le resultat de cette etape est le schema conceptuel, exprime par une collection de specifications de classes d'objets. La reutilisation proposee est celle de structures generiques de modelisation. La genericite des structures tient au fait que de nombreux phenomenes de la realite, en apparence differents, sont modelises de maniere similaire par des classes d'objets. Ce type de reutilisation se differencie de la reutilisation directe de specifications puisqu'il s'agit de reutiliser le processus d'elaboration des specifications et non les specifications elles-memes. Le processus de conception, fonde sur l'existence d'une bibliotheque de telles structures, consiste a reconnaitre et a appliquer la structure generique pour trouver la representation conceptuelle adequate. L'utilisation de ces structures permet d'accelerer de maniere significative la construction d'un schema conceptuel puisqu'elle evite au concepteur de refaire l'effort de modelisation. La these presente une collection de structures generiques classees en deux categories: les structures liees au domaine (pour la modelisation de classes de phenomenes reels facilement identifiables) et les structures dependantes du modele conceptuel (pour prendre en compte les particularites du modele conceptuel choisi). La formalisation des structures generiques a necessite la definition d'un modele de processus. Base sur la structure de triplet , ce modele permet de decrire la conception de si a un niveau microscopique de detail. On montre par ailleurs comment une technique d'apprentissage par l'exemple peut aider a la decouverte de structures generiques ou, pour le moins, a construire un ensemble coherent de structures generiques. Enfin, le processus de conception preconise est illustre sur un exemple de gestion de prets de livres dans une bibliotheque
Styles APA, Harvard, Vancouver, ISO, etc.
3

Arioua, Abdallah. « Formalisation et étude des explications dialectiques dans les bases de connaissances incohérentes ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT261/document.

Texte intégral
Résumé :
Les bases de connaissances sont des bases de données déductives où la logique est utilisée pour représenter des connaissances de domaine sur des données existantes. Dans le cadre des règles existentielles, une base de connaissances est composée de deux couches : la couche de données qui représentent les connaissances factuelle et la couche ontologique qui incorpore des règles de déduction et des contraintes négatives. L’interrogation de données à l’aide des ontologies est la fonction de raisonnement principale dans ce contexte. Comme dans la logique classique, les contradictions posent un problème à l’interrogation car « d'une contradiction, on peut déduire ce qu'on veut (ex falso quodlibet) ».Récemment, des approches d’interrogation tolérantes aux incohérences ont été proposées pour faire face à ce problème dans le cadre des règles existentielles. Elles déploient des stratégies dites de réparation pour restaurer la cohérence. Cependant, ces approches sont parfois inintelligibles et peu intuitives pour l'utilisateur car elles mettent souvent en œuvre des stratégies de réparation complexes. Ce manque de compréhension peut réduire l’utilisabilité de ces approches car elles réduisent la confiance entre l'utilisateur et les systèmes qui les utilisent. Par conséquent, la problématique de recherche que nous considérons est comment rendre intelligible à l’utilisateur l’interrogation tolérantes aux incohérences. Pour répondre à cette question de recherche, nous proposons d’utiliser deux formes d’explication pour faciliter la compréhension des réponses retournées par une interrogation tolérante aux incohérences. La première est dite de niveau méta et la seconde de niveau objet. Ces deux types d’explication prennent la forme d'un dialogue entre l'utilisateur et le raisonneur au sujet des déductions retournées comme réponses à une requête donnée. Nous étudions ces explications dans le double cadre de l'argumentation fondée sur la logique et de la dialectique formelle, comme nous étudions leurs propriétés et leurs impacts sur les utilisateurs en termes de compréhension des résultats
Knowledge bases are deductive databases where the machinery of logic is used to represent domain-specific and general-purpose knowledge over existing data. In the existential rules framework a knowledge base is composed of two layers: the data layer which represents the factual knowledge, and the ontological layer that incorporates rules of deduction and negative constraints. The main reasoning service in such framework is answering queries over the data layer by means of the ontological layer. As in classical logic, contradictions trivialize query answering since everything follows from a contradiction (ex falso quodlibet). Recently, inconsistency-tolerant approaches have been proposed to cope with such problem in the existential rules framework. They deploy repairing strategies on the knowledge base to restore consistency and overcome the problem of trivialization. However, these approaches are sometimes unintelligible and not straightforward for the end-user as they implement complex repairing strategies. This would jeopardize the trust relation between the user and the knowledge-based system. In this thesis we answer the research question: ``How do we make query answering intelligible to the end-user in presence of inconsistency?''. The answer that the thesis is built around is ``We use explanations to facilitate the understanding of query answering''. We propose meta-level and object-level dialectical explanations that take the form of a dialogue between the user and the reasoner about the entailment of a given query. We study these explanations in the framework of logic-based argumentation and dialectics and we study their properties and their impact on users
Styles APA, Harvard, Vancouver, ISO, etc.
4

Schneider, Jean-Jacques. « Un système d'apprentissage numérique et symbolique pour la formalisation de connaissances prosodiques ». Avignon, 1995. http://www.theses.fr/1995AVIG0113.

Texte intégral
Résumé :
Le sujet de cette these est l'etude et la realisation d'un systeme d'apprentissage manipulant des informations numeriques et symboliques pour la formalisation de connaissances prosodiques sous la forme de regles explicites. Les modeles prosodiques employes sont bases sur deux principes fondamentaux (1) le continuum melodique rythmique et d'intensite peut etre segmente en unites discretes (2) il existe une tres forte congruence entre l'organisation de l'enonce et la structuration prosodique du message. Dans le chapitre 1, nous presentons un ensemble de stylisation des parametres prosodiques et des parametres de l'organisation de l'enonce. Nous definissons dans le chapitre 2 un langage de representation des exemples base sur une description elementaire de la forme attribut/valeur. Dans le chapitre 3 nous proposons un environnement base sur des techniques de classification automatique des donnees permettant de degager les structures sous-jacentes d'un sous-ensemble d'exemples. Nous employons pour cela la classification hierarchique ascendante et une version simplifiee de la methode des nuees dynamiques. Afin d'obtenir une base de regles caracterisant les connaissances prosodiques nous utilisons dans le chapitre 4 des techniques d'apprentissage symbolique automatique. Nous employons pour cela les arbres de decision avec une version de l'algorithme id3 et la structure de treillis de galois. Dans le chapitre 5 nous proposons un corpus de travail puis un etiquetage prosodique des enonces approprie. Nous presentons dans le chapitre 6 une utilisation des outils realises afin de produire une base de regles a partir du corpus precedent
Styles APA, Harvard, Vancouver, ISO, etc.
5

Derras, Cédric. « Formalisation de l'imprécision informationnelle et des incertitudes décisionnelles des connaissances expertes pour la génération de processus de fabrication ». Nancy 1, 1998. http://www.theses.fr/1998NAN10284.

Texte intégral
Résumé :
Un des problèmes rencontrés par le producticien, lors de la modélisation des connaissances pour la génération du processus de fabrication dans un contexte de conception intégrée, réside dans le fait que certaines de ces connaissances sont imprécisément verbalisées par les experts. Il résulte de cette imprécision informationnelle des connaissances une incertitude associée aux différentes alternatives décisionnelles durant le processus de raisonnement expert. Les outils de formalisation actuels de ces connaissances ne permettent pas de modéliser les différentes imperfections qui y sont naturellement attachées. Ainsi, les décisions prises par les systèmes implémentant ces techniques sont restrictives en comparaison de celles prises par les experts. C'est pourquoi nos travaux de recherche visent à formaliser la sémantique (imprécision des connaissances, incertitude des décisions) des savoir-faire verbalisés par les experts, lors du processus de raisonnement pour la génération de gammes de fabrication. Face à cette problématique, nous proposons de modéliser les savoir-faire définissant le contexte de l'activité de génération de gammes d'usinage, en utilisant un modèle de raisonnement en logique floue, basé sur l'utilisation de règles conjonctives. A partir d'un problème donné, ce modèle permet de produire les différentes alternatives de décision possibles, en terme de gammes d'usinage, et de leur associer un degré de possibilité. Dans l'objectif de construire différentes solutions de processus de fabrication possibles, relativement à un même problème, nous utilisons un modèle de logique temporelle et l'étendons afin qu'il puisse supporter et manipuler les résultats produits par le modèle de raisonnement flou. L'implémentation de la méthode proposée, sur une plate-forme génératrice de systèmes à base de connaissances, constitue ainsi un prototype original d'assistance à la génération de processus de fabrication.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Iphar, Clément. « Formalisation d'un environnement d'analyse des données basé sur la détection d'anomalies pour l'évaluation de risques : Application à la connaissance de la situation maritime ». Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM041/document.

Texte intégral
Résumé :
Il existe différents systèmes de localisation de navires en mer qui favorisent une aide à la navigation et une sécurisation du trafic maritime. Ces systèmes sont également utilisés en tant qu’outils de surveillance et d’aide à la décision par les centres de surveillance basés à terre. Le Système d’Identification Automatique (AIS) déployé par l’Organisation Maritime Internationale, bien qu’étant le système de localisation de navires le plus utilisé de nos jours, est faiblement sécurisé. Cette vulnérabilité est illustrée par des cas réels et détectés tels que des usurpations d’identité ou des disparitions volontaires de navires qui sont sources de risques pour les navires, les infrastructures offshores et côtières et l’environnement.Nous proposons dans cette thèse une démarche méthodologique d’analyse et d’évaluation des messages AIS fondée sur les dimensions de la qualité de la donnée, dont l’intégrité considérée comme la plus importante de ces dimensions. Du fait de la structure complexe de l’AIS, une liste d'indicateurs a été établie, afin d’évaluer l'intégrité de la donnée, sa conformité avec les spécifications techniques du système et la cohérence des champs des messages entre eux et au sein d’un seul ou plusieurs messages. Notre démarche repose également sur l’usage d’informations additionnelles telles que des données géographiques ou des registres de navires afin d’évaluer la véracité et l’authenticité d’un message AIS et de son expéditeur.Enfin, une évaluation des risques associés est proposée, permettant une meilleurecompréhension de la situation maritime ainsi que l’établissement de liens de causalité entre les vulnérabilités du système et les risques relevant de la sécurité et sûreté de la navigation maritime
At sea, various systems enable vessels to be aware of their environment and on the coast, those systems, such as radar, provide a picture of the maritime traffic to the coastal states. One of those systems, the Automatic Identification System (AIS) is used for security purposes (anti-collision) and as a tool for on-shore bodies as a control and surveillance and decision-support tool.An assessment of AIS based on data quality dimensions is proposed, in which integrity is highlighted as the most important of data quality dimensions. As the structure of AIS data is complex, a list of integrity items have been established, their purpose being to assess the consistency of the data within the data fields with the technical specifications of the system and the consistency of the data fields within themselves in a message and between the different messages. In addition, the use of additional data (such as fleet registers) provides additional information to assess the truthfulness and the genuineness of an AIS message and its sender.The system is weekly secured and bad quality data have been demonstrated, such as errors in the messages, data falsification or data spoofing, exemplified in concrete cases such as identity theft or vessel voluntary disappearances. In addition to message assessment, a set of threats have been identified, and an assessment of the associated risks is proposed, allowing a better comprehension of the maritime situation and the establishment of links between the vulnerabilities caused by the weaknesses of the system and the maritime risks related to the safety and security of maritime navigation
Styles APA, Harvard, Vancouver, ISO, etc.
7

Paskevych, Andriy Verchinine Konstantin. « Méthodes de formalisation des connaissances et des raisonnements mathématiques aspects appliqués et théoriques / ». [S.l.] : [s.n.], 2008. http://doxa.scd.univ-paris12.fr:80/theses/th0405882.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Paskevych, Andriy. « Méthodes de formalisation des connaissances et des raisonnements mathématiques : aspects appliqués et théoriques ». Paris 12, 2007. http://www.theses.fr/2007PA120071.

Texte intégral
Résumé :
Nous étudions les moyens de présentation des connaissances et des schémas du raisonnement mathématiques. Notre recherche est destinée à un système de vérification de textes mathématiques formalisés. Dans ce système, la texte à vérifier est écrit dans un langage formel proche de la langue naturelle et le style des publications mathématiques. Notre intention est d'exploiter les indices que la forme "humaine" du problème nous donne : les définitions, les schémas de preuve, les substantifs qui désignent des classes d'objets. Un tel langage, appelé ForTheL, est décrit. La vérification consiste en la démonstration que le texte est "sens" et "fondé", c'est-à-dire que les fonctions et les relations sont employées dans leurs domaines, conformément aux définitions, et les assertions se déduisent des prémisses. La définition formelle d'un texte correct repose sur un calcul séquentiel cohérent ainsi que sur la notion de validité locale (par rapport à une occurrence à l'intérieur d'un formule). La recherche de preuve est effectuée à deux niveaux. Le niveau bas est un démonstrateur automatique basé sur une procédure combinatoire. Nous introduisons une variante des tableaux de connexions cohérente et complète en logique du premier ordre avec égalité. Le niveau haut est un "raisonneur" qui emploie des techniques naturelles de démonstration pour filtrer, simplifier, décomposer une tâche de preuve avant de la passer au démonstrateur. Les algorithmes du raisonneur se basent sur les transformations qui préservent les propositions localement valides. Les méthodes proposées sont implantées dans l'assistant de preuve SAD
We study the means of presentation of mathematical knowledge and reasoning schemes. Our research aims at an automated system for verification of formalized mathematical texts. In this system, a text to verify is written in a formal language which is close to the natural language and style of mathematical publications. Our intention is to exploit the hint which are given to us by the "human" form of the problem : definitions, proof scemes, nouns denoting classes of objects, etc. We describe such a language, called ForTheL. Verification consists in showing that the text is "sensible" and "grounded", that functions and relations are applied within the domain, according to the definitions, and assertions follow from their respective premises. A formal definition of a correct text relies on a sound sequent calculus and on the notion of local validity (local with respect to some occurrence inside a formula). Proof search is carried out on two levels. The lower level is an automated theorem prover based on a combinatorial procedure. We introduce a variant of connection tableaux which is sound and complete in the first-order logic with equality. The higher level is a "reasoner" which employs natural proving techniques in order to filter, simplify, decompose a proof task before passing it to the prover. The algorithms of the rasoner are based on transformations that preserve the locally valid propositions. The proposed methods are implemented in the proof assistant SAD
Styles APA, Harvard, Vancouver, ISO, etc.
9

Léger, Bertrand. « Recueil et Formalisation de procédés experts pour conduire une protection intégrée du vignoble ». Phd thesis, Ecole nationale superieure agronomique de montpellier - AGRO M, 2008. http://tel.archives-ouvertes.fr/tel-00372383.

Texte intégral
Résumé :
La viticulture française est un gros consommateur de produits phytosanitaires. Deux maladies fongiques, l'oïdium et le mildiou de la vigne, représentent à elles seules 70% des dépenses annuelles de pesticides pour cette culture. Ces maladies pouvant causer la destruction complète des récoltes, sont ressenties comme des fléaux. Face à de tels risques, seule la protection chimique est aujourd'hui efficace. Une équipe de phytopathologiste (Santé Végétale à Bordeaux) a entrepris en 2001 de résoudre le problème dicile de la conception et de la mise au point de systèmes décisionnels de gestion des maladies de la vigne. Ces systèmes innovants doivent faire la preuve qu'il est possible de produire du raisin de qualité en diminuant fortement le nombre de traitements fongiques, conformément aux principes de la Protection Intégrée des Cultures (PIC). L'équipe y parvient en utilisant des observations à la parcelle et une connaissance structurée qui prend la forme de ce que j'ai nommé un Processus Opérationnel de Décision (POD). Ces pathologistes ont mis en oeuvre une approche itérative de la conception, mêlant phases de conception et phases d'expérimentation de plein champ. A l'issue de trois itérations (2001, 2003,2005) ils exprimaient le besoin de formaliser leur démarche. Il s'agissait donc d'identifier et, si nécessaire, de créer les outils formels et les méthodes qui permettraient aux experts pathologistes d'améliorer le résultat de leur conception en répondant à trois besoins : Pouvoir communiquer le POD à d'autres chercheurs, en tester les aspects opérationnels, et rendre le POD fiable. Le concept de POD correspond à une approche prescriptive et opérationnelle de la décision, où la protection des cultures est envisagée comme un processus intégré sur l'ensemble de la saison. Les connaissances permettant de formaliser ce processus ont été recueillies dans le langage Statechart qui est un formalisme à évènements discrets. Les diagrammes Statecharts ont été utilisés comme média entre les experts concepteurs et le cogniticien. La méthode de recueil est originale et constitue un résultat de recherche au même titre que le modèle du « POD Mildium » qui en est le produit. Deux méthodes de validation ont été élaborées pour estimer la qualité du modèle et pointer les défauts de concordance entre les simulations du modèle recueilli et les comportements décisionnels observés. Ce modèle a été validé à partir des données de deux campagnes expérimentales (2005, 2006). On a montré que 85% des décisions étaient similaires. L'ensemble du travail illustre l'intérêt de l'ingénierie des processus métiers abordée via les statecharts pour raisonner et concevoir des systèmes de protection des cultures.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Napoli, Aldo. « Formalisation et gestion des connaissances dans la modélisation du comportement des incendies de forêt ». Phd thesis, Université de Nice Sophia-Antipolis, 2001. http://tel.archives-ouvertes.fr/tel-00532631.

Texte intégral
Résumé :
Nous proposons de traiter dans cette thèse, une partie du vaste domaine de la recherche dans le domaine des incendies de forêt. Nous nous intéressons plus particulièrement à la formalisation des connaissances (structuration des connaissances et de leurs interrelations) pour l'analyse du comportement des feux de forêt et plus précisément pour la modélisation de la vitesse de propagation d'un front de flammes. Le système incendie de forêt, de par sa complexité, doit être appréhendé par une démarche modélisatrice du phénomène (expérimentation, modélisation et validation). Nous proposons dans cette thèse, par la formalisation du corpus de connaissances issues d'expérimentations en milieu naturel, d'apporter une aide à la modélisation du comportement des incendies de forêt. Un prototype de système de gestion des connaissances est élaboré afin d'assister les scientifiques chargés de conduire des expérimentations en milieu naturel. Ce système de gestion des connaissances étant partie intégrante des outils informatiques à mettre en œuvre dans une zone atelier, nous nous permettrons d'imaginer ce que pourrait être une zone atelier pour la modélisation du comportement des incendies de forêt en France. La première partie de la thèse a pour objet de présenter le système incendie de forêt, la démarche de modélisation pour l'analyser ainsi que le recours à la démarche de formalisation de connaissance pour assister le modélisateur. La deuxième partie présente l'acquisition des connaissances dans le domaine de l'expérimentation en milieu naturel pour l'étude du comportement d'un incendie de forêt et leur formalisation à l'aide du langage de modélisation UML. La troisième partie présente, un prototype d'un système de gestion des connaissances issues d'expérimentations en milieu naturel : MODELLIS (MODELLed-Information System). Nous voyons comment celui-ci pourrait être intégré à ce que pourrait être une zone atelier pour l'étude du comportement des incendies de forêt dans le Sud de la France.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Eude, Thibaut. « Forage des données et formalisation des connaissances sur un accident : Le cas Deepwater Horizon ». Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM079/document.

Texte intégral
Résumé :
Le forage de données, méthode et moyens développés dans cette thèse, redéfinit le processus d’extraction de données, de la formalisation de la connaissance et de son enrichissement notamment dans le cadre de l’élucidation d’évènements qui n’ont pas ou peu été documentés. L’accident de la plateforme de forage Deepwater Horizon, opérée pour le compte de BP dans le Golfe du Mexique et victime d’un blowout le 20 avril 2010, sera notre étude de cas pour la mise en place de notre preuve de concept de forage de données. Cet accident est le résultat d’un décalage inédit entre l’état de l’art des heuristiques des ingénieurs de forage et celui des ingénieurs antipollution. La perte de contrôle du puits MC 252-1 est donc une faillite d’ingénierie et il faudra quatre-vingt-sept jours à l’équipe d’intervention pour reprendre le contrôle du puits devenu sauvage et stopper ainsi la pollution. Deepwater Horizon est en ce sens un cas d’ingénierie en situation extrême, tel que défini par Guarnieri et Travadel.Nous proposons d’abord de revenir sur le concept général d’accident au moyen d’une analyse linguistique poussée présentant les espaces sémantiques dans lesquels se situe l’accident. Cela permet d’enrichir son « noyau de sens » et l’élargissement de l’acception commune de sa définition.Puis, nous amenons que la revue de littérature doit être systématiquement appuyée par une assistance algorithmique pour traiter les données compte tenu du volume disponible, de l’hétérogénéité des sources et des impératifs d’exigences de qualité et de pertinence. En effet, plus de huit cent articles scientifiques mentionnant cet accident ont été publiés à ce jour et une vingtaine de rapports d’enquêtes, constituant notre matériau de recherche, ont été produits. Notre méthode montre les limites des modèles d’accidents face à un cas comme Deepwater Horizon et l’impérieuse nécessité de rechercher un moyen de formalisation adéquat de la connaissance.De ce constat, l’utilisation des ontologies de haut niveau doit être encouragée. L’ontologie DOLCE a montré son grand intérêt dans la formalisation des connaissances à propos de cet accident et a permis notamment d’élucider très précisément une prise de décision à un moment critique de l’intervention. La population, la création d’instances, est le coeur de l’exploitation de l’ontologie et son principal intérêt mais le processus est encore très largement manuel et non exempts d’erreurs. Cette thèse propose une réponse partielle à ce problème par un algorithme NER original de population automatique d’une ontologie.Enfin, l’étude des accidents n’échappe pas à la détermination des causes et à la réflexion sur les « faits socialement construits ». Cette thèse propose les plans originaux d’un « pipeline sémantique » construit à l’aide d’une série d’algorithmes qui permet d’extraire la causalité exprimée dans un document et de produire un graphe représentant ainsi le « cheminement causal » sous-jacent au document. On comprend l’intérêt pour la recherche scientifique ou industrielle de la mise en lumière ainsi créée du raisonnement afférent de l’équipe d’enquête. Pour cela, ces travaux exploitent les avancées en Machine Learning et Question Answering et en particulier les outils Natural Language Processing.Cette thèse est un travail d’assembleur, d’architecte, qui amène à la fois un regard premier sur le cas Deepwater Horizon et propose le forage des données, une méthode et des moyens originaux pour aborder un évènement, afin de faire émerger du matériau de recherche des réponses à des questionnements qui échappaient jusqu’alors à la compréhension
Data drilling, the method and means developed in this thesis, redefines the process of data extraction, the formalization of knowledge and its enrichment, particularly in the context of the elucidation of events that have not or only slightly been documented. The Deepwater Horizon disaster, the drilling platform operated for BP in the Gulf of Mexico that suffered a blowout on April 20, 2010, will be our case study for the implementation of our proof of concept for data drilling. This accident is the result of an unprecedented discrepancy between the state of the art of drilling engineers' heuristics and that of pollution response engineers. The loss of control of the MC 252-1 well is therefore an engineering failure and it will take the response party eighty-seven days to regain control of the wild well and halt the pollution. Deepwater Horizon is in this sense a case of engineering facing extreme situation, as defined by Guarnieri and Travadel.First, we propose to return to the overall concept of accident by means of an in-depth linguistic analysis presenting the semantic spaces in which the accident takes place. This makes it possible to enrich its "core meaning" and broaden the shared acceptance of its definition.Then, we bring that the literature review must be systematically supported by algorithmic assistance to process the data taking into account the available volume, the heterogeneity of the sources and the requirements of quality and relevance standards. In fact, more than eight hundred scientific articles mentioning this accident have been published to date and some twenty investigation reports, constituting our research material, have been produced. Our method demonstrates the limitations of accident models when dealing with a case like Deepwater Horizon and the urgent need to look for an appropriate way to formalize knowledge.As a result, the use of upper-level ontologies should be encouraged. The DOLCE ontology has shown its great interest in formalizing knowledge about this accident and especially in elucidating very accurately a decision-making process at a critical moment of the intervention. The population, the creation of instances, is the heart of the exploitation of ontology and its main interest, but the process is still largely manual and not without mistakes. This thesis proposes a partial answer to this problem by an original NER algorithm for the automatic population of an ontology.Finally, the study of accidents involves determining the causes and examining "socially constructed facts". This thesis presents the original plans of a "semantic pipeline" built with a series of algorithms that extract the expressed causality in a document and produce a graph that represents the "causal path" underlying the document. It is significant for scientific or industrial research to highlight the reasoning behind the findings of the investigation team. To do this, this work leverages developments in Machine Learning and Question Answering and especially the Natural Language Processing tools.As a conclusion, this thesis is a work of a fitter, an architect, which offers both a prime insight into the Deepwater Horizon case and proposes the data drilling, an original method and means to address an event, in order to uncover answers from the research material for questions that had previously escaped understanding
Styles APA, Harvard, Vancouver, ISO, etc.
12

Troncy, Raphaël. « Formalisation des connaissances documentaires et des connaissances conceptuelles à l'aide d'ontologies : application à la description de documents audiovisuels ». Phd thesis, Grenoble 1, 2004. http://tel.archives-ouvertes.fr/tel-00005263.

Texte intégral
Résumé :
La nature temporelle de l'audiovisuel impose de passer par le biais de la description pour enrichir les documents et donc les exploiter. Nous soutenons qu'une représentation de la structure et du contenu des documents est nécessaire. Par structure, nous entendons la structure documentaire c'est-à-dire l'organisation méréologique des éléments qui composent le document, tandis que le contenu est une structure conceptuelle, c'est-à-dire une catégorisation de ces éléments. Après une revue des propositions actuelles de modélisation des documents audiovisuels, issues de l'ingénierie documentaire et de l'ingénierie des connaissances, nous montrons qu'aucun des langages étudiés ne permet de traiter ces deux aspects de manière satisfaisante. Nous proposons alors une architecture générale permettant la représentation formelle de la structure et du contenu des documents audiovisuels, qui engendrera une base de connaissances sur laquelle il est possible d'effectuer des raisonnements. Cette architecture se compose d'une ontologie de l'audiovisuel, dont on traduit une partie dans un langage documentaire pour contrôler la structure logique des documents, et d'une ontologie de domaine pour décrire formellement leur contenu. Nous avons développé l'outil DOE (Differential Ontology Editor), qui implémente la méthodologie de construction d'ontologies utilisée. Nous montrons finalement la pertinence de l'approche à l'aide de deux expérimentations utilisant un corpus de vidéos annoté, illustrant ainsi les types d'inférences possibles.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Mangin, Philippe. « Identification des paramètres clés du laminage transversal : vers la formalisation des connaissances scientifiques et technologiques ». Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2012. http://pastel.archives-ouvertes.fr/pastel-00752476.

Texte intégral
Résumé :
Le laminage transversal, procédé de mise en forme des métaux essentiellement développé " à chaud ", permet d'obtenir des bruts de haut niveau de qualité en réalisant un gain notoire sur l'engagement matière face à d'autres procédés. Les travaux de thèse dressent l'état de l'art de cette technologie complexe et mal connue en France ; ils s'appuient sur une bibliographie dense et diversifiée pour synthétiser les lois qui régissent ce procédé et identifier les paramètres significatifs. Les conditions du contact pièce/outil étant prépondérantes, la mesure de la pression de contact est développée sur des matrices instrumentées afin de caractériser la sévérité des efforts. Des préformes en acier, titane et alliage base cuivre-aluminium avec simple réduction de diamètre sont fabriquées pour mettre en évidence les spécificités du contact pièce-matrice au niveau tribologique et rhéologique. En vue de démontrer que la condition d'entrainement en rotation des pièces est un facteur clé de pilotage du procédé, de nombreux essais expérimentaux pointent le rôle de la texture de surface pour l'obtention de pièces sans défaut, ainsi que son influence sur l'histoire thermomécanique interne. Les nombreuses difficultés liées à la mise au point d'outillages sont identifiées sur la base d'observations expérimentales et ensuite intégrées dans une démarche de conception d'outillage. Une procédure de conception d'outillage est ainsi proposée en s'appuyant sur une synthèse de règles issues de la bibliographie ainsi que de règles déterminées par les travaux expérimentaux. Une étude de cas sur une préforme " balustre " est traitée ; elle intègre la conception des matrices, la simulation numérique avec le logiciel FORGE© ainsi que les essais de mise au point d'outillage sur un banc développé à l'ENSAM. Une vision d'ensemble sur le procédé et les paramètres qui le gouvernent est finalement proposée.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Philippe, Mangin. « Identification des paramètres clés du laminage transversal : vers la formalisation des connaissances scientifiques et technologiques ». Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2012. http://tel.archives-ouvertes.fr/tel-00839532.

Texte intégral
Résumé :
Le laminage transversal, procédé de mise en forme des métaux essentiellement développé " à chaud ", permet d'obtenir des bruts de haut niveau de qualité en réalisant un gain notoire sur l'engagement matière face à d'autres procédés. Les travaux de thèse dressent l'état de l'art de cette technologie complexe et mal connue en France ; ils s'appuient sur une bibliographie dense et diversifiée pour synthétiser les lois qui régissent ce procédé et identifier les paramètres significatifs. Les conditions du contact pièce/outil étant prépondérantes, la mesure de la pression de contact est développée sur des matrices instrumentées afin de caractériser la sévérité des efforts. Des préformes en acier, titane et alliage base cuivre-aluminium avec simple réduction de diamètre sont fabriquées pour mettre en évidence les spécificités du contact pièce-matrice au niveau tribologique et rhéologique. En vue de démontrer que la condition d'entrainement en rotation des pièces est un facteur clé de pilotage du procédé, de nombreux essais expérimentaux pointent le rôle de la texture de surface pour l'obtention de pièces sans défaut, ainsi que son influence sur l'histoire thermomécanique interne. Les nombreuses difficultés liées à la mise au point d'outillages sont identifiées sur la base d'observations expérimentales et ensuite intégrées dans une démarche de conception d'outillage. Une procédure de conception d'outillage est ainsi proposée en s'appuyant sur une synthèse de règles issues de la bibliographie ainsi que de règles déterminées par les travaux expérimentaux. Une étude de cas sur une préforme " balustre " est traitée ; elle intègre la conception des matrices, la simulation numérique avec le logiciel FORGE© ainsi que les essais de mise au point d'outillage sur un banc développé à l'ENSAM. Une vision d'ensemble sur le procédé et les paramètres qui le gouvernent est finalement proposée.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Fouquet, Dany. « Formalisation des connaissances d'usinage pour une intégration des logiciels de CFAO : application aux pièces structurales aéronautiques ». Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/44/1/FOUQUET_Dany.pdf.

Texte intégral
Résumé :
Le passage direct et automatique d’un modèle CAO à une pièce usinée représente un rêve pour les entreprises manufacturières. Ceci implique nécessairement un module intermédiaire de génération automatique du procédé de fabrication. Des travaux dans ce domaine nous laissent croire que ce rêve pourrait se réaliser. Pour y parvenir, on doit déterminer les règles suivant lesquelles les gammistes raisonnent lors de la création du programme d’usinage. Cette recherche portera alors sur cet objectif de formalisation et de caractérisation des connaissances d’usinage. Pour y arriver, des experts sur les méthodes de fabrication ont été consultés afin de recueillir leur savoir-faire appliqué à l’usinage des pièces structurales aéronautiques, le tout jumelé à une revue de la littérature. L’exercice a permis de constater l’existence de deux catégories d’approches, soit les pièces usinées en un posage et celles usinées en deux posages. Les stratégies relatives à ces pièces sont présentées, notamment sur le choix des ressources, des opérations et leur ordonnancement. Les paramètres significatifs pouvant être exploités dans un contexte d’intelligence artificielle sont mis en évidence. Le projet complet vise l’intégration de ces informations à un outil d’assistance à la génération de gamme de fabrication de pièces par usinage utilisant des réseaux de neurones. Une architecture de l’outil est proposée.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Masson, Cyrille. « Contribution au cadre des bases de données inductives : formalisation et évaluation des scénarios d'extraction de connaissances ». Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0042/these.pdf.

Texte intégral
Résumé :
Le succès des techniques de bases de données permet de collecter une quantité toujours plus grande d'informations dans différents domaines. L'ECD (Extraction de Connaissance dans les Données) se donne pour but d'aller plus loin dans le processus d'interrogation des données pour y découvrir, sous forme de motifs, de la connaissance cachée. La notion de base de données inductive (BDI) généralise le concept de base de données en intégrant données et motifs dans un cadre commun. Un processus d'ECD peut alors être vu comme un processus d'interrogation étendu sur une BDI. Cette thèse s'intéresse `a la formalisation et `a l'évaluation des scénarios d'extraction dans le cadre des BDI. Nous montrons d'abord comment utiliser un langage abstrait pour les BDI pour décrire de manière formelle des processus d'extraction réalisables par l'utilisateur. Nous obtenons ainsi un scénario prototypique, i. E. Un objet théorique composé d'une séquence de requêtes inductives, sur lequel il est possible de raisonner. Un tel scénario sert avant tout `a formaliser des traitements pour le transfert d'expertise entre utilisateurs et spécialistes en ECD. Une autre application du concept de scénario est l'évaluation sur une base commune de différentes implémentations de BDI, dans la lignée des benchmarks existants pour les bases de données. Un scénario d'évaluation a le même aspect qu'un scénario prototypique, mais on s'intéresse ici aux problèmes algorithmiques et d'optimisation de séquences de requêtes inductives. Lors du calcul du plan d'exécution d'un tel scénario, le système devra analyser les propriétés des requêtes qui le composent, en découvrant des dépendances entre celles-ci ou des conjonctions de contraintes pour lesquelles nous souhaitons disposer d'outils d'extraction efficaces. Enfin, nous présentons un scénario d'évaluation en bioinformatique et nous montrons comment le résoudre en utilisant des techniques préexistantes dans l'équipe ou développées pour les besoins de ce scénario
The success of database technologies has lead to an always increasing mass of collected information in different application fields. Knowledge Discovery in Databases (KDD) aims at going further in the querying processes on such data so as to find in these data some hidden knowledge materialized under the form of patterns. The Inductive Database (IDB) concept is a generalization of the database concept which integrates patterns and data in a common framework. A KDD process can thus be seen as an extended querying process on an IDB. This PhD. Thesis is about the formalization and the evaluation of KDD scenarios in the IDB framework. We first show how to use an abstract language for IDBs to formally describe extraction processes that can be performed by the user. We thus obtain a prototypical scenario, i. E. A theoritical object made of a sequence of inductive queries and on which it is possible to reason. Such a kind of scenario is useful to formalize processes when transfering expertise between final users and KDD experts. Another application of the concept of scenario is the evaluation on a common basis of different implementations of IDBs, similarly to existing benchmarks for databases. An evaluation scenario has the same form than a prototypical scenario, but it focuses more on algorithmic issues and optimization techniques for sequences of inductive queries. When computing an execution plan for such a scenario, the IDB system should analyze the properties of queries composing it, by discovering dependencies between them or conjunctions of constraints for which it is useful to have efficient extraction tools. Finally, we present an evaluation scenario in the field of bioinformatics, and we show how to solve it by using techniques developed in our group or especially designed for the need of this scenario
Styles APA, Harvard, Vancouver, ISO, etc.
17

Gesbert, Nils. « Étude de la formalisation des spécifications de bases de données géographiques en vue de leur intégration ». Université de Marne-la-Vallée, 2005. http://www.theses.fr/2005MARN0261.

Texte intégral
Résumé :
Objectif : faciliter l’utilisation conjointe de plusieurs bases de données géographiques, et en particulier leur intégration dans un système de bases de données fédérées, grâce à une description homogène entre les différentes bases et autant que possible formelle de la sémantique précise des données, c’est-à-dire des spécifications de contenu. Méthode : Les spécifications papier ont le défaut d’être structurées conformément aux schémas des bases de données, qui sont hétérogènes et influencés par des choix d’implémentation. Pour s’affranchir de ce problème, on fait l’hypothèse qu’on peut trouver dans les spécifications un certain nombre de termes consensuels correspondant à des concepts géographiques partagés. Ces concepts formeraient ce qu’on appelle une ontologie du domaine. L’idée n’est pas de créer cette ontologie de façon exhaustive mais de créer une ontologie partielle ad hoc, qu’on étendra au fur et à mesure qu’on rencontrera de nouveaux concepts dans les spécifications. Les spécifications sont alors représentées sous la forme de procédures de représentation qui à une entit géographique (instance d’un concept donné) associent une ou plusieurs représentations dans les différentes bases, en fonction de la nature et des propriétés de l’entité ; elles font donc le lien entre l’ontologie et les schémas des différentes bases. Résultats : sur les thèmes hydrographie de la BDCarto et de la BDTopo, deux bases de données de l’IGN, il semble que l’hypothèse soit vérifiée (on arrive assez facilement à une ontologie commune). On a pu d’autre part déterminer les principaux types de règles élémentaires nécessaires à la construction des procédures de représentation. Un langage formel dont la grammaire, définie en BNF, s’appuie sur ces règles élémentaires a alors été proposé pour décrire les procédures de représentation. Enfin, un prototype logiciel muni d’un parseur pour ce langage a été réalisé pour saisir, stocker et manipuler les spécifications formelle
Integrating them into a federated database system, by describing the precise data meaning in a way both homogeneous between databases and as formal as possible. This precise data meaning is contained in the databases’ content specifications (surveying rules). Method : The general organization of the present specifications follows that of the databases’ schemata, but these schemas are heterogeneous and influenced by implementation problems. To overcome this problem, we suppose that it will be possible to find, in the specifications’ text, a number of common terms referring to shared geographical concepts. All these concepts would constitute what is called a domain ontology. Our idea is not to create a complete ontology but rather a partial, ad hoc one, which would be extended to take new concepts into account as needed. The specifications would then be represented as a bundle of what we call representation procedures, which describe how, given a geographic entity (instance of some geographical concept), one or more representations of this entity are built up into the different databases depending on the nature and the properties of the entity. Thus these procedures describe the links between the ontology and the schemata of the databases. Results : For the example of hydrography in two different IGN databases, BDCarto and BDTopo, our hypothesis seems confirmed : a common ontology could rather easily be defined. Concerning the representation procedures, we were able to establish the main kinds of elementary rules from which they can be constructed. To describe formally these procedures, we then defined a formal language whose grammar has been described in BNF and is based on these elementary rules. Finally, we have made a software prototype, containing a parser for this language, for entering, saving and handling the formal specifications
Styles APA, Harvard, Vancouver, ISO, etc.
18

El, Maarouf Ismaïl. « Formalisation de connaissances à partir de corpus : modélisation linguistique du contexte pour l'extraction automatique de relations sémantiques ». Phd thesis, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00657708.

Texte intégral
Résumé :
Les corpus, collections de textes sélectionnés dans un objectif spécifique, occupent une place de plus en plus déterminante en Linguistique comme en Traitement Automatique des Langues (TAL). Considérés à la fois comme source de connaissances sur l'usage authentique des langues, ou sur les entités que désignent des expressions linguistiques, ils sont notamment employés pour évaluer la performance d'applications de TAL. Les critères qui prévalent à leur constitution ont un impact évident, mais encore délicat à caractériser, sur (i) les structures linguistiques majeures qu'ils renferment, (ii) les connaissances qui y sont véhiculées, et, (iii) la capacité de systèmes informatiques à accomplir une tâche donnée. Ce mémoire étudie des méthodologies d'extraction automatique de relations sémantiques dans des corpus de textes écrits. Un tel sujet invite à examiner en détail le contexte dans lequel une expression linguistique s'applique, à identifier les informations qui déterminent son sens, afin d'espérer relier des unités sémantiques. Généralement, la modélisation du contexte est établie à partir de l'analyse de co-occurrence d'informations linguistiques issues de ressources ou obtenues par des systèmes de TAL. Les intérêts et limites de ces informations sont évalués dans le cadre de la tâche d'extraction de relations sur des corpus de genre différent (article de presse, conte, biographie). Les résultats obtenus permettent d'observer que pour atteindre une représentation sémantique satisfaisante ainsi que pour concevoir des systèmes robustes, ces informations ne suffisent pas. Deux problèmes sont particulièrement étudiés. D'une part, il semble indispensable d'ajouter des informations qui concernent le genre du texte. Pour caractériser l'impact du genre sur les relations sémantiques, une méthode de classification automatique, reposant sur les restrictions sémantiques qui s'exercent dans le cadre de relations verbo-nominales, est proposée. La méthode est expérimentée sur un corpus de conte et un corpus de presse. D'autre part, la modélisation du contexte pose des problèmes qui relèvent de la variation discursive de surface. Un texte ne met pas toujours bout à bout des expressions linguistiques en relation et il est parfois nécessaire de recourir à des algorithmes complexes pour détecter des relations à longue portée. Pour répondre à ce problème de façon cohérente, une méthode de segmentation discursive, qui s'appuie sur des indices de structuration de surface apparaissant dans des corpus écrits, est proposée. Elle ouvre le champ à la conception de grammaires qui permettent de raisonner sur des catégories d'ordre macro-syntaxique afin de structurer la représentation discursive d'une phrase. Cette méthode est appliquée en amont d'une analyse syntaxique et l'amélioration des performances est évaluée. Les solutions proposées à ces deux problèmes nous permettent d'aborder l'extraction d'information sous un angle particulier : le système implémenté est évalué sur une tâche de correction d'Entités Nommées dans le contexte d'application des Systèmes de Question-Réponse. Ce besoin spécifique entraîne l'alignement de la définition d'une catégorie sur le type de réponse attendue par une question.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Maarouf, Ismaïl Mathieu El. « Formalisation de connaissances à partir de corpus : modélisation linguistique du contexte pour l'extraction automatique de relations sémantiques ». Lorient, 2011. http://www.theses.fr/2011LORIL245.

Texte intégral
Résumé :
Les corpus, collections de textes sélectionnés dans un objectif spécifique, occupent une place de plus en plus déterminante en Linguistique comme en Traitement Automatique des Langues (TAL). Considérés à la fois comme source de connaissances sur l'usage authentique des langues, ou sur les entités que désignent des expressions linguistiques, ils sont notamment employés pour évaluer la performance d'applications de TAL. Les critères qui prévalent à leur constitution ont un impact évident, mais encore délicat à caractériser, sur (i) les structures linguistiques majeures qu'ils renferment, (ii) les connaissances qui y sont véhiculées, et, (iii) la capacité de systèmes informatiques à accomplir une tâche donnée. Ce mémoire étudie des méthodologies d'extraction automatique de relations sémantiques dans des corpus de textes écrits. Un tel sujet invite à examiner en détail le contexte dans lequel une expression linguistique s'applique, à identifier les informations qui déterminent son sens, afin d'espérer relier des unités sémantiques. Généralement, la modélisation du contexte est établie à partir de l'analyse de co-occurrence d'informations linguistiques issues de ressources ou obtenues par des systèmes de TAL. Les intérêts et limites de ces informations sont évalués dans le cadre de la tâche d'extraction de relations sur des corpus de genre différent (article de presse, conte, biographie). Les résultats obtenus permettent d'observer que pour atteindre une représentation sémantique satisfaisante ainsi que pour concevoir des systèmes robustes, ces informations ne suffisent pas. Deux problèmes sont particulièrement étudiés. D'une part, il semble indispensable d'ajouter des informations qui concernent le genre du texte. Pour caractériser l'impact du genre sur les relations sémantiques, une méthode de classification automatique, reposant sur les restrictions sémantiques qui s'exercent dans le cadre de relations verbo-nominales, est proposée. La méthode est expérimentée sur un corpus de conte et un corpus de presse. D'autre part, la modélisation du contexte pose des problèmes qui relèvent de la variation discursive de surface. Un texte ne met pas toujours bout à bout des expressions linguistiques en relation et il est parfois nécessaire de recourir à des algorithmes complexes pour détecter des relations à longue portée. Pour répondre à ce problème de façon cohérente, une méthode de segmentation discursive, qui s'appuie sur des indices de structuration de surface apparaissant dans des corpus écrits, est proposée. Elle ouvre le champ à la conception de grammaires qui permettent de raisonner sur des catégories d'ordre macro-syntaxique afin de structurer la représentation discursive d'une phrase. Cette méthode est appliquée en amont d'une analyse syntaxique et l'amélioration des performances est évaluée. Les solutions proposées à ces deux problèmes nous permettent d'aborder l'extraction d'information sous un angle particulier : le système implémenté est évalué sur une tâche de correction d'Entités Nommées dans le contexte d'application des Systèmes de Question-Réponse. Ce besoin spécifique entraîne l'alignement de la définition d'une catégorie sur le type de réponse attendue par une question
Corpora which are text collections selected for specific purposes, are playing an increasing role in Linguistics and Natural Language Processing (NLP). They are conceived as knowledge sources on natural language use, as much as knowledge on the entities designated by linguistic expressions, and they are used in particular to evaluate NLP application performances. The criteria prevailing on their constitution have an obvious, though still delicate to characterize, impact on (i) the major linguistic structures they contain, (ii) the knowledge conveyed, and, (iii) computational systems' success on a give task. This thesis studies methodologies of automatic extraction of semantic relations on written text corpora. Such a topic calls for a detailed examination of the context in which a given expression holds, as well as for the discovery of the features which determine its meaning, in order to be able to link semantic units. Generally, contextual models are built from the co-occurrence analysis of linguistic informations, drawn from resources and NLP tools. The benefits and limits of these informations are evaluated in a task of relation extraction from corpora belonging to different genres (press article, fairy tale, biography). The results show that these informations are insufficient to reach a satisfying semantic representation as well as to design robust systems. Two problems are particularly addressed. On the one hand, it seems indispensable to add informations related to text genre. So as to characterize the impact of genre on semantic relations, an automatic classification method, which relies on the semantic restrictions holding between verbs and nouns, is proposed. The method is experimented on a fairy tale corpus and on a press corpus. On the other hand, contextual models need to deal with problems which come under discourse surface variation. In a text, related linguistic expressions are not always close to one another and it is sometimes necessary to design complex algorithms in order to detect long dependencies. To answer this problem in a coherent manner, a method of discourse segmentation based on surface structure triggers in written corpora, is proposed. It paves the way for grammars operating on macro-syntactic categories in order to structure the discursive representation of a sentence. This method is applied prior to a syntactic analysis and its improvement is evaluated. The solutions proposed to these problems help us to approach Information Extraction from a particular angle : the implemented system is evaluated on a task of Named Entity correction in the context of a Question-Answering System. This specific need entails the alignment of a category definition on the type of answer expected by the question
Styles APA, Harvard, Vancouver, ISO, etc.
20

Vincent, Béatrice. « Contribution à la représentation des connaissances en comptabilité : formalisation et développement d'un système auto-adaptatif de formation ». Toulouse 1, 1994. http://www.theses.fr/1994TOU10033.

Texte intégral
Résumé :
Ce travail de recherche est une contribution a la representation des connaissances en comptabilite, le probleme etant aborde selon une approche cognitive, c'est-a-dire centree sur l'etude des processus d'elaboration et de transmission des savoirs et savoir-faire en comptabilite. Une reflexion conceptuelle sur, d'une part, les processus de structuration et d e mise en forme de la connaissance par un formateur et, d'autre part, sur les processus de perception, de comprehension et d'assimilation des savoirs par un apprenant, a abouti au developpement d'un modele de systeme auto-adaptatif de formation. Ce modele repose sur une architecture hierarchique composee de trois sous-systemes : pedagogique, didactique, mediatique. Chacun d'eux integre et met en oeuvre des processeurs de decision capables d'analyser et de diagnostiquer de s situations floues et imparfaitement connues. Ces decisions reposent sur des modelisations du raisonnement comptable et de l'evaluation de l'apprenant. Cette partie conceptuelle a ete validee et enrichie par la realisation d'un systeme informatique, appele tuteur intelligent, qui a ete teste aupres de divers publics etudiants. Cette instrumentation joue un role essentiel dans la methodologie de recherche, le systeme etant a la fois un outil de validation et d'elaboration par retroaction des differents modeles. L'experimentation a fait ressortir les apports de tels systemes aux dispositifs de formation actuels et a l'apprentissage de la comptabilite. Elle a egalement permis de mettre en evidence des pistes de recherche en comptabilite, ouvertes par une approche du domaine reposant sur une problematique de constitution et de transmission des savoirs
This research work contributes to accouting knowledge, by using a cognitive approach, that is to say by studying the constitution and transmission of knowledge in accounting. A conceptual reflection on teaching and learning process has led to develop a model of self-adaptive training system. Such a model relies on a hierarchical structure made up of three sub-systems : pedagogic, didactic and media-based. Each of these incorporates and employs decision processors able to analyse and diagnose situations that are still vague and not totally clear. Such decisions are based on creating models of accounting and of the learner's evalution. This conceptual part has been validated and enlarged by the development of a prototype training system called intelligen t tutoring system, which was tested with various student populations. Such system plays a significant part in the research method by validating and building back the model. The experimentation enhanced the contribution of these original systems to the present training structures and to the learning of accounting opened up by an approach of the field based on a problematic of constitution and transmission of knowledge
Styles APA, Harvard, Vancouver, ISO, etc.
21

Pautret, Vincent. « D'une méthodologie de modélisation des connaissances du domaine à sa formalisation au sein d'un agent rationnel dialoguant ». Rennes 1, 2001. http://www.theses.fr/2001REN10082.

Texte intégral
Résumé :
Les systèmes de dialogue développés dans les laboratoires de France Télécom R&D sont conçus comme des agents intelligents dialoguants. Dans cette approche, l'aptitude d'un système à dialoguer résulte de principes primitifs de raisonnement et de comportements coopératifs indépendants des connaissances relatives à un domaine sémantique particulier. Dans ce contexte, un changement d'application ou l'ajout de nouveaux services à un système de dialogue nécessite une définition sémantique de cette application ou de ce service. Nous nous intéressons à la construction semi-automatique de modèles sémantiques d'un domaine de connaissance à partir d'une description informelle de ce domaine en langage naturel. Les travaux de thèses que nous présentons ici ont un double objectif : (1) proposer une méthodologie de construction interactive d'un modèle sémantique ; (2) exprimer ces mécanismes dans un formalisme logique, comme des notions épistémiques utilisables de manière banalisée par un agent rationnel dialoguant. Les résultats obtenus sont illustrés par la mise en oeuvre d'un démonstrateur qui a été appliqué à plusieurs domaines sémantiques.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Le, Yaouanc Jean-Marie. « Formalisation de la description d'un environnement naturel. Application à la géo-localisation d'un individu ». Phd thesis, Université de Bretagne occidentale - Brest, 2010. http://tel.archives-ouvertes.fr/tel-00529036.

Texte intégral
Résumé :
Les récents outils dédiés aux Sciences de l'Information Géographique s'attachent principalement à visualiser, analyser voire interpréter une information dite quantitative, c'est-à-dire issue de données cartographiques. Malgré une utilisation exponentielle voire quotidienne de ces systèmes, ces derniers ne correspondent pas à la manière dont un individu perçoit l'espace. Le mécanisme de perception spatiale est en effet dépendant de nos propres connaissances, du contexte ou de la tâche à réaliser. Il entraîne une représentation cognitive de l'environnement qui est caractérisée par une absence de formalisation des concepts manipulés. Cette représentation n'est pas une reproduction fidèle de la réalité, mais un assemblage d'objets aux formes et aux échelles exagérées qui est structuré par des relations spatiales approximatives. Ce travail est né du paradoxe suivant : comment peut-on utiliser des systèmes informatiques dont les fondements reposent sur des données quantitatives, alors que la perception de l'espace et son expression par le langage naturel sont par définition absentes de toute formalisation, et ainsi très éloignées de la précision métrique recherchée par les outils géo-informatiques actuels ? L'objectif de cette thèse consiste à associer une représentation cognitive issue de la perception d'un environnement naturel, aux données quantitatives provenant d'une base de données géographiques. Le scénario associé à cette approche s'attache à identifier les positions géographiques d'un individu à partir de la description de ses environs : un randonneur ou un pêcheur perdu ne disposant pas d'outil de géo-positionnement, décrit de manière spontanée son environnement à un interlocuteur qui s'appuie sur les propositions d'un système informatique pour le localiser. Une modélisation de la description linguistique puis de la scène environnementale perçue est proposée. Cette "carte conceptuelle" est contrainte par quatre espaces de proximité et deux à quatre cônes directionnels qui ordonnent et orientent les objets perçus par rapport à la position fixe de l'individu. Une telle représentation ne permet cependant pas de distinguer les entités saillantes, des entités ne favorisant pas le géo-positionnement de l'observateur. Nous avons donc proposé deux critères de saillance linguistique et spatiale fondés sur un algorithme de renforcement mutuel. Les positions géographiques possibles de l'individu sont alors calculées à partir de l'interprétation de la configuration spatiale fournie par la carte conceptuelle. Les zones de visibilité des objets perçus sont calculées puis les relations spatiales sont interprétées sous la forme de contraintes spatiales. Chaque nouvelle contrainte réduit au fur et à mesure l'espace solution, et le résultat exploitable pour lancer les opérations de recherche de l'individu est fourni par l'intersection des différentes régions.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Abeille, Joël. « Vers un couplage des processus de conception de systèmes et de planification de projets : formalisation de connaissances méthodologiques et de connaissances métier ». Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0051/document.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse s'inscrivent dans une problématique d'aide à la conception de systèmes, à la planification de leur projet de développement et à leur couplage. L'aide à la conception et à la planification repose sur la formalisation de deux grands types de connaissances : les connaissances méthodologiques utilisables quel que soit le projet de conception et, les connaissances métier spécifiques à un type de conception et/ou de planification donné. Le premier chapitre de la thèse propose un état de l'art concernant les travaux sur le couplage des processus de conception de systèmes et de planification des projets associés et expose la problématique de nos travaux. Deux partie traitent ensuite, d'une part, des connaissances méthodologiques et, d'autre part, des connaissances métier. La première partie expose trois types de couplages méthodologiques. Le couplage structurel propose de formaliser les entités de conception et de planification puis permet leur création et leur association. Le couplage informationnel définit les attributs de faisabilité et de vérification pour ces entités et synchronise les états de ces dernières vis-à-vis de ces attributs. Enfin, le couplage décisionnel consiste à proposer, dans un même espace et sous forme de tableau de bord, les informations nécessaires et suffisantes à la prise de décision par les acteurs du projet de conception. La seconde partie propose de formaliser, d'exploiter et de capitaliser la connaissance métier. Après avoir formalisé ces connaissances sous forme d'une ontologie de concepts, deux mécanismes sont exploités : un mécanisme de réutilisation de cas permettant de réutiliser, en les adaptant, les projets de conception passés et un mécanisme de propagation de contraintes permettant de propager des décisions de la conception vers la planification et réciproquement
The work presented in this thesis deals with aiding system design, development project planning and its coupling. Aiding design and planning is based on the formalization of two kind of knowledge: methodological knowledge that can be used in all kind of design projects and business knowledge that are dedicated to a particular kind of design and/or planning. The first chapter presents a state of the art about coupling system design process and project planning process and gives the problem of our work. Then, two parts deal with design and planning coupling thanks to, on one hand, methodological knowledge, and on the other hand, business knowledge. The first part presents three types of methodological coupling. The structural coupling defines design and planning entities and permits its simultaneous creation of and its association. The informational coupling defines feasibility and verification attributes for these entities and synchronizes its attribute states. Finally, the decisional coupling consists in proposing, in a single dashboard, the necessary and sufficient information to make a decision by the design project actors. The second part proposes to formalize, to exploit and to capitalize business knowledge. This knowledge is formalized with ontology of concepts. Then, two mechanisms are exploited: a case reuse mechanism that permits to reuse and adapt former design projects and a constraint propagation mechanism that allows propagating decisions from design to planning and reciprocally
Styles APA, Harvard, Vancouver, ISO, etc.
24

Charlot, Jean-Marc. « Formalisation et comparaison cognitives de modèles mentaux de novices et d'experts en situation de résolution de problèmes ». Sherbrooke : Université de Sherbrooke, 1998.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
25

Barrué, Jean-Pierre. « Fonctionnement des savoirs sur l'objet d'enseignement à l'intérieur du système didactique : étude, en éducation physique et sportive, de la diversité, fonctionnalité et complémentarité des savoirs sur l'objet athlétique ». Toulouse 3, 1994. http://www.theses.fr/1994TOU30234.

Texte intégral
Résumé :
Cette these presente une etude du fonctionnement des savoirs en chacun des poles du systeme-didactique, posant la question de la circulation des savoirs dans le systeme. Le support de la recherche concerne l'objet athletique, objet d'enseignement en education physique et sportive. La premiere partie etablit une convergence entre les travaux de recherche menes tant a propos des conceptions que des processus sollicites: leur mobilisation serait soit differentielle soit conjoncturelle. Les seconde, troisieme et quatrieme parties, verifient ces constats au moyen de l'analyse: d'articles, d'une enquete aupres des enseignants, d'analyse des discours et de reponses motrices d'apprenants. Trois methodologies sont coordonnees pour cette etude: l'analyse de contenus (manuelle et assistee par ordinateur), l'enquete, l'analyse d'images video assistee par ordinateur (logiciel dietrich v. D). Conclusions: les classes de savoir apparaissent particulierement etanches entre elles ; une dysharmonie apparait entre les conceptions mobilisees, posant des problemes de circulation du savoir dans le systeme ; des principes sont proposes pour construire des modelisations de l'objet athletique, supposees capables de reduire la dysharmonie
Styles APA, Harvard, Vancouver, ISO, etc.
26

Gouriveau, Rafael. « Analyse des risques : formalisation des connaissances et structuration des données pour l'intégration des outils d'étude et de décision ». Toulouse, INPT, 2003. http://www.theses.fr/2003INPT035H.

Texte intégral
Résumé :
Le management des risques associe différents processus d'analyse et de décision délicats. L'hétérogénéité des informations exploitées dans ce contexte ainsi que la diversité des modèles de traitement utilisables rendent difficile la définition d'un cadre formel pour cette démarche. Dans ce contexte, notre objectif est de favoriser la mise en œuvre du management des risques. Notre contribution porte sur deux aspects complémentaires. Nous proposons des moyens simples et opérationnels pour formaliser et traiter les données, informations et connaissances ; nous avançons des solutions portant sur une approche "floue/possibiliste" de l'analyse des risques et sur la réalisation d'analyses multi-critères. Nous proposons un modèle conceptuel des données permettant de décrire la situation étudiée et d'intégrer de façon cohérente les outils d'analyse et décisionnels, assurant ainsi un continuum entre toutes les étapes du processus de management des risques.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Charlot, Jean-Marc. « Formalisation et comparaison cognitives de modèles mentaux de novices et d'experts en situation de résolution de problèmes ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape11/PQDD_0004/NQ40514.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Semeraro, Concetta. « Contribution à la formalisation d'invariants de modélisation de systèmes cyber-physiques, dirigés par les données ». Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0029.

Texte intégral
Résumé :
La transformation numérique des entreprises manufacturières collaboratives en réseau nécessite la construction et l'application de modèles numériques représentant l'ensemble des ressources et des connaissances sur les processus. La modélisation d'une telle copie numérique du système physique pour effectuer une validation et une optimisation en temps réel est assez complexe et nécessite donc une grande quantité de données et quelques modèles de modélisation représentant la sémantique opérationnelle des éléments modélisés. En règle générale, l'action de modélisation a un type d'application localisé et spécifique. Fort de ce constat, le principal défi de la modélisation de la transformation numérique est de créer une approche invariante, à savoir un modèle décomposable et recomposable vers différentes applications. La thèse vise à identifier et formaliser des éléments de modélisation contribuant à construire des modèles informationnels et fonctionnels pour améliorer la durabilité des processus de fabrication et des produits, basés sur des composants en réseau. Ces éléments formels permettront alors de représenter la connaissance et sa relation profonde avec les processus de fabrication. Ils rendent ainsi les connaissances partagées plus facilement réutilisables et sont à la base des efforts de normalisation
The digital transformation of collaborative networked manufacturing enterprises requires the building and the applying digital models representing the set of resources and processes knowledge. Modelling such digital copy of the physical system to perform real-time validation and optimization is quite complex and thus needs a big amount of data and some modelling patterns representing the operational semantics of the modelled elements. Generally, the modelling action has a specific application type. For this reason, the core challenge of the digital transformation modelling is to create an invariant approach, namely a decomposable and re-composable model, towards different applications. This PhD thesis aims at identifying and formalising modelling constructs contributing at building informational and functional models for improving the sustainability of manufacturing processes and products based on networked components. The constructs will then allow representing knowledge and its deep relationship with the manufacturing processes. They make the shared knowledge more readily reusable and are at the basis of standardization efforts
Styles APA, Harvard, Vancouver, ISO, etc.
29

Gateau, Thibault. « Supervision de mission pour une équipe de véhicules autonomes hétérogènes ». Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0038/document.

Texte intégral
Résumé :
Ces dernières années, les engins robotisés n’ont cessé d’améliorer leur autonomie dans le domaine de la décision. Désormais, pour ne citer que l’exemple de véhicules aériens, nombre de drones sont largement capables, sans intervention d’un opérateur humain, de décoller, suivre un itinéraire en activant divers capteurs à des moments précis, atterrir en un lieu spécifié, suivre une cible, patrouiller sur une zone... Une des étapes suivantes consiste à faire collaborer une équipe de véhicules autonomes, de nature hétérogène (aériens, terrestres, marins...) afin de leur permettre d’accomplir des missions plus complexes. L’aspect dynamique de l’environnement réel, la non disponibilité à tout instant des moyens de communication, la coordination nécessaire des véhicules,de conceptions parfois différentes, dans l’exécution de certaines parties d’un plan de mission, sont autant d’obstacles à surmonter. Ce travail tente non seulement d’apporter quelques éléments de réponse face à ces difficultés, mais consiste aussi en la mise en place concrète d’un superviseur haut niveau, capable de gérer l’exécution d’une mission par une équipe de véhicules autonomes hétérogènes, où le rôle de l’opérateur humain est volontairement réduit. Nous décrivons dans ce mémoire l’architecture distribuée que nous avons choisi de mettre en œuvre pour répondre à ce problème. Il s’agit d’un superviseur, réparti à bord des véhicules autonomes, interfacé avec leur architecture locale et en charge de l’exécution de la mission d’équipe. Nous nous intéressons également à la formalisation des connaissances nécessaires au déroulement de cette mission, afin d’améliorer l’interopérabilité des véhicules de l’équipe, mais aussi pour expliciter les relations entre modèles décisionnels abstraits et réalité d’exécution concrète. Le superviseur est capable de réagir face aux aléas qui vont se produire dans un environnement dynamique. Nous présentons ainsi dans un second temps les stratégies mises en place pour parvenir à les détecter au mieux, ainsi que la façon dont nous procédons pour réparer partiellement ou totalement le plan de mission initial, afin de remplir les objectifs initiaux. Nous nous basons notamment sur la nature hiérarchique du plan de mission, mais aussi sur celle de la structure de sous-équipes que nous proposons de construire. Enfin, nous présentons quelques résultats obtenus expérimentalement, sur des missions simulées et des scénarios réels, notamment ceux du Programme d’Etudes Amont Action dans lequel s’inscrivent ces travaux de thèse
Many autonomous robots with specific control oriented architectures have already been developed worldwide.The advance of the work in this field has led researchers wonder for many years to what extent robots would be able to be integrated into a team consisting of autonomous and heterogeneous vehicles with complementary functionalities. However, robot cooperation in a real dynamic environment under unreliable communication conditions remains challenging, especially if these autonomous vehicles have different individual control architectures.In order to address this problem, we have designed a decision software architecture, distributed on each vehicle.This decision layer aims at managing execution and at increasing the fault tolerance of the global system. The mission plan is assumed to be hierarchically structured. ln case of failure detection, the plan repair is done as locally as possible, based on the hierarchical organization.This allows us to restrict message exchange only between the vehicles concerned by the repair process. Knowledge formalisation is also a part of the study permitting the improvement of interoperability between team members. It also provides relevant information all along mission execution, from initial planning computation to plan repair in this multirobot context. The feasibility of the system has been evaluated by simulations and real experiments thanks to the Action project (http://action.onera.fr/welcome/)
Styles APA, Harvard, Vancouver, ISO, etc.
30

Fayemi, Pierre-Emmanuel. « Innovation par la conception bio-inspirée : proposition d'un modèle structurant les méthodes biomimétiques et formalisation d'un outil de transfert de connaissances ». Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0062/document.

Texte intégral
Résumé :
La bio-inspiration applique des principes et des stratégies issus de systèmes biologiques afin de faciliter la conception technologique. Doté d’un fort potentiel pour l’Innovation, la biomimétique, son pendant méthodologique, est en passe d’évoluer vers un processus clé pour les entreprises. Un certain nombre de freins demeurent cependant à lever afin que la conception bio-inspirée s’apparente à une démarche robuste et répétable. Les travaux réalisés abordent cette diffusion de la conception bio-inspirée selon deux axes distincts. Ils s’efforcent tout d’abord d’harmoniser champs conceptuels relatifs à la bio-inspiration et modèles de processus biomimétiques, en vue de rendre possible l’évaluation des outils supportant cette démarche de conception. Cette évaluation méthodologique, couverte selon l’angle objectif et subjectif, aboutit à la formalisation d’un modèle structurant, un arbre de classification, à même de guider les concepteurs biomimétiques à travers le processus biomimétique. En parallèle de l’établissement de ce cadre de référence méthodologique, les travaux s’évertuent à explorer un autre verrou inhérent à la démarche : l’interaction entre biologie et ingénierie. Les travaux tendent ainsi, par le développement d’un outil, à réduire l’une des barrières d’entrée de ce type d’approche, en proposant un modèle décrivant fonctionnellement les systèmes biologiques sans prérequis d’expertise biologique. La concaténation de ces réalisations aborde directement l’enjeu principal de ce champs disciplinaire : son essor par la dissémination de son application à l’innovation industrielle, en vue de favoriser l’émergence de « produits biomimétiques » au détriment des « accidents bio-inspirées »
Biomimetics applies principles and strategies which stem from biological systems in order to facilitate technological design. Providing a high innovation potential, biomimetics could become a key process for various business. However, there are still a few challenges to overcome in order for the bioinspired design to become a sustainable approach. The work which has been carried out addresses this bioinspired design diffusion with two distinct focuses. First of all, they tend to standardize conceptual fields for bio-inspiration and biomimetic process models to enable the evaluation of tools supporting said design process. This methodological assessment, addressed from an objective and subjective point of view, results in the formalization of a structuring model, a classification tree which guides designers through the biomimetic process. Alongside the development of this methodological reference framework establishment, the work tends to overcome another obstacle of the bioinspired design implementation which is the interaction between biology and engineering. By developing a specific tool, the research studies offer a model which functionally describes biological systems without biological expertise prerequisites. The concatenation of these accomplishments addresses the main issue of these disciplinary fields: its development through the dissemination of its application to industrial innovation, in order to encourage the emergence of “biomimetic products” at the expense of “bio-inspired accidents”
Styles APA, Harvard, Vancouver, ISO, etc.
31

Sarmiento, Lozano Camilo. « Formalisation des raisonnements éthiques : modélisation des processus en éthique et modélisation, représentation et automatisation du raisonnement causal ». Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS047.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le domaine de l'éthique computationnelle dont le but est de formaliser le raisonnement éthique. Autrement dit, ce travail fait partie du domaine qui cherche à reproduire notre capacité en tant qu'êtres rationnels à évaluer moralement une action. Deux objectifs sont recherchés au travers de la formalisation de ce raisonnement : mieux le comprendre et l'intégrer dans des systèmes informatiques de sorte à assurer que les décisions prises soient conformes à des principes moraux choisis.Cette thèse contribue à ce domaine de deux façons. Un premier groupe de contributions est lié à la proposition d'un cadre commun permettant de formaliser de façon fidèle les principes moraux les plus courants dans la philosophie occidentale. Pour reprendre les termes du titre, ce premier groupe de contributions peut être résumé en quelques mots comme la « modélisation des processus en éthique ». Le deuxième groupe de contributions est lié à la proposition d'une formalisation du raisonnement causal. En plus de permettre une meilleure compréhension de ce raisonnement, cette formalisation rend possible de l'intégrer dans des systèmes informatiques de sorte à pouvoir établir des relations causales complexes. Cette capacité intervient dans la formalisation d'un grand nombre de principes moraux. Ayant pour objectif que notre proposition puisse être utilisée dans la formalisation de tous ces principes moraux, nous l'avons conçue de sorte à ce qu'elle satisfasse un certain nombre de conditions. Tout d'abord, notre formalisation repose sur un formalisme permettant de rendre explicites la plupart des subtilités des problèmes, aussi bien pour le raisonnement causal que le raisonnement éthique. Ensuite, la définition de causalité intégrée dans notre formalisme est dépourvue de toute confusion avec la notion de responsabilité. Sans cela, elle ne pourrait pas être commune à la formalisation de tous les principes moraux. Finalement, notre proposition est en capacité de traiter tous les cas causaux, dont les plus complexes. Pour reprendre les termes du titre, ce deuxième groupe de contributions peut être décrit comme la « modélisation, représentation et automatisation du raisonnement causal ». Les contributions principales de cette thèse appartiennent à ce deuxième groupe
This thesis is in the field of computational ethics, which aims to formalise ethical reasoning. In other words, this work is part of the field that seeks to emulate our capacity as rational beings to morally evaluate an action. The formalisation of this reasoning has two objectives: to better understand it and to integrate it into computer systems to ensure that decisions made comply with chosen moral principles.This thesis makes a contribution to the field in two ways. Firstly, it proposes a common framework for formalising faithfully the most common moral principles in Western philosophy. This first contribution can be summarised as 'modelling ethical processes'. The second set of contributions pertains to the proposal for formalising causal reasoning. This formalisation not only enhances our comprehension of this reasoning but also enables its integration into computer systems, facilitating the establishment of complex causal relationships. This capability is crucial for formalising a wide range of moral principles. To ensure that our proposal can formalise all these moral principles, we have designed it to satisfy a number of conditions. Firstly, our formalisation is based on a formalism that explicitly addresses the subtleties of problems related to both causal and ethical reasoning. Secondly, our formalism's definition of causality free of any confusion with the notion of responsibility. Otherwise, it would not be common to formalise all moral principles. Finally, our proposal can handle all causal cases, including the most complex. The second group of contributions focuses on 'modelling, representing and automating causal reasoning'. The main contributions of this thesis belong to this second group
Styles APA, Harvard, Vancouver, ISO, etc.
32

Muro, Amuchastegui Naiara. « Développement d'un système avancé d'aide à la décision clinique : enrichir la connaissance issue des guides de pratique clinique avec l'expérience ». Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS266.

Texte intégral
Résumé :
La médecine fondée sur les preuves a permis de formaliser des guides de pratique clinique qui définissent des flux de travail et des recommandations à suivre pour un domaine clinique concis. Ces guides se sont construits dans le but de standardiser les soins de santé et d'obtenir les meilleurs résultats possibles pour les patients. Néanmoins, les médecins n’adhèrent pas toujours à ces directives en raison de diverses limitations cliniques et de mise-en-œuvre. D’une part, les médecins n’ont pas toujours familiarisés ou en accord avec les lignes directrices des guides de pratique clinique, doutant ainsi de leur efficacité et des résultats attendus par rapport aux pratiques antérieures. D'autre part, maintenir ces guides à jour en incluant les dernières preuves établies requiert une gestion continue d’une documentation établie sur support papier. Les systèmes d'aide à la décision clinique sont ainsi proposés comme aide durant le processus de prise de décision clinique, par la mise en œuvre informatisée des guides pour promouvoir leur consultation et l’adhésion des médecins. Bien que ces systèmes aident à améliorer la conformité des guides, il subsiste certains obstacles hérités des guides sur support papier qui ne sont pas résolus avec leur mise en œuvre informatisée, comme le traitement des cas complexes non-définis dans les directives ou le manque de représentation d'autres facteurs externes qui peuvent influer sur les traitements fournis et faire dévier des recommandations des guides (c.-à-d. les préférences du patient). La présente thèse propose un système avancé d'aide à la décision clinique pour faire face aux limitations du soutien purement basé en guides et aller au-delà des connaissances formalisées en analysant les données cliniques, les résultats et les performances de toutes les décisions prises au fil du temps. Pour atteindre ces objectifs, une approche de modélisation des connaissances et performances cliniques de manière sémantique validée et informatisée a été présentée, en s'appuyant sur une ontologie et avec la formalisation du concept d'Événement Décisionnel. De plus, un cadre indépendant du domaine a été mis en place pour faciliter le processus d'informatisation, de mise à jour et de mise en œuvre des guides de pratique clinique au sein d'un système d'aide à la décision clinique afin de fournir un soutien clinique à pour chaque patient interrogé. Pour répondre aux limites des guides, une méthodologie permettant d’augmenter les connaissances cliniques en utilisant l'expérience a été présentée ainsi qu'une évaluation de la performance clinique et de la qualité au fil du temps, en fonction des différents résultats cliniques étudiés, tels que l'utilisabilité et la fiabilité clinique derrière les connaissances cliniques formalisées. Enfin, les données du monde réel accumulées ont été explorées pour soutenir les cas futurs, promouvoir l'étude de nouvelles hypothèses cliniques et aider à la détection des tendances et des modèles sur les données à l'aide d'outils d'analyse visuelle. Les modules présentés ont été développés et mis en œuvre dans leur majorité dans le cadre du projet européen Horizon 2020 DESIREE, dans lequel le cas d'utilisation était axé sur le soutien des unités de soins du sein au cours du processus décisionnel pour la prise en charge des patientes atteintes d'un cancer du sein primaire, en effectuant une validation technique et clinique sur l'architecture présentée, dont les résultats sont présentés dans cette thèse. Néanmoins, certains des modules ont également été utilisés dans d'autres domaines médicaux tels que le développement des guides de pratique clinique pour le diabète gestationnel, mettant en évidence l'interopérabilité et la flexibilité du travail présenté
Evidence-Based Medicine has been formalized as Clinical Practice Guidelines, which define workflows and recommendations to be followed for a given clinical domain. These documents were formalized aiming to standardize healthcare and seeking the best patient outcomes. Nevertheless, clinicians do not adhere as expected to these guidelines due to several clinical and implementation limitations. On one hand, clinicians do not feel familiar, agree with and or are unaware of guidelines, hence doubting their self-efficacy and outcome expectancy compared to previous or more common practices. On the other hand, maintaining these guidelines updated with the most recent evidence requires continuous versioning of these paper-based documents. Clinical Decision Support Systems are proposed to help during the clinical decision-making process with the computerized implementation of the guidelines to promote their easy consultation and increased compliance. Even if these systems help improving guideline compliance, there are still some barriers inherited from paper-based guidelines that are not solved, such as managing complex cases not defined within the guidelines or the lack of representation of other external factors that may influence the provided treatments, biasing from guidelines’ recommendations (i.e. patient preferences). Retrieving observational data and patients’ quality of life outcomes related to the provided healthcare during routine clinical practice could help to identify and overcome these limitations and would generate Real World Data representing the real population and going beyond the limitations of the knowledge reported in the Randomized Clinical Trials. This thesis proposes an advanced Clinical Decision Support System for coping with the purely guideline-based support limitations and going beyond the formalized knowledge by analyzing the clinical data, outcomes, and performance of all the decisions made over time. To achieve these objectives, an approach for modeling the clinical knowledge and performance in a semantically validated and computerized way has been presented, leaning on an ontology and the formalization of the Decisional Event concept. Moreover, a domain-independent framework has been implemented for easing the process of computerizing, updating and implementing Clinical Practice Guidelines within a Clinical Decision Support System in order to provide clinical support for any queried patient. For addressing the reported guideline limitations, a methodology for augmenting the clinical knowledge using experience has been presented along with some clinical performance and quality evaluation over time, based on different studied clinical outcomes, such as the usability and the strength of the rules for evaluating the clinical reliability behind the formalized clinical knowledge. Finally, the accumulated Real World Data was explored to support future cases, promoting the study of new clinical hypotheses and helping in the detection of trends and patterns over the data using visual analytics tools. The presented modules had been developed and implemented in their majority within the European Horizon 2020 project DESIREE, in which the use case was focused on supporting Breast Units during the decision-making process for Primary Breast Cancer patients management, performing a technical and clinical validation over the presented architecture, whose results are presented in this thesis. Nevertheless, some of the modules have been also used in other medical domains such as Gestational Diabetes guidelines development, highlighting the interoperability and flexibility of the presented work
Styles APA, Harvard, Vancouver, ISO, etc.
33

Bévo, Wandji Évariste Valéry. « Analyse et formalisation ontologique des procédures de mesure associées aux méthodes de mesure de la taille fonctionnelle des logiciels : de nouvelles perspectives pour la mesure / ». Montréal : Université du Québec à Montréal, 2005. http://accesbib.uqam.ca/cgi-bin/bduqam/transit.pl?&noMan=24144802.

Texte intégral
Résumé :
Thèse (D. en informatique cognitive)--Université du Québec à Montréal, 2005.
En tête du titre: Université du Québec à Montréal. Bibliogr.: f. [172]-186. Publié aussi en version électronique.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Abadie, Nathalie. « Formalisation, acquisition et mise en œuvre de connaissances pour l'intégration virtuelle de bases de données géographiques : les spécifications au cœur du processus d'intégration ». Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00794395.

Texte intégral
Résumé :
Cette thèse traite de l'intégration de bases de données topographiques qui consiste à expliciter les relations de correspondance entre bases de données hétérogènes, de sorte à permettre leur utilisation conjointe. L'automatisation de ce processus d'intégration suppose celle de la détection des divers types d'hétérogénéité pouvant intervenir entre les bases de données topographiques à intégrer. Ceci suppose de disposer, pour chacune des bases à intégrer, de connaissances sur leurs contenus respectifs. Ainsi, l'objectif de cette thèse réside dans la formalisation, l'acquisition et l'exploitation des connaissances nécessaires pour la mise en œuvre d'un processus d'intégration virtuelle de bases de données géographiques vectorielles. Une première étape du processus d'intégration de bases de données topographiques consiste à apparier leurs schémas conceptuels. Pour ce faire, nous proposons de nous appuyer sur une source de connaissances particulière : les spécifications des bases de données topographiques. Celles-ci sont tout d'abord mises à profit pour la création d'une ontologie du domaine de la topographie. Cette ontologie est utilisée comme ontologie de support, dans le cadre d'une première approche d'appariement de schémas de bases de données topographiques, fondée sur des techniques d'appariement terminologiques et structurelles. Une seconde approche, inspirée des techniques d'appariement fondées sur la sémantique, met en œuvre cette ontologie pour la représentation des connaissances sur les règles de sélection et de représentation géométrique des entités géographiques issues des spécifications dans le langage OWL 2, et leur exploitation par un système de raisonnement
Styles APA, Harvard, Vancouver, ISO, etc.
35

Abadie, Nathalie. « Formalisation, acquisition et mise en œuvre de connaissances pour l’intégration virtuelle de bases de données géographiques : les spécifications au cœur du processus d’intégration ». Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1054/document.

Texte intégral
Résumé :
Cette thèse traite de l'intégration de bases de données topographiques qui consiste à expliciter les relations de correspondance entre bases de données hétérogènes, de sorte à permettre leur utilisation conjointe. L'automatisation de ce processus d'intégration suppose celle de la détection des divers types d'hétérogénéité pouvant intervenir entre les bases de données topographiques à intégrer. Ceci suppose de disposer, pour chacune des bases à intégrer, de connaissances sur leurs contenus respectifs. Ainsi, l'objectif de cette thèse réside dans la formalisation, l'acquisition et l'exploitation des connaissances nécessaires pour la mise en œuvre d'un processus d'intégration virtuelle de bases de données géographiques vectorielles. Une première étape du processus d'intégration de bases de données topographiques consiste à apparier leurs schémas conceptuels. Pour ce faire, nous proposons de nous appuyer sur une source de connaissances particulière : les spécifications des bases de données topographiques. Celles-ci sont tout d'abord mises à profit pour la création d'une ontologie du domaine de la topographie. Cette ontologie est utilisée comme ontologie de support, dans le cadre d'une première approche d'appariement de schémas de bases de données topographiques, fondée sur des techniques d'appariement terminologiques et structurelles. Une seconde approche, inspirée des techniques d'appariement fondées sur la sémantique, met en œuvre cette ontologie pour la représentation des connaissances sur les règles de sélection et de représentation géométrique des entités géographiques issues des spécifications dans le langage OWL 2, et leur exploitation par un système de raisonnement
This PhD thesis deals with topographic databases integration. This process aims at facilitating the use of several heterogeneous databases by making the relationships between them explicit. To automatically achieve databases integration, several aspects of data heterogeneity must be detected and solved. Identifying heterogeneities between topographic databases implies comparing some knowledge about their respective contents. Therefore, we propose to formalise and acquire this knowledge and to use it for topographic databases integration. Our work focuses on the specific problem of topographic databases schema matching, as a first step in an integration application. To reach this goal, we propose to use a specific knowledge source, namely the databases specifications, which describe the data implementing rules. Firstly, they are used as the main resource for the knowledge acquisition process in an ontology learning application. As a first approach for schema matching, the domain ontology created from the texts of IGN's databases specifications is used as a background knowledge source in a schema matching application based on terminological and structural matching techniques. In a second approach, this ontology is used to support the representation, in the OWL 2 language, of topographic entities selection and geometry capture rules described in the databases specifications. This knowledge is then used by a reasoner in a semantic-based schema matching application
Styles APA, Harvard, Vancouver, ISO, etc.
36

Thiefaine, Arnaud. « Caractérisation et formalisation du processus de développement construit autour du paradigme de l' ingénierie des modèles : vers une ingénierie des modèles d' ordre 2 ». Paris 6, 2005. http://www.theses.fr/2005PA066251.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

Schmeltzer, Olivier. « Modélisation de cartes génomiques : une formalisation et un algorithme de construction fondé sur le raisonnement temporel ». Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00005062.

Texte intégral
Résumé :
La modélisation de cartes génomiques, qui sont un outil indispensable aux biologistes moléculaires, pose de nombreux problémes de représentation et de traitement. Les premiers proviennent de l'existence de plusieurs descriptions des entités du génome, les seconds de la complexité algorithmique de la construction des cartes, ajoutée à la nécessité de pouvoir traiter les incohérences issues des expériences. Ce travail s'attache dans un premier temps à préciser la notion de carte grâce à une formalisation qui spécifie comment sont construites les cartes génomiques et quelles sont les relations entre les entités qui y apparaissent. Celle-ci est ensuite implémentée dans un système de représentation de connaissances par objets. Dans un second temps, un algorithme de construction de cartes à partir de la description des relations entre les entités qui les constituent est proposé. Cet algorithme s'appuie sur des techniques de raisonnement temporel et intègre des informations aussi bien qualitatives que quantitatives. Son implémentation a été réalisée à partir d'un logiciel de raisonnement temporel et valide la généricité de la démarche qui peut profiter de tous les progrès dans ce domaine de façon quasi-immédiate. Les spécifications d'un générateur d'interfaces cartographiques sont également présentées ; à la différence des systèmes existants, ce générateur n'est pas restreint à une seule interface cartographique ad hoc mais constitue une boite à outils permettant de construire soi-même son interface cartographique personnalisée.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Reynaud, Christian. « Contribution à la formalisation et à la communication d'un concept d'écologie des milieux littoraux : les ecosystèmes paraliques - interprétation épistémologique et propositions didactiques ». Montpellier 2, 1997. http://www.theses.fr/1997MON20039.

Texte intégral
Résumé :
Le concept d'ecosystemes paraliques rassemble differents types de milieux littoraux pour apprehender leur fonctionnement d'une maniere innovante. Il permet ainsi de proposer des solutions a des problemes concrets tels que le choix de sites d'implantation d'elevages de poissons, la reconstitution de paleo-milieux ou la recherche de sites petroliferes. Participer a la stabilisation sociale d'un nouveau concept constituant une opportunite remarquable pour une etude didactique, nous l'avons saisie en collaborant avec les chercheurs ayant developpe ce nouveau champ theorique afin de formaliser un modele didactique susceptible de faciliter l'appropriation des connaissances par divers publics. Ce modele du concept a ete elabore en organisant ses caracteristiques formelles et en faisant reference aux problemes qu'il permet de resoudre. Ce travail de formalisation s'appuie sur une approche epistemologique et integre les resultats d'etudes preliminaires ayant permis d'analyser les conditions de communication du concept dans 3 contextes differents (vulgarisation scientifique, rapports d'expertises et colloques scientifiques). Un dispositif didactique experimental utilisant la formalisation du concept, des situations-problemes issues d'expertises et un debat entre les participants (debat socio-cognitif) a finalement ete propose pour evaluer l'efficacite de cette approche originale d'un concept. L'evaluation de la capacite a resoudre des problemes non routiniers a ete conduite aupres de 5 echantillons d'etudiants de l'universite, chaque seance ayant permis de perfectionner le dispositif. Les resultats de cette evaluation montrent que notre approche semble avoir contribue avantageusement a l'acquisition du concept. Les principes mis en uvre pour construire le dispositif devraient donc pouvoir etre utilises pour communiquer d'autres concepts de biologie. Ils pourraient aussi etre adaptes aux contraintes d'autres contextes de communication (formation, vulgarisation, etc. )
Styles APA, Harvard, Vancouver, ISO, etc.
39

Cazalens, Sylvie. « Formalisation en logique non standard de certaines méthodes de raisonnement pour fournir des réponses coopératives, dans des systèmes de bases de données et de connaissances ». Toulouse 3, 1992. http://www.theses.fr/1992TOU30172.

Texte intégral
Résumé :
Un systeme de bases de donnees et de connaissances est cooperatif s'il fournit de lui-meme des informations additionnelles interessantes pour l'usager. Une telle fonctionnalite necessite de tenir compte du domaine d'interet de l'usager. Plusieurs methodes existent, qui estiment ce domaine grace a la seule analyse de la question de l'usager (sous la forme d'une requete type sql, ou sous une forme etendue), ou a l'utilisation supplementaire d'une modelisation de l'usager. Cependant, pour chacune, reviennent, de maniere sous-jacente, les notions d'interet d'une information et de raisonnement pour deduire des informations interessantes. La formalisation de ces notions cles est donc etudiee, pour certaines methodes. Des outils correctement adaptes s'averent etre fournis par les logiques non-standards
Styles APA, Harvard, Vancouver, ISO, etc.
40

Léger, Aurélie. « Contribution à la formalisation unifiée des connaissances fonctionnelles et organisationnelles d'un système industriel en vue d'une évaluation quantitative des risques et de l'impact des barrières envisagées ». Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00417164.

Texte intégral
Résumé :
Depuis la révolution industrielle, l'Homme développe des systèmes industriels pour satisfaire ses exigences de production. Mais exploiter ces installations n'est pas sans risques pour les utilisateurs. De ce fait, l'analyse des risques s'est largement développée durant ces dernières décennies. En effet, si dans les années 70, les études se focalisaient sur les défaillances technologiques, des accidents ont souligné l'importance des facteurs humains et organisationnels dans leur occurrence. Si bien que dans les années 80, des méthodes consacrées à l'identification de ces facteurs ont émergées. Ces études, impliquant différentes disciplines, étaient jusqu'alors conçues et conduites séparément les unes des autres. Cet état de fait amène à une sectorisation des analyses et ne permet pas d'avoir une vision globale de la situation étudiée. Mais, depuis peu, des méthodologies proposent d'intégrer (partiellement) ces dimensions dans la démarche d'analyse. Le manque d'intégration constitue aujourd'hui une problématique, scientifique et industrielle, pour les exploitants de systèmes critiques. Ainsi, notre contribution porte sur le développement d'une méthodologie permettant l'analyse de risques de systèmes socio-techniques en exploitation. Ce type d'analyse vise à probabiliser le risque à des fins d'aide à la décision. En ce sens, nous proposons une démarche de formalisation, d'intégration, de représentation et de modélisation des différentes connaissances du système. Le modèle présenté permet d'identifier l'ensemble des causes menant à l'occurrence d'un événement critique, en considérant les données techniques du système et les données liées aux opérateurs et à l'organisation.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Léger, Aurélie Iung Benoît. « Contribution à la formalisation unifiée des connaissances fonctionnelles et organisationnelles d'un système industriel en vue d'une évaluation quantitative des risques et de l'impact des barrières envisagées ». S. l. : S. n, 2009. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2009_0058_LEGER.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
42

Ruin, Thomas. « Contribution à la quantification des programmes de maintenance complexes ». Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0202.

Texte intégral
Résumé :
Face aux nouveaux cadres législatifs ou environnementaux dans lesquels ils doivent évoluer, les systèmes industriels actuels sont, en plus d'être contraints par des exigences classiques de productivité et de cout, sujets au respect de nouvelles exigences relatives à la sûreté, la sécurité ou au développement durable notamment. Pour répondre à ces exigences et améliorer la maitrise des performances de ses systèmes, EDF souhaite faire évoluer sa démarche d'Optimisation de la Maintenance Basée sur la Fiabilité vers une nouvelle méthode. Cette méthode nécessite en autre la proposition d'une approche outillée permettant de quantifier a priori les programmes de maintenance (CMPQ) sur ses systèmes par rapport aux indicateurs de performance attendus (KPIs). Cet outillage fait l'objet de cette thèse financée dans le cadre du GIS 3SGS - projet DEPRADEM 2. Après avoir généralisé les besoins d'EDF en regard de la CMPQ, nous proposons une identification de la connaissance générique nécessaire pour évaluer les KPI. Afin d'aboutir à un outil permettant l'automatisation de ces études de CMPQ, cette connaissance générique est ensuite modélisée sur la base de deux langages : le langage semi-formel SysML capitalisant, par l'intermédiaire de différents diagrammes, la connaissance statique, interactionnelle et comportementale ; et le langage AltaRicaDF, supportant un modèle dynamique permettant d'évaluer les KPIs par simulation stochastique. La création de ce modèle dynamique à partir des différents diagrammes est basée sur un mapping entre les concepts d'intérêt des deux langages. La démarche dans sa globalité est validée à la CMPQ d'un cas d'étude fourni par EDF : le système ARE
To face with new legislatives and environmental contexts in which they have to operate, it is needed now that the industrials systems have to satisfy to many different requirements and constraints. Thus, these requirements are not only conventional ones such as availability and costs, but also emergent ones such as safety and sustainability. This report implies for the specific French company EDF (energy power supplier) to evolve from its usual approach of reliability centered maintenance (RCM) to a new approach. It is consisting mainly in developing a tool able to support the Complex Maintenance Programs Quantification (CMPQ). This Ph.D. is dealing with this the engineering and deployment of this tool in the frame of the GIS 3SGS - DEPRADEM 2 project. The first step of the work is to generalize EDF needs, then to propose a framework enabling to identify required generic knowledge needed to assess the Key Performances Indicators (KPIs) for supporting quantification. The next step is to model the generic knowledge in two complementary ways: a formalization of the static, interactional and behavioral knowledge based on different SysML diagrams; and a formalization of the dynamic and executable knowledge formalized by AltaRicaDF (ADF) language, allowing to perform stochastic simulation and to assess required KPIs. The path to elaborate dynamic executable vision from SysML diagrams is released by means of rules between each element of interest of both languages. All this approach/tool is applied to a specific EDF case study: the ARE system
Styles APA, Harvard, Vancouver, ISO, etc.
43

Ruin, Thomas. « Contribution à la quantification des programmes de maintenance complexes ». Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00944825.

Texte intégral
Résumé :
Face aux nouveaux cadres législatifs ou environnementaux dans lesquels ils doivent évoluer, les systèmes industriels actuels sont, en plus d'être contraints par des exigences classiques de productivité et de cout, sujets au respect de nouvelles exigences relatives à la sûreté, la sécurité ou au développement durable notamment. Pour répondre à ces exigences et améliorer la maitrise des performances de ses systèmes, EDF souhaite faire évoluer sa démarche d'Optimisation de la Maintenance Basée sur la Fiabilité vers une nouvelle méthode. Cette méthode nécessite en autre la proposition d'une approche outillée permettant de quantifier a priori les programmes de maintenance (CMPQ) sur ses systèmes par rapport aux indicateurs de performance attendus (KPIs). Cet outillage fait l'objet de cette thèse financée dans le cadre du GIS 3SGS - projet DEPRADEM 2. Après avoir généralisé les besoins d'EDF en regard de la CMPQ, nous proposons une identification de la connaissance générique nécessaire pour évaluer les KPI. Afin d'aboutir à un outil permettant l'automatisation de ces études de CMPQ, cette connaissance générique est ensuite modélisée sur la base de deux langages : le langage semi-formel SysML capitalisant, par l'intermédiaire de différents diagrammes, la connaissance statique, interactionnelle et comportementale ; et le langage AltaRicaDF, supportant un modèle dynamique permettant d'évaluer les KPIs par simulation stochastique. La création de ce modèle dynamique à partir des différents diagrammes est basée sur un mapping entre les concepts d'intérêt des deux langages. La démarche dans sa globalité est validée à la CMPQ d'un cas d'étude fourni par EDF : le système ARE.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Potes, Ruiz Paula Andrea. « Génération de connaissances à l’aide du retour d’expérience : application à la maintenance industrielle ». Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0089/document.

Texte intégral
Résumé :
Les travaux de recherche présentés dans ce mémoire s’inscrivent dans le cadre de la valorisation des connaissances issues des expériences passées afin d’améliorer les performances des processus industriels. La connaissance est considérée aujourd'hui comme une ressource stratégique importante pouvant apporter un avantage concurrentiel décisif aux organisations. La gestion des connaissances (et en particulier le retour d’expérience) permet de préserver et de valoriser des informations liées aux activités d’une entreprise afin d’aider la prise de décision et de créer de nouvelles connaissances à partir du patrimoine immatériel de l’organisation. Dans ce contexte, les progrès des technologies de l’information et de la communication jouent un rôle essentiel dans la collecte et la gestion des connaissances. L’implémentation généralisée des systèmes d’information industriels, tels que les ERP (Enterprise Resource Planning), rend en effet disponible un grand volume d’informations issues des événements ou des faits passés, dont la réutilisation devient un enjeu majeur. Toutefois, ces fragments de connaissances (les expériences passées) sont très contextualisés et nécessitent des méthodologies bien précises pour être généralisés. Etant donné le potentiel des informations recueillies dans les entreprises en tant que source de nouvelles connaissances, nous proposons dans ce travail une démarche originale permettant de générer de nouvelles connaissances tirées de l’analyse des expériences passées, en nous appuyant sur la complémentarité de deux courants scientifiques : la démarche de Retour d’Expérience (REx) et les techniques d’Extraction de Connaissances à partir de Données (ECD). Le couplage REx-ECD proposé porte principalement sur : i) la modélisation des expériences recueillies à l’aide d’un formalisme de représentation de connaissances afin de faciliter leur future exploitation, et ii) l’application de techniques relatives à la fouille de données (ou data mining) afin d’extraire des expériences de nouvelles connaissances sous la forme de règles. Ces règles doivent nécessairement être évaluées et validées par les experts du domaine avant leur réutilisation et/ou leur intégration dans le système industriel. Tout au long de cette démarche, nous avons donné une place privilégiée aux Graphes Conceptuels (GCs), formalisme de représentation des connaissances choisi pour faciliter le stockage, le traitement et la compréhension des connaissances extraites par l’utilisateur, en vue d’une exploitation future. Ce mémoire s’articule en quatre chapitres. Le premier constitue un état de l’art abordant les généralités des deux courants scientifiques qui contribuent à notre proposition : le REx et les techniques d’ECD. Le second chapitre présente la démarche REx-ECD proposée, ainsi que les outils mis en œuvre pour la génération de nouvelles connaissances afin de valoriser les informations disponibles décrivant les expériences passées. Le troisième chapitre présente une méthodologie structurée pour interpréter et évaluer l’intérêt des connaissances extraites lors de la phase de post-traitement du processus d’ECD. Finalement, le dernier chapitre expose des cas réels d’application de la démarche proposée à des interventions de maintenance industrielle
The research work presented in this thesis relates to knowledge extraction from past experiences in order to improve the performance of industrial process. Knowledge is nowadays considered as an important strategic resource providing a decisive competitive advantage to organizations. Knowledge management (especially the experience feedback) is used to preserve and enhance the information related to a company’s activities in order to support decision-making and create new knowledge from the intangible heritage of the organization. In that context, advances in information and communication technologies play an essential role for gathering and processing knowledge. The generalised implementation of industrial information systems such as ERPs (Enterprise Resource Planning) make available a large amount of data related to past events or historical facts, which reuse is becoming a major issue. However, these fragments of knowledge (past experiences) are highly contextualized and require specific methodologies for being generalized. Taking into account the great potential of the information collected in companies as a source of new knowledge, we suggest in this work an original approach to generate new knowledge based on the analysis of past experiences, taking into account the complementarity of two scientific threads: Experience Feedback (EF) and Knowledge Discovery techniques from Databases (KDD). The suggested EF-KDD combination focuses mainly on: i) modelling the experiences collected using a knowledge representation formalism in order to facilitate their future exploitation, and ii) applying techniques related to data mining in order to extract new knowledge in the form of rules. These rules must necessarily be evaluated and validated by experts of the industrial domain before their reuse and/or integration into the industrial system. Throughout this approach, we have given a privileged position to Conceptual Graphs (CGs), knowledge representation formalism chosen in order to facilitate the storage, processing and understanding of the extracted knowledge by the user for future exploitation. This thesis is divided into four chapters. The first chapter is a state of the art addressing the generalities of the two scientific threads that contribute to our proposal: EF and KDD. The second chapter presents the EF-KDD suggested approach and the tools used for the generation of new knowledge, in order to exploit the available information describing past experiences. The third chapter suggests a structured methodology for interpreting and evaluating the usefulness of the extracted knowledge during the post-processing phase in the KDD process. Finally, the last chapter discusses real case studies dealing with the industrial maintenance domain, on which the proposed approach has been applied
Styles APA, Harvard, Vancouver, ISO, etc.
45

Laloix, Thomas. « Méthodologie d’élaboration d’un bilan de santé de machines de production pour aider à la prise de décision en exploitation : application à un centre d’usinage à partir de la surveillance des composants de sa cinématique ». Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0291/document.

Texte intégral
Résumé :
Ce travail de thèse a été initié par Renault, en collaboration avec le Centre de Recherche en Automatique de Nancy (CRAN), dans le but de poser les bases d'une méthodologie générique permettant d'évaluer l'état de santé de moyens de production. Cette méthodologie est issue d’une réflexion conjointe machine - produit en lien avec les exigences industrielles. La méthodologie proposée est basée sur une approche PHM (Prognostics and Health Management) et est structurée en cinq étapes séquentielles. Les deux premières étapes sont développées dans ce travail de thèse et en constituent les contributions scientifiques majeures. La première originalité représente la formalisation des connaissance issues de la relation machine-produit. Cette connaissance est basée sur l'extension de méthodes existantes telle que l’AMDEC et l’HAZOP. La formalisation des concepts de connaissance et de leurs interactions est matérialisée au moyen d'une méta-modélisation basée sur une modélisation UML (Unified Modelling Language). Cette contribution conduit à l'identification de paramètres pertinents à surveiller, depuis le niveau du composant jusqu'au niveau de la machine. Ces paramètres servent ensuite d’entrée au processus d'élaboration du bilan de santé machine, qui représente la deuxième originalité de la thèse. L'élaboration de ces indicateurs de santé est basée sur des méthodes d’agrégation, telle que l'intégrale de Choquet, soulevant la problématique de l'identification des capacités. De cette façon, il est proposé un modèle global d'optimisation de l'identification des capacités multi-niveaux du système à travers l’utilisation d’Algorithmes Génétiques. La faisabilité et l'intérêt d'une telle démarche sont démontrés sur le cas de la machine-outil située à l'usine RENAULT de Cléon
This PhD work has been initiated by Renault, in collaboration with Nancy Research Centre in Automatic Control (CRAN), with the aim to propose the foundation of a generic PHM-based methodology leading to machine health check regarding machine-product joint consideration and facing industrial requirements. The proposed PHM-based methodology is structured in five steps. The two first steps are developed in this PhD work and constitute the major contributions. The first originality represents the formalization of machine-product relationship knowledge based on the extension of well-known functioning/dysfunctioning analysis methods. The formalization is materialized by means of meta-modelling based on UML (Unified Modelling Language). This contribution leads to the identification of relevant parameters to be monitored, from component up to machine level. These parameters serve as a basis of the machine health check elaboration. The second major originality of the thesis aims at the definition of health check elaboration principles from the previously identified monitoring parameters and formalized system knowledge. Elaboration of such health indicators is based on Choquet integral as aggregation method, raising the issue of capacity identification. In this way, it is proposed a global optimization model of capacity identification according to system multi-level, by the use of Genetic Algorithms. Both contributions are developed with the objective to be generic (not only oriented on a specific class of equipment), according to industrial needs. The feasibility and the interests of such approach are shown on the case of machine tool located in RENAULT Cléon Factory
Styles APA, Harvard, Vancouver, ISO, etc.
46

Traore, Lamine. « Semantic modeling of an histopathology image exploration and analysis tool ». Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066621/document.

Texte intégral
Résumé :
La formalisation des données cliniques est réalisée et adoptée dans plusieurs domaines de la santé comme la prévention des erreurs médicales, la standardisation, les guides de bonnes pratiques et de recommandations. Cependant, la communauté n'arrive pas encore à tirer pleinement profit de la valeur de ces données. Le problème majeur reste la difficulté à intégrer ces données et des services sémantiques associés au profit de la qualité de soins. Objectif L'objectif méthodologique de ce travail consiste à formaliser, traiter et intégrer les connaissances d'histopathologie et d'imagerie basées sur des protocoles standardisés, des référentiels et en utilisant les langages du web sémantique. L'objectif applicatif est de valoriser ces connaissances dans une plateforme pour faciliter l'exploration des lames virtuelles (LV), améliorer la collaboration entre pathologistes et fiabiliser les systèmes d'aide à la décision dans le cadre spécifique du diagnostic du cancer du sein. Il est important de préciser que notre but n'est pas de remplacer le clinicien, mais plutôt de l'accompagner et de faciliter ses lourdes tâches quotidiennes : le dernier mot reste aux pathologistes. Approche Nous avons adopté une approche transversale pour la représentation formelle des connaissances d'histopathologie et d'imagerie dans le processus de gradation du cancer. Cette formalisation s'appuie sur les technologies du web sémantique
Semantic modelling of a histopathology image exploration and analysis tool. Recently, anatomic pathology (AP) has seen the introduction of several tools such as high-resolution histopathological slide scanners, efficient software viewers for large-scale histopathological images and virtual slide technologies. These initiatives created the conditions for a broader adoption of computer-aided diagnosis based on whole slide images (WSI) with the hope of a possible contribution to decreasing inter-observer variability. Beside this, automatic image analysis algorithms represent a very promising solution to support pathologist’s laborious tasks during the diagnosis process. Similarly, in order to reduce inter-observer variability between AP reports of malignant tumours, the College of American Pathologists edited 67 organ-specific Cancer Checklists and associated Protocols (CAP-CC&P). Each checklist includes a set of AP observations that are relevant in the context of a given organ-specific cancer and have to be reported by the pathologist. The associated protocol includes interpretation guidelines for most of the required observations. All these changes and initiatives bring up a number of scientific challenges such as the sustainable management of the available semantic resources associated to the diagnostic interpretation of AP images by both humans and computers. In this context, reference vocabularies and formalization of the associated knowledge are especially needed to annotate histopathology images with labels complying with semantic standards. In this research work, we present our contribution in this direction. We propose a sustainable way to bridge the content, features, performance and usability gaps between histopathology and WSI analysis
Styles APA, Harvard, Vancouver, ISO, etc.
47

Liao, Yongxin. « Annotations sémantiques pour l'interopérabilité des systèmes dans un environnement PLM ». Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00904822.

Texte intégral
Résumé :
Pour demeurer compétitives, de plus en plus d'entreprises sont amenées à collaborer dans le cadre des entreprises étendues ou des réseaux d'entreprises. Ce type d'organisation nécessite l'interconnexion d'une multitude de systèmes d'entreprises, hétérogènes que ce soit par les fonctions qu'ils assurent ou par leurs conceptions (modèles, architectures, ...). Typiquement, ceci renvoie au concept de l'interopérabilité, définie par la capacité des systèmes ou des organisations à fournir ou à accepter des services et à utiliser ces services pour opérer efficacement ensemble. L'échange de l'information et le partage des connaissances (interopérabilité technique) entre les différents systèmes d'information sont désormais des atouts majeurs pour favoriser l'activité collaborative de création de valeur. Le développement de nouvelles technologies et la mise en place de standards a contribué à résoudre (partiellement au moins) ce problème d'interopérabilité technique. Cependant, ce n'est pas suffisant pour garantir l'interopérabilité à un niveau conceptuel : c'est-à-dire garantir que les modèles issus d'une ingénierie peuvent être partagés et compris par rapport à une sémantique commune, et utilisés par les différents systèmes d'entreprise pour réaliser une mission globale. L'approche de gestion du cycle de vie du produit (PLM) est considérée comme une solution essentielle pour faciliter le partage de modèles relatifs à des produits fabriqués. Elle vise à fournir une plate-forme commune qui rassemble les différents systèmes de l'entreprise à chaque étape du cycle de vie du produit dans ou à travers les entreprises. Bien que les principaux éditeurs de logiciels fassent des efforts pour créer des outils offrant un ensemble complet et intégré de modèles, la plupart d'entre eux n'intègrent pas une gestion cohérente des connaissances formalisées dans ces modèles spécifiques à chaque métier. L'hétérogénéité tant syntaxique que sémantique de ces modèles est souvent source d'une interprétation erronée des spécifications produites par chaque environnement de modélisation. L'objectif de cette thèse est ainsi de proposer une méthode, une formalisation et des outils pour prendre en compte, tout au long du cycle de vie d'un produit, l'ensemble des connaissances tacites et explicites sous la forme d'annotations sémantiques formelles qui peuvent favoriser la compréhension partagée ainsi qu'une vérification de cohérence des modèles produits, dans un contexte PLM.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Laloix, Thomas. « Méthodologie d’élaboration d’un bilan de santé de machines de production pour aider à la prise de décision en exploitation : application à un centre d’usinage à partir de la surveillance des composants de sa cinématique ». Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0291.

Texte intégral
Résumé :
Ce travail de thèse a été initié par Renault, en collaboration avec le Centre de Recherche en Automatique de Nancy (CRAN), dans le but de poser les bases d'une méthodologie générique permettant d'évaluer l'état de santé de moyens de production. Cette méthodologie est issue d’une réflexion conjointe machine - produit en lien avec les exigences industrielles. La méthodologie proposée est basée sur une approche PHM (Prognostics and Health Management) et est structurée en cinq étapes séquentielles. Les deux premières étapes sont développées dans ce travail de thèse et en constituent les contributions scientifiques majeures. La première originalité représente la formalisation des connaissance issues de la relation machine-produit. Cette connaissance est basée sur l'extension de méthodes existantes telle que l’AMDEC et l’HAZOP. La formalisation des concepts de connaissance et de leurs interactions est matérialisée au moyen d'une méta-modélisation basée sur une modélisation UML (Unified Modelling Language). Cette contribution conduit à l'identification de paramètres pertinents à surveiller, depuis le niveau du composant jusqu'au niveau de la machine. Ces paramètres servent ensuite d’entrée au processus d'élaboration du bilan de santé machine, qui représente la deuxième originalité de la thèse. L'élaboration de ces indicateurs de santé est basée sur des méthodes d’agrégation, telle que l'intégrale de Choquet, soulevant la problématique de l'identification des capacités. De cette façon, il est proposé un modèle global d'optimisation de l'identification des capacités multi-niveaux du système à travers l’utilisation d’Algorithmes Génétiques. La faisabilité et l'intérêt d'une telle démarche sont démontrés sur le cas de la machine-outil située à l'usine RENAULT de Cléon
This PhD work has been initiated by Renault, in collaboration with Nancy Research Centre in Automatic Control (CRAN), with the aim to propose the foundation of a generic PHM-based methodology leading to machine health check regarding machine-product joint consideration and facing industrial requirements. The proposed PHM-based methodology is structured in five steps. The two first steps are developed in this PhD work and constitute the major contributions. The first originality represents the formalization of machine-product relationship knowledge based on the extension of well-known functioning/dysfunctioning analysis methods. The formalization is materialized by means of meta-modelling based on UML (Unified Modelling Language). This contribution leads to the identification of relevant parameters to be monitored, from component up to machine level. These parameters serve as a basis of the machine health check elaboration. The second major originality of the thesis aims at the definition of health check elaboration principles from the previously identified monitoring parameters and formalized system knowledge. Elaboration of such health indicators is based on Choquet integral as aggregation method, raising the issue of capacity identification. In this way, it is proposed a global optimization model of capacity identification according to system multi-level, by the use of Genetic Algorithms. Both contributions are developed with the objective to be generic (not only oriented on a specific class of equipment), according to industrial needs. The feasibility and the interests of such approach are shown on the case of machine tool located in RENAULT Cléon Factory
Styles APA, Harvard, Vancouver, ISO, etc.
49

Ferreirone, Mariano. « Extraction and integration of constraints in multiple data sources using ontologies and knowledge graphs ». Electronic Thesis or Diss., Université de Lorraine, 2025. http://www.theses.fr/2025LORR0013.

Texte intégral
Résumé :
Cette thèse explore l'introduction des graphes de formes SHACL dans des environnements sémantiques présentant des sources hétérogènes et des exigences contextuelles variées. Cette recherche propose une approche pour l'enrichissement des systèmes basés sur le Web sémantique, apportant des bénéfices à plusieurs domaines, notamment l'Industrie 4.0. La thèse commence par une large revue des travaux actuels liés à la validation des contraintes sémantiques sur les modèles de représentation des connaissances. Sur la base d'une revue systématique de la littérature, une définition d'une taxonomie décrivant les types de travaux associés est proposée. Les défis ouverts liés à la création de graphes de formes et à leur inclusion dans les environnements sémantiques existants sont mis en évidence. Le besoin d'une représentation des graphes de formes capable de s'adapter à différents contextes ainsi que l'intégration de ces graphes sont particulièrement soulignés. En s'appuyant sur les standards SHACL, un modèle de restriction sémantique représentant des groupes de formes partageant une même cible et pouvant contenir des conflits inter-formes est présenté. Un processus de configuration de pré-validation permettant d'activer le sous-graphe du modèle le mieux adapté au contexte actuel est décrit. De plus, une approche d'intégration des graphes de formes SHACL appartenant à un même environnement est proposée. L'intégration proposée résout les conflits de contraintes grâce à la spécialisation des formes. Un cas d'utilisation pratique, basé sur l'École de Ski Française, démontre l'utilisabilité des contributions proposées. Des évaluations de l'exactitude et de la cohérence du graphe de formes généré sont réalisées. Les performances des procédures mises en œuvre sont également évaluées. La thèse se conclut par un résumé des contributions et une proposition de pistes de recherche futures visant à améliorer davantage l'intégration et la représentation des graphes de formes SHACL
This thesis explores the introduction of Shapes Constraint Language graphs in semantic environments which present heterogeneous sources and different context requirements. This research presents a proposal for the enrichment of Semantic Web based systems, providing benefits for several domains such as the Industry 4.0. The thesis starts with a wide review of the current works related to the validation of semantic constraints on knowledge representation models. Based on a systematic literature review, a definition of a taxonomy which describes the related types of works is proposed. The open challenges related to the creation of shape graphs and their inclusion in existing semantic environments are highlighted. The needs for a shape graph representation which is able to attend different contexts and for the integration of shape graphs stand out. Based on the Shapes Constraint Language standards, a semantic restriction model which represents groups of shapes which share target and could hold inter-shape conflicts is presented. A pre-validation configuration process to activate the model's sub-graph that best fits the current context is described. Moreover, an approach for the integration of these graphs which belongs to a common environment is proposed. The integration procedure resolves the constraint conflicts with the specialization of shapes. A practical use case based on the French Ski School demonstrates the usability of the proposed contributions. Evaluations of the correctness and consistency of the generated shape graph are carried out. The implemented procedures' performance is also evaluated. The thesis concludes by summarizing the contributions and suggesting future research directions to further improve the integration and representation of Shapes Constraint Language graphs
Styles APA, Harvard, Vancouver, ISO, etc.
50

Chevrou, Florent. « Formalisation of asynchronous interactions ». Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19493/1/CHEVROU_Florent.pdf.

Texte intégral
Résumé :
Large computing systems are generally built by connecting several distributed subsystems. The way these entities communicate is crucial to the proper functioning of the overall composed system. An in-depth study of these interactions makes sense in the context of the formal development and verification of such systems. The interactions fall in two categories: synchronous and asynchronous communication. In synchronous communication, the transmission of a piece of information - the message - is instantaneous. Asynchronous communication, on the other hand, splits the transmission in a send operation and a receive operation. This make the interleaving of other events possible and lead to new behaviours that may or may not be desirable. The asynchronous world is often viewed as a monolithic counterpart of the synchronous world. It actually comes in multiple models that provide a wide range of properties that can be studied and compared. This thesis focuses on communication models that order the delivery of messages: for instance, the "FIFO" models ensure that some messages are received in the order of their emission. We consider classic communication models from the literature as well as a few variations. We highlight the differences that are sometimes overlooked. First, we propose an abstract, logical, and homogeneous formalisation of the communication models and we establish a hierarchy that extends existing results. Second, we provide an operational approach with a tool that verifies the compatibility of compositions of peers. We mechanise this tool with the TLA+ specification language and its model checker TLC. The tool is designed in a modular fashion: the commmunicating peers, the temporal compatibility properties, and the communication models are specified independently. We rely on a set of uniform operational specifications of the communication models that are based on the concept of message history. We identify and prove the conditions under which they conform to the logical definitions and thus show the tool is trustworthy. Third, we consider concrete specifications of the communication models that are often found in the literature. Thus, the models are classified in terms of ordering properties and according to the level of abstraction of the different specifications. The concept of refinement covers these two aspects. Thus, we model asynchronous point-to-point communication along several levels of refinement and then, with the Event-B method, we establish and prove all the refinements between the communication models and the alternative specifications of each given model. This work results in a detailed map one can use to develop a new model or find the one that best fits given needs. Eventually we explore ways to extend our work to multicast communication that consists in sending messages to several recipients at once. In particular, we highlight the differences in the hierarchy of the models and how we modify our verification tool to handle this communication paradigm.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie