To see the other types of publications on this topic, follow the link: Logique inductive.

Dissertations / Theses on the topic 'Logique inductive'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Logique inductive.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Alphonse, Erick. "Macro-opérateurs en Programmation Logique Inductive : théorie et algorithmes." Paris 11, 2003. http://www.theses.fr/2003PA112334.

Full text
Abstract:
Un des grands enjeux de l'informatique aujourd'hui est de coupler à la capacité grandissante d'acquisition et de stockage des données la capacité de les analyser, de dériver de façon automatique de la connaissance à partir de ces données. Une composante importante de l'Extraction de Connaissance à partir de Données (Data Mining/Knowledge Discovery in Databases) est l'Apprentissage Supervisé qui est soutenu par un nombre croissant d'applications dans les domaines de la biochimie, la médecine, la finance, le diagnostic de systèmes. Cependant dans ces domaines, la représentation des données nécessite l'utilisation de langages de représentation expressifs, issus de la logique du premier ordre.
APA, Harvard, Vancouver, ISO, and other styles
2

Serrurier, Mathieu. "Programmation logique inductive floue et possibilité : gagner en expressivité, adaptabilité, ou en efficacité." Toulouse 3, 2005. http://www.theses.fr/2005TOU30277.

Full text
Abstract:
Dans cette thèse on aborde différentes façons d'utiliser les ensembles flous et la logique possibiliste en programmation logique inductive (PLI). Afin de prendre en compte les contraintes imposées par l'utilisation des ensembles flous et de la logique possibiliste, on propose un algorithme original de PLI basé sur le recuit simulé. La flexibilité de la méthode proposé permet de l’adapter facilement à l’utilisation des ensembles flous et de la logique possibiliste. Dans la seconde partie, on étudie deux utilisations possibles des ensembles flous en PLI : augmenter l'expressivité ou augmenter la robustesse des règles. Dans une troisième partie, la logique possibiliste est aussi utilisée de deux manières différentes. On applique d'abord la logique possibiliste dans un cadre de PLI classique afin de gérer les exceptions. Enfin, on décrit la programmation logique inductive possibiliste qui permet d'associer des niveaux de priorité aux exemples et à la connaissance du domaine
This thesis is about different ways for using possibilistic logic and fuzzy sets in inductive logic programming (ILP). An original ILP algorithm based on simulated annealing is proposed as a basis algorithm for experimentations. Two ways have been chosen for the using of fuzzy sets in ILP. First, fuzzy sets are used for describing rules which have not crisp counterparts such as gradual rules or certainty rules. Fuzzy sets may be also used for improving robustness of rules with respect to variations when discretization of numerical attributes is needed. Moreover, an algorithm for inducing rules together with its implication operator is also presented. Possibilistic logic is also used in two different ways in ILP: for dealing with exceptions (misclassification) in classical ILP problem by taking advantage of the non monotonic properties of possibilistic logic or for dealing with weighted databases
APA, Harvard, Vancouver, ISO, and other styles
3

Fromont, Elisa. "Apprentissage multisource par programmation logique inductive : application à la caractérisation d'arythmies cardiaques." Phd thesis, Université Rennes 1, 2005. http://tel.archives-ouvertes.fr/tel-00011455.

Full text
Abstract:
Ce travail a pour thème l'extraction de connaissances à partir de données provenant de plusieurs sources reflétant un même phénomène. L'objectif visé est l'amélioration de la qualité des systèmes de surveillance. Lorsque les données sont redondantes, l'utilisation de plusieurs sources permet de pallier aux problèmes de perte de signal et de bruit. Lorsque les données sont complémentaires, l'utilisation conjointe des différentes sources permet d'augmenter les performances en détection de ces systèmes. Nous appliquons nos travaux au domaine du diagnostic d'arythmies cardiaques. Nous utilisons une technique d'apprentissage artificiel relationnel (la programmation logique inductive) pour apprendre des règles discriminantes permettant de caractériser les arythmies à partir de plusieurs voies d'un électrocardiogramme et de mesures de pression artérielle. Pour exploiter la redondance des sources, nous apprenons dans un premier temps, des règles à partir des données des différentes sources prises séparément. Pour exploiter la complémentarité des sources, un apprentissage multisource naïf consisterait à apprendre globalement sur l'ensemble des données et avec un langage d'expression des concepts permettant de couvrir toute la richesse des données représentées. En alternative à un tel type d'apprentissage, nous proposons une méthode plus efficace qui s'appuie sur des apprentissages monosources, ie. effectués sur chacune des sources séparément, pour biaiser l'espace de recherche multisource. Le fait de s'appuyer sur les règles monosources permet de restreindre le langage des hypothèses ainsi que le nombre de relations possibles entre les objets représentés sur les différentes sources. Ce travail a été effectué dans le cadre du projet RNTS (Réseau National des Technologies et de la Santé) Cepica. Les résultats montrent que les règles apprises par apprentissage multisource sont au moins aussi bonnes que les règles monosources dans le cas où les données sont redondantes et meilleures dans les cas où les sources sont complémentaires. La technique d'apprentissage biaisé permet en outre d'apprendre des règles de manière beaucoup plus efficace que dans le cas naïf en bénéficiant d'un biais de langage généré automatiquement. Ces nouvelles règles sont incorporées au système Calicot pour la surveillance de patients souffrant de troubles du rythme cardiaque.
~
APA, Harvard, Vancouver, ISO, and other styles
4

Fromont, Élisa Cordier Marie-Odile. "Apprentissage multisource par programmation logique inductive application à la caractérisation d'arythmies cardiques /." [S.l.] : [s.n.], 2005. ftp://ftp.irisa.fr/techreports/theses/2005/fromont.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Fromont, Élisa. "Apprentissage multisource par programmation logique inductive : application à la caractérisation d'arythmies cardiques." Rennes 1, 2005. https://tel.archives-ouvertes.fr/tel-00011455v2.

Full text
Abstract:
Nous nous intéressons aux possibilités d'acquisition automatique de connaissances à partir de données provenant de nouveaux capteurs et d'intégration de ces connaissances pour le diagnostic d'arythmies cardiaques à partir de données multisources. Nous utilisons la programmation logique inductive pour apprendre des règles discriminantes permettant de caractériser les arythmies à partir des données des différentes sources prises séparément. Ces règles permettent d'exploiter la redondance des sources et ainsi pallier aux problèmes de perte de signal ou de bruit. Nous exposons ensuite une méthode tirant parti des règles monosources pour apprendre efficacement et automatiquement des connaissances mettant en relation les différentes sources. Ces nouvelles règles permettent d'exploiter la complémentarité des sources pour augmenter les performances en détection des systèmes de surveillance automatique de patients. Ces méthodes sont comparées sur des données provenant de signaux réels.
APA, Harvard, Vancouver, ISO, and other styles
6

Decoster, Jean. "Programmation logique inductive pour la classification et la transformation de documents semi-structurés." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10046/document.

Full text
Abstract:
L’échange d’informations entre périphériques variés et sur internet soulève de nombreux problèmes par le volume et l’hétéroclisme des données échangées. La plupart de ces échanges utilisent le format XML. Afin de les faciliter, des traitements intelligents, comme la classification et la transformation automatiques, ont été développés. Le but de cette thèse est double : proposer un framework d'apprentissage pour la classification de documents XML et étudier l'apprentissage de transformations de documents XML. Le choix d’utiliser la Programmation Logique Inductive a été fait. Même si les méthodes d'apprentissage ont alors un surcoût algorithmique non négligeable (certaines opérations deviennent NP-dures), la représentation relationnelle semble adaptée aux documents XML de par son expressivité. Notre framework pour la classification fait suite à l'étude de familles de clauses pour la représentation de structures arborescentes. Il repose sur une réécriture des opérations de base de la PLI que sont la theta-subsomption et le moindre généralisé [Plotkin1971]. Nos algorithmes sont polynomiaux en temps dans la taille de leur entrée là où ceux standards sont exponentiels. Ils permettent une identification à la limite [Gold1967] de nos familles de clauses. Notre seconde contribution débute par la modélisation d’une famille de clauses dans la lignée des programmes fonctionnels [Paulson91]. Ces clauses sont une adaptation à la PLI des scripts d'édition et prennent en compte un contexte. Elles permettent la représentation de transformations de documents XML. Leurs apprentissages sont possibles grâce à deux algorithmes de type A*, approche courante en PLI (HOC-Learner [Santos2009])
The recent proliferation of XML documents in databases and web applications rises some issues due to the numerous data exchanged and their diversity. To ease their uses, some smart means have been developed such as automatic classification and transformation. This thesis has two goals:• To propose a framework for the XML documents classification task.• To study the XML documents transformation learning.We have chosen to use Inductive Logic Programming. The expressiveness of logic programs grants flexibility in specifying the learning task and understandability to the induced theories. This flexibility implies a high computational cost, constraining the applicability of ILP systems. However, XML documents being trees, a good concession can be found.For our first contribution, we define clauses languages that allow encoding xml trees. The definition of our classification framework follows their studies. It stands on a rewriting of the standard ILP operations such as theta-subsumption and least general generalization [Plotkin1971]. Our algorithms are polynomials in time in the input size whereas the standard ones are exponentials. They grant an identification in the limit [Gold1967] of our languages.Our second contribution is the building of methods to learn XML documents transformations. It begins by the definition of a clauses class in the way of functional programs [Paulson91]. They are an ILP adaptation of edit scripts and allow a context. Their learning is possible thanks to two A*-like algorithms, a common ILP approach (HOC-Learner [Santos2009])
APA, Harvard, Vancouver, ISO, and other styles
7

Ciaffaglione, Alberto. "Certified reasoning on real numbers and objects in co-inductive type theory." Vandoeuvre-les-Nancy, INPL, 2003. http://docnum.univ-lorraine.fr/public/INPL_T_2003_CIAFFAGLIONE_A.pdf.

Full text
Abstract:
Nous adoptons des Méthodes Formelles basées sur la Théorie de Type pour raisonner sur la sémantique des programmes: le but final est montrer qu'un fragment de logiciel répond à ses spécifications formelles. Les domaines d'application de notre recherche sont le type des données des Nombres Réels et les Langages orientés Objets. Dans la première partie nous construisons les réels en utilisant des streams, c. -à-d. Des suites infinies, de chiffres signés. Nous mettons en application les Nombres Réels dans Coq en utilisant les streams, qui sont contrôlés en utilisant des jugements coinductifs et des algorithmes corecursifs. Puis nous présentons une axiomatisation constructive et nous l'employons pour prouver l'adéquation de notre construction. Dans la deuxième partie nous étudions les calculs basées objets avec effet de bord, nous concentrant sur imp[sigma] d'Abadi et de Cardelli. Nous reformulons imp[sigma] en utilisant des techniques de codage modernes, comme la Syntaxe Abstraite d'Ordre Supérieur et des systèmes de preuve Coinductifs en Déduction Naturelle. Enfin nous formalisons imp[sigma] dans Coq et nous prouvons la correction des types
We adopt Formal Methods based on Type Theory for reasoning on the semantics of computer programs: the ultimate goal is to prove that a fragment of software meets its formal specification. Application areas of our research are the Real Numbers datatype and the Object-oriented Languages based on Objects. In the first part we construct the Real Numbers using streams, i. E. Infinite sequences, of signed digits. We implement the Reals in Coq using streams, which are managed using coinductive judgments and corecursive algorithms. Then we introduce a constructive axiomatization and we use it for proving the adequacy of our construction. In the second part we approach Object-based Calculi with side-effects, focusing on Abadi and Cardelli's imp[sigma]. We reformulate imp[sigma] using modern encoding techniques, as Higher-Order Abstract Syntax and Coinductive proof systems in Natural Deduction style. Then we formalize imp[sigma] in Coq and we prove the Type Soundness
APA, Harvard, Vancouver, ISO, and other styles
8

Lopez, Matthieu. "Apprentissage de problèmes de contraintes." Phd thesis, Université d'Orléans, 2011. http://tel.archives-ouvertes.fr/tel-00668156.

Full text
Abstract:
La programmation par contraintes permet de modéliser des problèmes et offre des méthodes de résolution efficaces. Cependant, sa complexité augmentant ces dernières années, son utilisation, notamment pour modéliser des problèmes, est devenue limitée à des utilisateurs possédant une bonne expérience dans le domaine. Cette thèse s'inscrit dans un cadre visant à automatiser la modélisation. Les techniques existantes ont montré des résultats encourageants mais certaines exigences rendent leur utilisation encore problématique. Dans une première partie, nous proposons de dépasser une limite existante qui réside dans la nécessité pour l'utilisateur de fournir des solutions du problème qu'il veut modéliser. En remplacement, il nous fournit des solutions de problèmes proches, c'est-à-dire de problèmes dont la sémantique de fond est la même mais dont les variables et leur domaine peuvent changer. Pour exploiter de telles données, nous proposons d'acquérir, grâce à des techniques de programmation logique inductive, un modèle plus abstrait que le réseau de contraintes. Une fois appris, ce modèle est ensuite transformé pour correspondre au problème initial que souhaitait résoudre l'utilisateur. Nous montrons également que la phase d'apprentissage se heurte à des limites pathologiques et qui nous ont contraints à développer un nouvel algorithme pour synthétiser ces modèles abstraits. Dans une seconde partie, nous nous intéressons à la possibilité pour l'utilisateur de ne pas donner d'exemples du tout. En partant d'un CSP sans aucune contrainte, notre méthode consiste à résoudre le problème de l'utilisateur de manière classique. Grâce à un arbre de recherche, nous affectons progressivement des valeurs aux variables. Quand notre outil ne peut décider si l'affectation partielle courante est correcte ou non, nous demandons à l'utilisateur de guider la recherche sous forme de requêtes. Ces requêtes permettent de trouver des contraintes à ajouter aux modèles du CSP et ainsi améliorer la recherche.
APA, Harvard, Vancouver, ISO, and other styles
9

Siou, Emmanuel. "Programmation logique inductive et modelisation de l'apprenant : application a l'analyse des erreurs de raisonnement chez l'aphasique." Rennes 1, 1994. http://www.theses.fr/1994REN10176.

Full text
Abstract:
La programmation logique inductive (pli) est un domaine de recherche recent, qui combine les principes de l'apprentissage automatique avec la representation de la programmation logique. La pli englobe ainsi dans un cadre logique l'apprentissage automatique inductif de concepts et la synthese de programmes a partir d'exemples. Dans cette these, la pli est appliquee a la modelisation de l'utilisateur d'un systeme d'eiao (enseignement intelligemment assiste par ordinateur). Plus precisement, ce travail se situe dans le cadre du projet sarah (systeme d'aide a la reeducation des aphasiques), dont la problematique, au niveau de l'analyse des comportements observes, est similaire a celle d'un tuteur intelligent. Dans ce contexte, les problemes poses a un utilisateur et les reponses de celui-ci peuvent etre assimiles aux entrees et aux sorties d'une procedure qu'il s'agit d'induire, a partir des observations et de connaissances sur le domaine etudie. Un systeme de pli adapte a ce probleme doit satisfaire certaines contraintes, dont l'absence d'exemples negatifs (contre-exemples) et la presentation incrementale des exemples. Des solutions sont proposees pour la mise en uvre d'un tel systeme, et en particulier une methode performante de recherche de clauses d'un programme logique a ete developpee. L'evaluation de cette methode a ete effectuee dans le cas particulier de l'analyse de reponses aphasiques a des exercices qui consistent a transcoder des nombres exprimes en chiffres, en des nombres exprimes en lettres, et vice versa (par exemple 28 vingt-huit). Ces exercices se pretent particulierement bien a une analyse par programmation logique inductive, qui apporte au systeme de reeducation une plus grande capacite d'adaptation aux patients
APA, Harvard, Vancouver, ISO, and other styles
10

Rodrigues, Christophe. "Apprentissage incrémental des modèles d'action relationnels." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_rodrigues.pdf.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'apprentissage artificiel pour l'action. Nous nous situons à l'intersection de l'apprentissage par renforcement (AR) et de la programmation logique inductive (PLI). Nous étudions plus précisément l'apprentissage de modèles d'actions. Un modèle d'action décrit les conditions et effets des actions possibles dans un environnement. Il permet d'anticiper les conséquences des actions d'un agent et peut aussi être utilisé par un planificateur. Nous nous intéressons en particulier à une représentation relationnelle des environnements. Nous décrivons alors les états et les actions à l'aide d'objets et de relations entre les différents objets qui les composent. Nous présentons la méthode IRALe apprennant de façon incrémentale des modèles d'action relationnels. Nous commençons par supposer que les états sont entièrement observables et que les conséquences des actions sont déterministes. Nous apportons une preuve de convergence pour cette méthode. Ensuite, nous développons une approche d'exploration active qui essaye de focaliser l'expérience de l'agent sur des actions supposées non couvertes par le modèle. Enfin, nous généralisons l'approche en introduisant une perception de l'environnement bruitée afin de rendre plus réaliste notre cadre d'apprentissage. Pour chaque approche, nous illustrons empiriquement son intérêt sur plusieurs problèmes de planification. Les résultats obtenus montrent que le nombre d'interactions nécessaires avec les environnements est très faible comparé à la taille des espaces d'états considérés. De plus, l'apprentissage actif permet d'améliorer significativement ces résultats
In this thesis, we study machine learning for action. Our work both covers reinforcement learning (RL) and inductive logic programming (ILP). We focus on learning action models. An action model describes the preconditions and effects of possible actions in an environment. It enables anticipating the consequences of the agent’s actions and may also be used by a planner. We specifically work on a relational representation of environments. They allow to describe states and actions by the means of objects and relations between the various objects that compose them. We present the IRALe method, which learns incrementally relational action models. First, we presume that states are fully observable and the consequences of actions are deterministic. We provide a proof of convergence for this method. Then, we develop an active exploration approach which allows focusing the agent’s experience on actions that are supposedly non-covered by the model. Finally, we generalize the approach by introducing a noisy perception of the environment in order to make our learning framework more realistic. We empirically illustrate each approach’s importance on various planification problems. The results obtained show that the number of interactions necessary with the environments is very weak compared to the size of the considered states spaces. Moreover, active learning allows to improve significantly these results
APA, Harvard, Vancouver, ISO, and other styles
11

Marquis, Pierre. "Contribution à l'étude des méthodes de construction d'hypothèses en intelligence artificielle." Nancy 1, 1991. http://www.theses.fr/1991NAN10031.

Full text
Abstract:
Les systèmes d'IA n'ont atteint, jusqu'à présent, des niveaux de performances remarquables que dans certains domaines spécifiques et bien délimités. La cause principale de leurs limitations est l'absence de mécanismes leur permettant de compléter et de remettre en question leurs connaissances. Prenant comme référence le modèle humain, nous adhérons dans cette thèse au point de vue du psychologue jean Piaget selon lequel la nature hypothético-déductive du raisonnement est à la base de ses possibilités d'évolution. Plus précisément, ce mémoire est consacre à l'étude d'une facette du raisonnement hypothético-déductif en intelligence artificielle : la construction d'hypothèses. Ce mémoire débute par une présentation du cadre formel dans lequel les concepts utilisés prennent place. Puis la notion du premier implicant, centrale dans notre travail, est présentée. Nous nous intéressons ensuite aux fondements logiques de la construction d'hypothèses et définissons sa problématique. Ce mémoire propose finalement plusieurs méthodes de construction d'hypothèses. Nous présentons d'abord la problématique de l'acquisition de concepts puis ses liens avec la généralisation inductive. Nous nous intéressons ensuite à l'abduction. Nous considérons enfin le diagnostic comme un domaine particulier dans lequel les méthodes abductives du premier ordre peuvent être utilisées et nous mettons surtout en évidence l'intérêt de la coopération entre déduction et abduction dans la résolution d'un même problème
APA, Harvard, Vancouver, ISO, and other styles
12

Pavaux, Alice. "Inductive, Functional and Non-Linear Types in Ludics." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD092.

Full text
Abstract:
Cette thèse est consacrée à une exploration des types de la ludique. S’inscrivant dans un contexte marqué par la correspondance de Curry–Howard, la ludique est un cadre permettant d’étudier l’aspect dynamique de la logique et de la programmation. Les objets de base, appelés desseins, sont des preuves infinitaires non-typées qui peuvent également être vues comme des stratégies sous l’angle de la sémantique des jeux, et un type ou comportement est un ensemble de desseins se conduisant de la même manière du point de vue de l’interaction. On s’intéresse aux propriétés interactives des comportements. Notre attention se porte en particulier sur les comportements représentant les types de données et de fonctions, et sur les comportements non-linéaires qui permettent la duplication d’objets. Un nouveau résultat de complétude interne pour les unions infinies dévoile la structure des types de données inductifs. Grâce à une analyse des chemins visitables,c’est-à-dire des possibles traces d’exécution, on prouve que les comportements inductifs et fonctionnels sont réguliers, ouvrant la voie pour une caractérisation de MALL en ludique. On montre également qu’un comportement fonctionnel est pur, une propriété garantissant la sûreté du typage, si et seulement si ce n’est pas un type de fonctions prenant des fonctions en argument. Enfin, on pose les bases d’une étude précise de la non-linéarité en ludique en retrouvant une forme de complétude interne et en discutant des chemins visitables
This thesis investigates the types of ludics. Within the context of the Curry–Howard correspondence,l udics is a framework in which the dynamic aspects of both logic and programming can be studied. The basic objects, called designs, are untyped infinitary proofs that can also beseen as strategies from the perspective of game semantics, and a type or behaviour is a set of designs well-behaved with respect to interaction. We are interested in observing the interactive properties of behaviours. Our attention is particularly focused on behaviours representing the types of data and functions, and on non-linear behaviours which allow the duplication of objects. A new internal completeness result for infinite unions unveils the structure of inductive data types. Thanks to an analysis of the visitable paths, i.e., the possible execution traces, we prove that inductive and functional behaviours are regular, paving the way for a characterisation of MALL in ludics. We also show that a functional behaviour is pure, a property ensuring the safety of typing, if and only if it is not a type of functions taking functions as argument. Finally,we set the bases for a precise study of non-linearity in ludics by recovering a form of internal completeness and discussing the visitable paths
APA, Harvard, Vancouver, ISO, and other styles
13

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Université Paul Sabatier - Toulouse III, 2014. http://tel.archives-ouvertes.fr/tel-00996894.

Full text
Abstract:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires.
APA, Harvard, Vancouver, ISO, and other styles
14

Jacquemin, Ingrid. "Découverte de motifs relationnels en bioinformatique : application à la prédiction de ponts disulfures." Phd thesis, Université Rennes 1, 2005. http://tel.archives-ouvertes.fr/tel-00185499.

Full text
Abstract:
Déterminer la structure 3D des protéines expérimentalement est une tâche très lourde et coûteuse, qui peut s'avérer parfois impossible à réaliser. L'arrivée massive de données provenant des programmes de séquençage à grande échelle impose de passer d'une approche biochimique à une approche bioinformatique, et nécessite en particulier de développer des méthodes de prédiction sur des séquences.
Cette thèse propose l'exploration de deux nouvelles pistes pour progresser dans la résolution de prédiction de ponts disulfures dans les protéines. Cette liaison covalente stabilise et contraint fortement la conformation spatiale de la protéine et la connaissance des positions où elle intervient peut réduire considérablement la complexité du problème de la prédiction de la structure 3D. Pour cela, nous utilisons dans un premier temps, l'inférence grammaticale et plus particulièrement les langages de contrôle introduit par Y. Takada, puis dans un deuxième temps, la programmation logique inductive.
Diverses expériences visent à confronter un cadre théorique d'apprentissage et des algorithmes généraux d'inférence grammaticale régulière à une application pratique de prédiction d'appariements spécifiques au sein d'une séquence protéique. D'autres expérimentations montrent que la programmation logique inductive donne de bons résultats sur la prédiction de l'état oxydé des cystéines en inférant des règles interprétables par les biologistes. Nous proposons un algorithme d'induction heuristique dont l'idée est d'effectuer plusieurs phases d'apprentissage en tenant compte des résultats obtenus aux phases précédentes permettant ainsi de diminuer considérablement la combinatoire dans les espaces d'hypothèses logiques en construisant des règles de plus en plus discriminantes.
APA, Harvard, Vancouver, ISO, and other styles
15

Silva, Bernardes Juliana. "Evolution et apprentissage automatique pour l'annotation fonctionnelle et la classification des homologies lointains en protéines." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00684155.

Full text
Abstract:
La détection d'homologues lointains est essentielle pour le classement fonctionnel et structural des séquences protéiques et pour l'amélioration de l'annotation des génomes très divergents. Pour le classement des séquences, nous présentons la méthode "ILP-SVM homology", combinant la programmation logique inductive (PLI) et les modèles propositionnels. Elle propose une nouvelle représentation logique des propriétés physico-chimiques des résidus et des positions conservées au sein de l'alignement de séquences. Ainsi, PLI trouve les règles les plus fréquentes et les utilise pour la phase d'apprentissage utilisant des modèles d'arbre de décision ou de machine à vecteurs de support. La méthode présente au moins les mêmes performances que les autres méthodes trouvées dans la littérature. Puis, nous proposons la méthode CASH pour annoter les génomes très divergents. CASH a été appliqué à Plasmodium falciparum, mais reste applicable à toutes les espèces. CASH utilise aussi bien l'information issue de génomes proches ou éloignés de P. falciparum. Chaque domaine connu est ainsi représenté par un ensemble de modèles évolutifs, et les sorties sont combinées par un méta-classificateur qui assigne un score de confiance à chaque prédiction. Basé sur ce score et sur des propriétés de co-ocurrences de domaines, CASH trouve l'architecture la plus probable de chaque séquence en appliquant une approche d'optimisation multi-objectif. CASH est capable d'annoter 70% des domaines protéiques de P. falciparum, contre une moyenne de 58% pour ses concurrents. De nouveaux domaines protéiques ont pu être caractérisés au sein de protéines de fonction inconnue ou déjà annotées.
APA, Harvard, Vancouver, ISO, and other styles
16

Amaniss, Ali. "Méthodes de schématisation pour la démonstration automatique." Nancy 1, 1996. http://www.theses.fr/1996NAN10092.

Full text
Abstract:
Ce travail se situe dans le cadre de la déduction automatique. Il traite d'une méthode, appelée la schématisation, utilisée pour remédier à des problèmes d'expressivité, d'efficacité et de divergence. La schématisation est un moyen de représentation finie d'ensembles infinis d'objets. Ceux-ci peuvent se retrouver dans différents domaines de l'informatique. Le but de notre travail est l'étude de cette méthode d'un point de vue théorique et pratique. D’un point de vue théorique, nous avons situé les classes de schématisation existantes dans la hiérarchie des langages d'arbres après les avoir comparé entre elles. Chose qui nous a permis de proposer des classes plus expressives que toutes les classes proposées jusqu'ici et qui sont intéressantes pour la déduction automatique. D’un point de vue pratique, nous avons proposé plusieurs algorithmes de manipulation de schématisations. Nous avons surtout introduit la notion de problème d'inclusion pour lequel nous avons donné un algorithme que nous avons applique à la généralisation inductive d'ensembles infinis de termes. Cet algorithme peut trouver d'autres applications dans le génie logiciel, la réécriture et le calcul des processus. Nous avons ensuite améliore l'algorithme classique de généralisation inductive dans ses cas d'échec en utilisant les I-termes puis les B-termes. Les algorithmes proposés peuvent être vus comme des procédures de construction automatique, respectivement, des I-termes et des B-termes.
APA, Harvard, Vancouver, ISO, and other styles
17

Augier, Sébastien. "Apprentissage Supervisé Relationnel par Algorithmes d'Évolution." Phd thesis, Université Paris Sud - Paris XI, 2000. http://tel.archives-ouvertes.fr/tel-00947322.

Full text
Abstract:
Cette thèse concerne l'apprentissage de règles relationnelles à partir d'exemples et de contre-exemples, à l'aide d'algorithmes évolutionnaires. Nous étudions tout d'abord un biais de langage offrant une expressivité suffisamment riche pour permettre de couvrir à la fois le cadre de l'apprentissage relationnel par interprétations et les formalismes propositionnels classiques. Bien que le coût de l'induction soit caractérisé par la complexité NP-difficile du test de subsomption pour cette classe de langages, une solution capable de traiter en pratique les problèmes réels complexes est proposée. Le système SIAO1, qui utilise ce biais de langage pour l'apprentissage de règles relationnelles est ensuite présenté. Il est fondé sur une stratégie de recherche évolutionnaire qui se distingue principalement des approches classiques par: - des opérateurs de mutation et de croisement dirigés par la théorie du domaine et par les exemples d'apprentissage; - le respect de la relation d'ordre définie sur le langage. L'évaluation du système sur plusieurs bases faisant référence en apprentissage automatique montre que SIAO1 est polyvalent, se compare favorablement aux autres approches et sollicite peu l'utilisateur en ce qui concerne la spécification de biais de recherche ou d'évaluation. La troisième partie de ce travail propose deux architectures parallèles génériques derivées des modèles maître-esclave asynchrone et du pipeline. Elles sont étudiées dans le cadre de l'extraction de connaissances à partir de données à l'aide de SIAO1 du point de vue de l'accélération qu'elles procurent d'une part et de leur capacité à changer d'échelle d'autre part. Un modèle de prédiction simple mais précis des performances de chacune des architectures parallèles est également proposé.
APA, Harvard, Vancouver, ISO, and other styles
18

Personeni, Gabin. "Apport des ontologies de domaine pour l'extraction de connaissances à partir de données biomédicales." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0235/document.

Full text
Abstract:
Le Web sémantique propose un ensemble de standards et d'outils pour la formalisation et l'interopérabilité de connaissances partagées sur le Web, sous la forme d'ontologies. Les ontologies biomédicales et les données associées constituent de nos jours un ensemble de connaissances complexes, hétérogènes et interconnectées, dont l'analyse est porteuse de grands enjeux en santé, par exemple dans le cadre de la pharmacovigilance. On proposera dans cette thèse des méthodes permettant d'utiliser ces ontologies biomédicales pour étendre les possibilités d'un processus de fouille de données, en particulier, permettant de faire cohabiter et d'exploiter les connaissances de plusieurs ontologies biomédicales. Les travaux de cette thèse concernent dans un premier temps une méthode fondée sur les structures de patrons, une extension de l'analyse formelle de concepts pour la découverte de co-occurences de événements indésirables médicamenteux dans des données patients. Cette méthode utilise une ontologie de phénotypes et une ontologie de médicaments pour permettre la comparaison de ces événements complexes, et la découverte d'associations à différents niveaux de généralisation, par exemple, au niveau de médicaments ou de classes de médicaments. Dans un second temps, on utilisera une méthode numérique fondée sur des mesures de similarité sémantique pour la classification de déficiences intellectuelles génétiques. On étudiera deux mesures de similarité utilisant des méthodes de calcul différentes, que l'on utilisera avec différentes combinaisons d'ontologies phénotypiques et géniques. En particulier, on quantifiera l'influence que les différentes connaissances de domaine ont sur la capacité de classification de ces mesures, et comment ces connaissances peuvent coopérer au sein de telles méthodes numériques. Une troisième étude utilise les données ouvertes liées ou LOD du Web sémantique et les ontologies associées dans le but de caractériser des gènes responsables de déficiences intellectuelles. On utilise ici la programmation logique inductive, qui s'avère adaptée pour fouiller des données relationnelles comme les LOD, en prenant en compte leurs relations avec les ontologies, et en extraire un modèle prédictif et descriptif des gènes responsables de déficiences intellectuelles. L'ensemble des contributions de cette thèse montre qu'il est possible de faire coopérer avantageusement une ou plusieurs ontologies dans divers processus de fouille de données
The semantic Web proposes standards and tools to formalize and share knowledge on the Web, in the form of ontologies. Biomedical ontologies and associated data represents a vast collection of complex, heterogeneous and linked knowledge. The analysis of such knowledge presents great opportunities in healthcare, for instance in pharmacovigilance. This thesis explores several ways to make use of this biomedical knowledge in the data mining step of a knowledge discovery process. In particular, we propose three methods in which several ontologies cooperate to improve data mining results. A first contribution of this thesis describes a method based on pattern structures, an extension of formal concept analysis, to extract associations between adverse drug events from patient data. In this context, a phenotype ontology and a drug ontology cooperate to allow a semantic comparison of these complex adverse events, and leading to the discovery of associations between such events at varying degrees of generalization, for instance, at the drug or drug class level. A second contribution uses a numeric method based on semantic similarity measures to classify different types of genetic intellectual disabilities, characterized by both their phenotypes and the functions of their linked genes. We study two different similarity measures, applied with different combinations of phenotypic and gene function ontologies. In particular, we investigate the influence of each domain of knowledge represented in each ontology on the classification process, and how they can cooperate to improve that process. Finally, a third contribution uses the data component of the semantic Web, the Linked Open Data (LOD), together with linked ontologies, to characterize genes responsible for intellectual deficiencies. We use Inductive Logic Programming, a suitable method to mine relational data such as LOD while exploiting domain knowledge from ontologies by using reasoning mechanisms. Here, ILP allows to extract from LOD and ontologies a descriptive and predictive model of genes responsible for intellectual disabilities. These contributions illustrates the possibility of having several ontologies cooperate to improve various data mining processes
APA, Harvard, Vancouver, ISO, and other styles
19

Mbaye, Maïssa. "Les systèmes cognitifs dans les réseaux autonomes : une méthode d'apprentissage distribué et collaboratif situé dans le plan de connaissance pour l'auto-adaptation." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13976/document.

Full text
Abstract:
L'un des défis majeurs pour les décennies à venir, dans le domaine des technologies de l'information et de la communication, est la réalisation du concept des réseaux autonomes. Ce paradigme a pour objectif de rendre les équipements réseaux capables de s'autogérer, c'est-à-dire qu'ils pourront s'auto-configurer, s'auto-optimiser, s'auto-protéger et s'auto-restaurer en respectant les objectifs de haut niveau de leurs concepteurs. Les architectures majeures de réseaux autonomes se basent principalement sur la notion de boucle de contrôle fermée permettant l'auto-adaptation (auto-configuration et auto-optimisation) de l'équipement réseau en fonction des événements qui surviennent sur leur environnement. Le plan de connaissance est une des approches, très mise en avant ces dernières années par le monde de la recherche, qui suggère l'utilisation des systèmes cognitifs (l'apprentissage et le raisonnement) pour fermer la boucle de contrôle. Cependant, bien que les architectures majeures de gestion autonomes intègrent des modules d'apprentissage sous forme de boite noire, peu de recherches s'intéressent véritablement au contenu de ces boites. C'est dans ce cadre que nous avons fait une étude sur l'apport potentiel de l'apprentissage et proposé une méthode d'apprentissage distribué et collaboratif. Nous proposons une formalisation du problème d'auto-adaptation sous forme d'un problème d'apprentissage d'état-actions. Cette formalisation nous permet de définir un apprentissage de stratégies d'auto-adaptation qui se base sur l'utilisation de l'historique des transitions et utilise la programmation logique inductive pour découvrir de nouvelles stratégies à partir de celles déjà découvertes. Nous définissons, aussi un algorithme de partage de la connaissance qui permet d'accélérer le processus d'apprentissage. Enfin, nous avons testé l'approche proposé dans le cadre d'un réseau DiffServ et montré sa transposition sur le contexte du transport de flux multimédia dans les réseaux sans-fil 802.11
One of the major challenges for decades to come, in the field of information technologies and the communication, is realization of autonomic paradigm. It aims to enable network equipments to self-manage, enable them to self-configure, self-optimize, self-protect and self-heal according to high-level objectives of their designers. Major architectures of autonomic networking are based on closed control loop allowing self-adapting (self-configuring and self-optimizing) of the network equipment according to the events which arise on their environment. Knowledge plane is one approach, very emphasis these last years by researchers, which suggests the use of the cognitive systems (machine learning and the reasoning) to realize closed control loop. However, although the major autonomic architectures integrate machine learning modules as functional block, few researches are really interested in the contents of these blocks. It is in this context that we made a study on the potential contribution machine learning and proposed a method of distributed and collaborative machine learning. We propose a formalization self-adapting problem in term of learning configuration strategies (state-actions) problem. This formalization allows us to define a strategies machine learning method for self-adapting which is based on the history observed transitions and uses inductive logic programming to discover new strategies from those already discovered. We defined, also a knowledge sharing algorithm which makes network components collaborate to improve learning process. Finally, we tested our approach in DiffServ context and showed its transposition on multimedia streaming in 802.11 wireless networks
APA, Harvard, Vancouver, ISO, and other styles
20

Belkasmi, Mohammed. "Contributions à la théorie des modèles positive." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00733592.

Full text
Abstract:
La première étude systématique de la théorie des modèles positive était faite par Ben Yaacov qui a proposé une approche uniforme aux travaux précurseurs accomplis indépendamment par Robinson, Shelah, Hrushovski et Pillay avec un souci croissant d'incorporer les techniques modernes de la théorie des modèles dans le contexte des logiques réduites. Ben Yaacov et Poizat dans leur travail intitulé fondements de la logique positive ont défini un nouveau cadre pour la théorie des modèles positive, qui détermine le contexte de cette thèse. Dans le premier chapitre nous rappelons les outils de la théorie des modèle positive et nous développons des notions et des outils qui nous seront utiles dans le reste des chapitres. Parmi ceux-ci, il convient de souligner les extensions universelles. Elles caractérisent les bases d'amalgamation dans le deuxième chapitre, et sont cruciales dans la construction des domaines universels positifs. Dans le deuxième chapitre nous étudions la notion d'amalgamation qui s'avère centrale dans la théorie des modèles positive. Elle nous permettra d'étudier la conservation de la séparation topologique entre les extensions élémentaires positives, et de caractériser les théories de Robinson et l'élimination des quanteurs dans certaines classes des structures. Dans le troisième chapitre, nous continuons l'étude de la stabilité positive déjà entamée par Ben Yaacov, et nous en proposons une nouvelle caractérisation par une notion d'ordre propre à la théorie des modèles positive.
APA, Harvard, Vancouver, ISO, and other styles
21

Bayoudh, Meriam. "Apprentissage de connaissances structurelles à partir d’images satellitaires et de données exogènes pour la cartographie dynamique de l’environnement amazonien." Thesis, Antilles-Guyane, 2013. http://www.theses.fr/2013AGUY0671/document.

Full text
Abstract:
Les méthodes classiques d'analyse d'images satellites sont inadaptées au volume actuel du flux de données. L'automatisation de l'interprétation de ces images devient donc cruciale pour l'analyse et la gestion des phénomènes observables par satellite et évoluant dans le temps et l'espace. Ce travail vise à automatiser la cartographie dynamique de l'occupation du sol à partir d'images satellites, par des mécanismes expressifs, facilement interprétables en prenant en compte les aspects structurels de l'information géographique. Il s'inscrit dans le cadre de l'analyse d'images basée objet. Ainsi, un paramétrage supervisé d'un algorithme de segmentation d'images est proposé. Dans un deuxième temps, une méthode de classification supervisée d'objets géographiques est présentée combinant apprentissage automatique par programmation logique inductive et classement par l'approche multi-class rule set intersection. Ces approches sont appliquées à la cartographie de la bande côtière Guyanaise. Les résultats démontrent la faisabilité du paramétrage de la segmentation, mais également sa variabilité en fonction des classes de la carte de référence et des données d'entrée. Les résultats de la classification supervisée montrent qu'il est possible d'induire des règles de classification expressives, véhiculant des informations cohérentes et structurelles dans un contexte applicatif donnée et conduisant à des valeurs satisfaisantes de précision et de KAPPA (respectivement 84,6% et 0,7). Ce travail de thèse contribue ainsi à l'automatisation de la cartographie dynamique à partir d'images de télédétection et propose des perspectives originales et prometteuses
Classical methods for satellite image analysis are inadequate for the current bulky data flow. Thus, automate the interpretation of such images becomes crucial for the analysis and management of phenomena changing in time and space, observable by satellite. Thus, this work aims at automating land cover cartography from satellite images, by expressive and easily interpretable mechanism, and by explicitly taking into account structural aspects of geographic information. It is part of the object-based image analysis framework, and assumes that it is possible to extract useful contextual knowledge from maps. Thus, a supervised parameterization methods of a segmentation algorithm is proposed. Secondly, a supervised classification of geographical objects is presented. It combines machine learning by inductive logic programming and the multi-class rule set intersection approach. These approaches are applied to the French Guiana coastline cartography. The results demonstrate the feasibility of the segmentation parameterization, but also its variability as a function of the reference map classes and of the input data. Yet, methodological developments allow to consider an operational implementation of such an approach. The results of the object supervised classification show that it is possible to induce expressive classification rules that convey consistent and structural information in a given application context and lead to reliable predictions, with overall accuracy and Kappa values equal to, respectively, 84,6% and 0,7. In conclusion, this work contributes to the automation of the dynamic cartography from remotely sensed images and proposes original and promising perpectives
APA, Harvard, Vancouver, ISO, and other styles
22

Martin, Lionel. "Induction de programmes logiques avec negation." Orléans, 1996. http://www.theses.fr/1996ORLE2069.

Full text
Abstract:
L'objectif de la programmation logique inductive est d'expliquer des observations en fournissant un programme logique qui modelise correctement ces observations. Cet apprentissage doit donc mettre en uvre d'une part des methodes de construction de definitions, et d'autre part des methodes de validation qui doivent permettre de determiner si un programme appris est correct pour le critere de correction choisi. De nombreuses approches se limitent a l'apprentissage de programmes definis ; nous proposons ici d'etendre le langage de representation aux programmes normaux, i. E. Aux programmes ou la negation peut apparaitre dans le corps des clauses. Cette extension a deux types de consequences sur le resultat de l'apprentissage, dus au pouvoir d'expression accru des programmes normaux : d'une part, les definitions apprises seront en general plus simples et donc faciles a comprendre pour un utilisateur ; d'autre part, il peut etre impossible de trouver un programme defini satisfaisant, alors que des solutions avec negation existent. Le critere de correction que nous avons choisi dans ce cadre est la coherence et la completude du programme appris par rapport a l'ensemble d'observations, ce critere etant exprime au moyen de proprietes de l'une des deux semantiques declaratives que sont le modele de fitting et le modele bien fonde. La premiere partie de notre travail consiste a proposer des methodes de validation qui permettent de dire si un programme est coherent et complet par rapport a une interpretation attendue. Ces methodes de validations globales ne sont en general pas assez fines pour permettre de valider des etapes importantes de la construction d'un programme telles que l'ajout ou le retrait d'une ou plusieurs clauses. Pour cette raison, nous proposons dans un second temps, un modele d'induction de programmes normaux qui integre des phases de validation plus fines.
APA, Harvard, Vancouver, ISO, and other styles
23

Neves, Rui da Silva. "Interactions entre induction et déduction dans le raisonnement humain." Paris 8, 1995. http://www.theses.fr/1995PA081063.

Full text
Abstract:
Ce travail constitue une etude des processus inferentiels sous-jacents aux activites d'attribution de causalite ou de proprietes, activites qui sont impliquees dans un large spectre de situations de la vie de tous les jours. Notre hypothese est que pour produire ces attributions, les individus realisent l'extraction des elements reguliers (cov ariants et coinvariants) dans les cas qui leurs sont donnes, et qu'ils attribuent une plausibilite aux hypotheses ainsi formees etant donne un nombre limite d'informations contextuelles. Une analyse du systeme de logique inductive de john stuart mill (1843 1988) a permis la definition d'un systeme de schemas pragmatiques d'inferences inductives et dedu ctives qui ont la forme de regles conditionnelles avec en entree la nature du processus d'extraction des regularites et quatre types d'informations contextuelles : (i) la completude des donnees, (ii) le caractere simple ou complexe des relations entre antecedents et consequents, (iii) l'unicite versus la pluralite des antecedents et des consequents et (iv) la fiabilite des donnees. La sortie des schemas consiste en l'attribution d'un degre de plausibilite a l'hypothe se reguliere consideree. Afin de verifier le modele de schemas pragmatiques, quatre experiences ont ete realisees qui testent l'aptitude des sujets a discriminer les effets des variables en entree des schemas pragmatiques
This work is a contribution to the study of the processes of inference implied in causal and dispositional attributions, which underlie a wide spectrum of daily life situations. Our hypothesis is that in order to make these attributions, people extract the regular elements (those which covary and those wich do not covary) in the given cases, and they ascribe a degree of plausibility to the constituted hypotheses given a limited set of contextual informations. An analysis of john stuart mill's system of logic (1843 1988) has provided the basis for the definition of a system of pragmatic schemas of inductive and deductive inferences formalized by several conditional rules. The input of these rules is fully developed by the extraction process that underlies the hypothesis generation and by four types of context ual informations : (i) the exhaustivity of data, (ii) the nature, simple or complex, of the relations between antecedent and consequent elements, (iii) the unicity versus multiplicity of antecedents and consequents, and (iv) the reliability of the datas. The output of the rules is a degree of plausibility attached to the generated hypothesis. In order to test the pragmatic schemas of inference model, four experiments have been conducted to discriminate the effects of the input variables
APA, Harvard, Vancouver, ISO, and other styles
24

Claveau, Vincent. "Acquisition automatique de lexiques sémantiques pour la recherche d'information." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00524646.

Full text
Abstract:
De nombreuses applications du traitement automatique des langues (recherche d'information, traduction automatique, etc.) requièrent des ressources sémantiques spécifiques à leur tâche et à leur domaine. Pour répondre à ces besoins spécifiques, nous avons développé ASARES, un système d'acquisition d'informations sémantiques lexicales sur corpus. Celui-ci répond à un triple objectif : il permet de fournir des résultats de bonne qualité, ses résultats et le processus ayant conduit à leur extraction sont interprétables, et enfin, il est assez générique et automatique pour être aisément portable d'un corpus à un autre. Pour ce faire, ASARES s'appuie sur une technique d'apprentissage artificiel symbolique --- la programmation logique inductive --- qui lui permet d'inférer des patrons d'extraction morphosyntaxiques et sémantiques à partir d'exemples des éléments lexicaux sémantiques que l'on souhaite acquérir. Ces patrons sont ensuite utilisés pour extraire du corpus de nouveaux éléments. Nous montrons également qu'il est possible de combiner cette approche symbolique avec des techniques d'acquisition statistiques qui confèrent une plus grande automaticité à ASARES. Pour évaluer la validité de notre méthode, nous l'avons appliquée à l'extraction d'un type de relations sémantiques entre noms et verbes définies au sein du Lexique génératif appelées relations qualia. Cette tâche d'acquisition revêt deux intérêts principaux. D'une part, ces relations ne sont définies que de manière théorique ; l'interprétabilité linguistique des patrons inférés permet donc d'en préciser le fonctionnement et les réalisations en contexte. D'autre part, plusieurs auteurs ont noté l'intérêt de ce type de relations dans le domaine de la recherche d'information pour donner accès à des reformulations sémantiquement équivalentes d'une même idée. Grâce à une expérience d'extension de requêtes, nous vérifions expérimentalement cette affirmation : nous montrons que les résultats d'un système de recherche exploitant ces relations qualia, acquises par ASARES, sont améliorés de manière significative quoique localisée.
APA, Harvard, Vancouver, ISO, and other styles
25

Serban, Cristina. "Raisonnement automatisé pour la logique de séparation avec des définitions inductives." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM030/document.

Full text
Abstract:
La contribution principale de cette thèse est un système de preuve correct et complet pour les implications entre les prédicats inductifs, fréquemment rencontrées lors de la vérification des programmes qui utilisent des structures de données récursives allouées dynamiquement. Nous introduisons un système de preuve généralisé pour la logique du premier ordre et nous l'adaptons à la logique de séparation, car ceci est un cadre qui répond aux plusieurs difficultés posées par le raisonnement sur les tas alloués dynamiquement. La correction et la complétude sont assurées par quatre restrictions sémantiques et nous proposons également un semi-algorithme de recherche de preuves qui devient une procédure de décision pour le problème d'implication lorsque les restrictions sémantiques sont respectées.Ce raisonnement d'ordre supérieur sur les implications nécessite des procédures de décision de premier ordre pour la logique sous-jacente lors de l'application des règles d'inférence et lors de la recherche des preuves. Ainsi, nous fournissons deux procédures de décision pour la logique de séparation, en considérant le fragment sans quantificateurs et le fragment quantifié de façon Exists*Forall*, qui ont été intégrées dans le solveur SMT open source CVC4.Finalement, nous présentons une implémentation de notre système de preuve pour la logique de séparation, qui utilise ces procédures de décision. Étant donné des prédicats inductifs et une requête d'implication, un avertissement est émis lorsqu'une ou plusieurs restrictions sémantiques sont violées. Si l'implication est valide, la sortie est une preuve. Sinon, un ou plusieurs contre-exemples sont fournis
The main contribution of this thesis is a sound and complete proof system for entailments between inductive predicates, which are frequently encountered when verifying programs that work with dynamically allocated recursive data structures. We introduce a generalized proof system for first-order logic, and then adapt it to separation logic, a framework that addresses many of the difficulties posed by reasoning about dynamically allocated heaps. Soundness and completeness are ensured through four semantic restrictions and we also propose a proof-search semi-algorithm that becomes a decision procedure for the entailment problem when the semantic restrictions hold.This higher-order reasoning about entailments requires first-order decision procedures for the underlying logic when applying inference rules and during proof search. Thus, we provide two decision procedures for separation logic, considering the quantifier-free and the Exists*Forall*-quantified fragments, which were integrated in the open-source, DPLL(T)-based SMT solver CVC4.Finally, we also give an implementation of our proof system for separation logic, which uses these decision procedures. Given some inductive predicate definitions and an entailment query as input, a warning is issued when one or more semantic restrictions are violated. If the entailment is found to be valid, the output is a proof. Otherwise, one or more counterexamples are provided
APA, Harvard, Vancouver, ISO, and other styles
26

Martienne, Emmanuelle. "Eagle : Un système pour la découverte interactive de descriptions de concepts basé sur la théorie des ensembles approximatifs." Nantes, 1999. http://www.theses.fr/1999NANT2007.

Full text
Abstract:
Le cadre theorique de cette these est celui de la programmation logique inductive (pli), une discipline situee au croisement de la programmation logique et de l'apprentissage symbolique automatique. Notre travail de recherche s'est focalise sur deux axes principaux : d'une part l'utilisation interactive des methodes de pli, et d'autre part l'amelioration de leurs capacites de prise en compte des donnees imparfaites, en particulier numeriques et volumineuses. L'approche proposee integre dans le cadre de la pli, des notions provenant de la theorie des ensembles flous et de celle des ensembles approximatifs. D'une part, des proprietes vagues, modelisees a l'aide de sous-ensembles flous, sont utilisees pour qualifier de maniere symbolique les caracteristiques numeriques. Ce traitement resulte sur l'apparition de concepts flexibles, c'est-a-dire de concepts graduels dont l'appartenance peut etre partielle. De tels concepts sont representes par des sous-ensembles flous d'exemples, par contraste avec les concepts stricts, representes par des ensembles classiques. Afin de prendre egalement en compte ce type de concepts, le processus d'induction s'inspire de la theorie des ensembles approximatifs. Il se decompose en trois phases distinctes : (1) partitionnement de la connaissance extensionnelle, (2) approximation des concepts cibles, et enfin (3) recherche de descriptions logiques, definissant les concepts en tenant compte de leurs eventuelles gradualites. Cette approche s'inscrit dans une demarche d'apprentissage interactive, dans laquelle l'utilisateur construit une solution a son probleme d'apprentissage, grace aux declenchements successifs de taches. La specification d'un contexte pour chaque tache, lui permet en outre d'indiquer ses attentes aux systemes et d'influencer les descriptions produites. Un systeme d'apprentissage appele eagle, mettant en oeuvre de maniere concrete cette approche, est evalue sur des problemes classiques d'apprentissage symbolique.
APA, Harvard, Vancouver, ISO, and other styles
27

Craciunescu, Sorin. "Preuves d'équivalence de programmes logiques." Palaiseau, Ecole polytechnique, 2004. http://www.theses.fr/2004EPXX0008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Löbach, Brigitte. "Semantikerwerb : ein Beitrag zu einer empiritisch-naturalistischen Bedeutungstheorie /." Tübingen : M. Niemeyer, 2000. http://catalogue.bnf.fr/ark:/12148/cb399180965.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Jacquemin, Ingrid Nicolas Jacques. "Découverte de motifs relationnels en bioinformatique application à la prédiction de ponts disulfures /." [S.l.] : [s.n.], 2005. ftp://ftp.irisa.fr/techreports/theses/2005/jacquemin.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Helft, Nicolas. "L' Induction en intelligence artificielle : théorie et algorithmes." Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX22044.

Full text
Abstract:
Le probleme de l'induction est aborde a partir de "premiers principes": etant donnee une connaissance supposee etre representative d'un certain domaine, on se pose le probleme de trouver toutes les hypotheses pouvant etre raisonnablement conjecturees. En d'autres termes, le probleme est de definir et calculer ce qui peut, a l'oppose de ce qui doit etre conjecture
APA, Harvard, Vancouver, ISO, and other styles
31

Bessant, Brigitte. "Contributions aux techniques de révision de croyances en intelligence artificielle : aspects sémantiques et calculatoires." Artois, 1999. http://www.theses.fr/1999ARTO0402.

Full text
Abstract:
Cette thèse se situe dans le cadre de la modélisation et de la simulation des raisonnements de sens commun, un des domaines majeurs de l'intelligence artificielle. Certaines formes de raisonnement de la vie quotidienne ont une propriété dite de non-monotonie. Les conclusions jusqu'ici inférées peuvent être remises en cause par l'ajout de nouvelles prémisses. Les logiques non monotones et la théorie du changement d'état cognitif forment la base de nos travaux de recherche. Dans la première partie, nous apportons notre contribution à l'étude des relations que l'on peut établir entre les inférences abductive et inductive par une caractérisation unificatrice. Nous dégageons quelques principales caractéristiques de ces deux formes de raisonnement. Dans la deuxième partie, nous étudions les différences qui existent entre les notions proches de révision et de mise a jour. Puis nous décrivons la révision itérée avec sémantique des distances qui constitue le cadre de notre approche de la révision au niveau sémantique. Nous caractérisons une fonction dite de degré de confiance et nous montrons un théorème de représentation de cette fonction par une distance. Ce travail poursuit un autre objectif qui vise à relier l'abduction et la révision avec sémantique des distances. Dans la troisième partie, nous adoptons un point de vue pratique vis-à-vis du problème de la révision itérée de croyances. Nous proposons un nouvel algorithme de révision efficace fondé sur des techniques de recherche locale. L'originalité de cette stratégie de révision se situe principalement au niveau de deux points qui sont la coopération d'une logique non monotone et d'une technique de révision de croyances ainsi que l'affaiblissement des croyances au lieu de leur destruction pour le rétablissement de la cohérence. L'efficacité de cet algorithme est très compétitive sur de grandes bases de croyances propositionnelles. Enfin, notre dernière contribution se situe dans une approche originale pour réviser des bases de croyances stratifiées soumises a un pré-ordre de préférence.
APA, Harvard, Vancouver, ISO, and other styles
32

Lopes, Marcos. "Modèles inductifs de la sémiotique textuelle." Paris 10, 2002. http://www.theses.fr/2002PA100145.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Clairambault, Pierre. "Logique et Interaction : une Étude Sémantique de la Totalité." Phd thesis, Université Paris-Diderot - Paris VII, 2010. http://tel.archives-ouvertes.fr/tel-00459307.

Full text
Abstract:
Cette thèse s'articule autour de l'utilisation de stratégies totales pour la représentation des preuves. La première partie porte sur le cadre finitaire. L'analyse commence dans un univers syntaxique : on définit un lambda-calcul unaire fortement normalisant, pour lequel on rappelle la machine à pointeurs (PAM). On réduit le problème de préservation de la totalité par composition à un problème de finitude sur des objets appelés structures de pointeurs. On donne trois preuves différentes de ce résultat de finitude. La première se ramène via la PAM à la normalisation du lambda-calcul unaire, la seconde passe par l'extraction d'une réduction simple sur les arbres d'entiers et la troisième s'inspire d'un argument combinatoire de Coquand. La seconde partie traite d'un calcul de séquents mu-LJ équipé de définitions inductives et coinductives, dans lequel on donne une simulation du système T. On définit les catégories mu-fermées, formant une classe de modèles de mu-LJ. Dans le cadre des jeux on définit les arènes ouvertes, munies de variables de type libres. À chacune de ces arènes ouvertes est associé un foncteur ouvert sur la catégorie des stratégies innocentes. On décrit ensuite sur les arènes ouvertes une construction de boucle dont on montre qu'elle rejoint le modèle de McCusker des types récursifs. Les boucles sont alors enrichies par des conditions de gain inspirées des jeux de parité, ce qui équipe les foncteurs ouverts d'algèbres initiales et coalgèbres terminales et construit une catégorie mu-fermée. On propose finalement une extension de mu-LJ à une syntaxe infinie, pour laquelle le modèle est pleinement complet.
APA, Harvard, Vancouver, ISO, and other styles
34

Jappy, Pascal. "Apprenabilité de classes de concepts structurés." Montpellier 2, 1997. http://www.theses.fr/1997MON20256.

Full text
Abstract:
En apprentissage, le choix de la representation des donnees determine a la fois la difficulte de la tache et la qualite du resultat. La plupart des travaux existants se preoccupent de classes de concepts booleennes, souvent simples a apprendre mais d'une expressivite limitee. En revanche, les langages dits structures, offrent une puissance de representation plus importante au prix d'une plus grande complexite. Si bien qu'il est necessaire de trouver un compromis entre les notions antagonistes que sont expressivite et complexite. Dans cette these, nous etudions formellement ce probleme, en nous interessant a plusieurs classes de langages structures. Dans un premier temps, nous etendons les trois classes apprenables de formules booleennes k-monome, k-dnf et k-dl a des formalismes plus complexes. Plus exactement, nous remplacons les monomes qui les composent par des termes structures. Puis, nous etendons le modele pac et plusieurs techniques de preuve pour prendre en compte ces nouvelles representations. Enfin, nous prouvons que les classes etendues precedemment conservent leurs bonnent proprietes en montrant qu'elles sont apprenables dans notre modele generalise. Dans un deuxieme temps, nous nous interessons a l'apprenabilite robuste de deux classes de langages logiques etudies en programmation logique inductive : les clauses ij-determinees et les clauses l-locales. Nous montrons que ces deux classes pac apprenables ne permettent pas l'apprentissage robuste.
APA, Harvard, Vancouver, ISO, and other styles
35

Craciunescu, Sorin. "Vérification des programmes logiques." Phd thesis, Ecole Polytechnique X, 2004. http://pastel.archives-ouvertes.fr/pastel-00000864.

Full text
Abstract:
Le but de ce travail est de proposer un système formel pour prouver que l'ensemble des succès d'un programme logique est inclus dans l'ensemble correspondant d'un autre programme. Cela permet de prouver que deux programmes logiques, un qui représente la spécification et un représentant l'implantation sont équivalents. Le langage logique considéré est CLPforall qui est le langage le langage de programmation logique avec contraintes (CLP) auquel est ajouté le quantificateur universel. Nous présentons les sémantiques des succès finis et infinis et montrons qu'elles sont données par le plus petit et le plus grand point fixe du même opérateur. Un système de preuve pour l'inclusion des succès finis est présenté. Le système utilise pour les opérateurs et les quantificateurs logiques les mêmes règles que la logique du premier ordre. Pour raisonner sur les prédicats récursifs le système contient une règle d'induction. Nous prouvons la correction du système sous certains conditions. Un système analogue pour l'inclusion des succès infinis est présenté. La règle d'induction est remplacée par une règle de coinduction. La correction est démontrée sous conditions analogues. Les deux systèmes sont équivalents sous certains conditions. Une implantation a été réalisée sous la forme d'assistant de preuve écrit en Prolog. Le programme a environ 4000 lignes et contient des procédures simples mais efficaces de recherche de preuves. Nous présentons des exemples de preuves réalises avec ce programme parmi lesquels la preuve de correction de quicksort.
APA, Harvard, Vancouver, ISO, and other styles
36

Polge, Martial. "La première hypothèse d'un raisonnement hypothético-déductif : approche comportementale et électrophysiologique du cas "+2" dans le problème "2-4-6"." Aix-Marseille 1, 2000. http://www.theses.fr/2001AIX10004.

Full text
Abstract:
L'objectif general de cette these est d'identifier les contraintes pesant sur l'activite d'extraction de regles susceptibles d'expliquer le phenomene de focalisation lors d'un raisonnement hypothetico-deductif (wason, 1960). Ce phenomene est caracterise par la focalisation des sujets sur les aspects specifiques du stimulus donne comme exemple de la regle a decouvrir. Pour cela, deux types de contraintes sont examines : (1) les contraintes intrinseques et (2) les contraintes extrinseques aux stimuli. Les experiences realisees dans cette these examinent les contraintes engendrees par les regles sous-jacentes aux stimuli (i. E. , triplets de nombres) ainsi que les contraintes des caracteristiques physiques des triplets de nombres. A cette fin, une etude electrophysiologique et une etude comportementale ont ete realisees. L'experience 1, a l'aide des potentiels evoques, a mis en evidence au niveau de la p3a (reflet des processus automatiques d'orientation de l'attention) des differences d'amplitude et de latence, indice d'une difference de traitement des sujets selon le type de regles qu'ils doivent extraire. L'experience 1 a donc valide l'hypothese d'une influence du type de regles sur le traitement des sujets. Les experiences 2 et 3 en utilisant des indices comportementaux de l'activite cognitive ont montre que les caracteristiques physiques du triplets 2-4-6 engendrent une focalisation des sujets sur les caracteristiques les plus representatives du triplet (i. E. , ajouter 2). Les observations de cette these laissent donc penser que le phenomene de focalisation dans la tache 2-4-6 releve d'un processus automatique qui pourra se traduire par une recuperation directe et d'un seul pas en memoire de la solution (logan, 1988). Ainsi, la regle n + 2, majoritairement donnee par les sujets lors du premier pas de resolution, serait donnee par les sujets sans qu'il aient a raisonner.
APA, Harvard, Vancouver, ISO, and other styles
37

Boughattas, Sedki. "L'Arithmétique ouverte et ses modèles non-standards." Paris 7, 1987. http://www.theses.fr/1987PA077044.

Full text
Abstract:
On montre que, dans le langage forme par les symboles d'addition, de multiplication, de successeur, de relation d'ordre et la constante zéro, la théorie de l'induction pour les formules ouvertes est non-finiment axiomatisable. On apporte la réponse à des questions relatives aux sous-systèmes de cette arithmétique, posées par Shepherdson et par Macintyre
APA, Harvard, Vancouver, ISO, and other styles
38

Mbame, Nazaire. "Relations partie-tout : aspects ontologiques, phénoménologiques et lexico-sémantiques." Clermont-Ferrand 2, 2006. http://www.theses.fr/2006CLF20009.

Full text
Abstract:
Ce travail en 4 chapitres est une investigation de la relation "partie-tout" en concordance avec sa transposition langagière, non en termes syntaxico-discursifs, mais en termes de motifs et profilages sémantiques, selon la méthode de la "Théorie des formes sémantiques" de Cadiot et Visetti. Le premier chapitre revient sur les fondements de cette relation. Après une critique des opinions installées (l'empirisme de Winston, Chaffin, Hermann,. . . ; la perspective lexicale de Cruse), par Aristote, Husserl, Cassirer,. . . Nous restituons cette problématique dans son véritable questionnement ontologique et phénoménologique ; notre démarche étant descriptive par rejet du formalisme axiomatique. La suite est consacrée à l'énonciation des trois grands domaines mérologiques que sont l'associationnisme, le consociationniste et l'homéomérie. Un travail particulier est consacré aux lois de l'adduction / abduction, conduction, induction / déduction ; de la façon dont elles influent sur les "parties et touts" aux plans vertical et horizontal de leur structuration. Au chapitre 2, nous étudions l'associationnisme et sa forme particulière d'expression qu'est l'homéomérie. Le chapitre 3 est consacré aux problèmes de stucturation phylétique des entités complexes. Il s'achève sur l'analyse de la projection de l'associationnisme et homéomérie en le consociationnisme. L'interprétation partonomique est l'objet du chapitre 4 où, entre autres objectifs, est abordé la question de la signifiance ontologique des notions de "partie et tout" et de leurs propres profilages sémantiques. Il s'achève sur une proposition de classification de la réalité à partir du statut ontologique de"partie" ou de" tout" de ses objets
APA, Harvard, Vancouver, ISO, and other styles
39

Crémilleux, Bruno Robert Claudine. "Induction automatique aspects théoriques, le système ARBRE, applications en médecine /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00339492.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Boukhris, Samir. "Probabilités et induction : le programme de Carnap." Paris 1, 2001. http://www.theses.fr/2001PA010601.

Full text
Abstract:
Le programme de Carnap a montré non seulement que la logique inductive probabiliste était possible, mais encore que cette logique pouvait avoir la même précision que la logique déductive et qu'elle pouvait, comme celle-ci, résoudre d'importants problèmes. Il y a, de toute évidence, des imperfections, des déficiences et des paradoxes que ce programme a rencontrés. Carnap en était parfaitement conscient et il a cherché à les dépasser dans les multiples systèmes que lui et ses disciples ont tenté de mettre en place. Les fondements de la logique inductive sont loin d'être comparables à ceux de son modèle, la logique déductive, mais les premières pierres sont bien là. Le concept de probabilité utilisé est également clair et précisé. L'apport de Carnap est certes remarquable mais risque de paraître maigre lorsqu'on évalue la masse des difficultés rencontrées dans son programme. Carnap ainsi que ses disciples n'ont pas cessé de réviser ce programme, de l'améliorer, d'intégrer de nouveaux résultats et d'anticiper des difficultés. . . Ils sont sans conteste à la source d'un important courant d'idées qui continue aujourd'hui encore à marquer la philosophie et à animer les débats. Examiner le programme de Carnap dans sa totalité, suivre son évolution, le remettre à jour, l'actualiser, lui donner la place qu'il mérite et le situer par rapport aux autres tentatives concurrentes; tel est l'objectif de cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
41

Rousseaux-Bettache, Nabila Amel. "Approche physiologique de la production de protéines recombinantes dans une logique globale haut débit." Paris 11, 2006. http://www.theses.fr/2006PA112071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Ben, Rajeb Narjes. "Preuves par induction implicite : cas des théories associatives-commutatives et observationnelles." Nancy 1, 1997. http://www.theses.fr/1997NAN10174.

Full text
Abstract:
Les preuves automatiques par induction sont un moyen formel pour la validation de systèmes informatiques. Dans le cadre de l'induction par ensemble test, nous proposons deux méthodes de preuves automatiques s'appliquant à des spécifications conditionnelles : l'une opérant dans les théories associatives-commutatives (AC), l'autre dans les théories observationnelles. Dans la première méthode nous proposons un calcul des schémas d'induction, ainsi qu'un système d'inférence utilisant des techniques élaborées de réécriture modulo AC. Pour une classe de spécifications, la méthode détecte toute conjecture non valide en un temps fini. Des expérimentations intéressantes sur la correction de circuits digitaux, ont produit des preuves nécessitant moins d'interaction qu'avec d'autres prouveurs connus. Dans l'approche observationnelle, les objets d'un type de données sont considérés comme égaux s'ils ne peuvent être distingués par des expérimentations à résultats observables. Ces expérimentations sont représentées par des termes particuliers appelés contextes observables. Nous proposons une méthode de preuve automatique de propriétés observationnelles reposant sur le calcul d'un ensemble fini de contextes, appelés contextes tests, qui schématise l'ensemble de tous les contextes observables. Nous proposons également des méthodes de calcul de ces contextes tests ainsi qu'un nouveau système d'inférence. Pour une classe de spécifications, la méthode détecte toute conjecture non observationnellement valide en un temps fini
Automated induction proofs are a formal means for systems validation. In the framework of test set induction, we propose two automated proofs methods for conditional specifications: one deals with associative-commutative (AC) theories, the other with observational theories. In the first method, we give an algorithm for computing induction schemes, as well as a new inference system using elaborated AC rewriting techniques. For a class of specifications, the method detects non valid conjectures in a finite time. Interesting experiments on the correctness of digital circuits produced proofs requiring less interaction than other well-known provers. In the observational approach, data type objects are cnsidered as equal if they cannot be distinguished by experiments with observational results. These experiments are represented by particular terms called observable contexts. We propose an automated proof method of observational properties, relying on the computation of a finite set of well-chosen contexts called test contexts, that shematizes all the observable contexts. We also propose methods for computing such test contexts and a new inference system. For an interesting class of specifications, the method detects non observationally valid conjectures in a finite time
APA, Harvard, Vancouver, ISO, and other styles
43

Larde, Christophe. "Étude expérimentale du comportement des circuits intégrés logiques soumis à des perturbations électromagnétiques." Lille 1, 1991. http://www.theses.fr/1991LIL10121.

Full text
Abstract:
L'usage de plus en plus fréquent des logiques bas niveau expose certaines fonctions à un risque électromagnétique important. On comprend alors l'intérêt qu'il y a à réduire ces risques en agissant sur la sensibilité électromagnétique des équipements électroniques. C'est à ce problème qu'est consacrée notre thèse, où nous cherchons à reconnaître à travers les différentes familles technologiques de composants logiques actifs des comportements singuliers vis-à-vis des agressions électromagnétiques. Dans le premier chapitre nous mettons en place deux dispositifs d'injection de perturbation électromagnétique de type impulsionnel, ceux-ci trouvent leur justification dans la modélisation du phénomène de couplage. Dans les deux chapitres suivants nous exploitons les deux dispositifs précédents en les appliquant aux ports d'accès de circuits NAND de différentes familles technologiques. Les essais pratiqués montrent le rôle important joué par la nature non linéaire des impédances mises en jeu lors de l'agression électromagnétique des circuits. Enfin dans le quatrième chapitre nous présentons les différentes possibilités offertes par un logiciel développé au laboratoire, qui permet de simuler le résultat de l'induction électromagnétique produit sur des pistes de circuits imprimés à des circuits intégrés
APA, Harvard, Vancouver, ISO, and other styles
44

Corbineau, Pierre. "Démonstration automatique en théorie des types." Paris 11, 2005. http://www.theses.fr/2005PA112149.

Full text
Abstract:
Les logiciels d'aide à la démonstration se répartissent entre prouveurs automatiques et assistants de preuve interactifs. Les premiers sont des outils spécialisés dont les techniques sont éloignées des méthodes intuitives de raisonnement mais dont la portée est faible. Les seconds ont un champ d'application plus large mais l'utilisateur doit expliciter tous les détails de la démonstration. L'automatisation des preuves y est difficile car la logique utilisée est plus expressive. La thèse se compose de trois contributions dans ce domaine. D'abord, nous présentons une extension de la clôture de congruence à une théorie des constructeurs avec application partielle. Un algorithme pour résoudre ce problème est décrit et étudié. Ensuite nous construisons un formalisme du premier ordre incluant des connecteurs définis comme des types inductifs non récursifs dans l'esprit du Calcul des Constructions Inductives. Nous présentons un nouveau calcul de séquents sans contraction pour la logique intuitionniste du premier ordre, adapté à ce formalisme, et prouvons ses propriétés fondamentales: élimination des contractions et des coupures. Nous en dérivons une procédure de semi-décision. Ces deux premières contributions sont implantées dans l'assistant de preuve Coq; la troisième est la description d'une méthode d'interprétation des preuves au premier ordre dans la Théorie des Types grâce à la réflexion calculatoire. Ce paradigme est appliqué à la logique propositionnelle et utilisé par une procédure de décision du système Coq. Cette méthode est aussi étendue au premier ordre avec égalité et permet de vérifier des preuves engendrées par complétion ordonnée dans le système CiME
Among software designed to help formal reasoning, there are automated theorem provers and interactive proof assistants. The former are specialized tools using technics that differ from traditionnal reasoning methods, but they have a very limited range. The latter have a wider range but theii users must specify explicitly every proof step. Automation of proofs is tricky in these latter tools because they use expressive logical systems. This thesis is build around three contributions in this field. First, we present an extension of congruence-closure the a theory of constructors with partial application. An algorithm to solve this problem is described and studied. Then, we build a first-order formalism including connectives defined as non-recursive inductive types similar to those in the Calculus of Inductive Constructions. We present a new contraction-free sequent calculus for first-order intuitionistic logic that is adapted to this formalism, and we prove its fundamental properties: contraction- and cut-elimination. We derive a semi-decision procedure from these results. Those two contributions are implemented inside the Coq proof assistant; the third one is the description of a methode allowing the interpretation of first-order proof tree into Type Theory by computational reflection. This paradigm is applied to propositionnal logic and is used by a decision procedure inside the Coq system. This method is also adapted to first-order logic with equality and allows to check proofs obtained by ordered completion in the CiME system
APA, Harvard, Vancouver, ISO, and other styles
45

Hermann, Odile. "Mécanisation de la recherche de preuves et de programmes en arithmétique fonctionnelle du second ordre." Nancy 1, 1995. http://www.theses.fr/1995NAN10054.

Full text
Abstract:
Ce travail a pour propos la synthèse de programmes à partir de preuves constructives dans un cadre logique spécifique: l'arithmétique fonctionnelle du second ordre. Une première étape consiste à proposer une transcription du système de règles initial exprime en déduction naturelle, en un système de séquents plus adapte au traitement automatique du développement de preuves. Pour mécaniser la recherche de preuves, nous définissons un ensemble de tactiques que nous prouvons correctes vis-à-vis du cadre logique de référence de façon à garantir l'adéquation du système de preuves obtenu. Parmi ces tactiques, nous nous concentrons sur les plans de preuve, tactiques particulières capables de développer complètement une preuve ou une classe de preuves. La partie centrale de notre travail consiste en une étude des mécanismes d'induction dont la mise en œuvre est nécessaire pour l'obtention de programmes définis récursivement. Nous montrons des liens entre forme d'induction, spécification du programme, définition des types de données, et réussite de la construction de la preuve. Pour tirer profit de cette étude, nous proposons une procédure de choix d'induction et un plan de preuve générique qui permet d'obtenir des programmes aussi variés que la fonction d'Ackermann, la fonction Fibonacci ou le tri d'une liste par arbre binaire. Ces travaux ont fait l'objet de l'implantation d'un système baptise SKIL (Synthesizing Knowledge in Intuitionistic Logic)
APA, Harvard, Vancouver, ISO, and other styles
46

Boutillier, Pierre. "De nouveaux outils pour calculer avec des inductifs en Coq." Phd thesis, Université Paris-Diderot - Paris VII, 2014. http://tel.archives-ouvertes.fr/tel-01054723.

Full text
Abstract:
En ajoutant au lambda-calcul des structures de données algébriques, des types dépendants et un système de modules, on obtient un langage de programmation avec peu de primitives mais une très grande expressivité. L'assistant de preuve Coq s'appuie sur un tel langage (le CIC) à la sémantique particulièrement claire. L'utilisateur n'écrit pas directement de programme en CIC car cela est ardu et fastidieux. Coq propose un environnement de programmation qui facilite la tâche en permettant d'écrire des programmes incrémentalement grâce à des constructions de haut niveau plus concises. Typiquement, les types dépendants imposent des contraintes fortes sur les données. Une analyse de cas peut n'avoir à traiter qu'un sous-ensemble des constructeurs d'un type algébrique, les autres étant impossibles par typage. Le type attendu dans chacun des cas varie en fonction du constructeur considéré. L'impossibilité de cas et les transformations de type doivent être explicitement écrites dans les termes de Coq. Pourtant, ce traitement est mécanisable et cette thèse décrit un algorithme pour réaliser cette automatisation. Par ailleurs, il est nécessaire à l'interaction avec l'utilisateur de calculer des programmes du CIC sans faire exploser la taille syntaxique de la forme réduite. Cette thèse présente une machine abstraite conçu dans ce but. Enfin, les points fixes permettent une manipulation aisée des structure de données récursives. En contrepartie, il faut s'assurer que leur exécution termine systématiquement. Cette question sensible fait l'objet du dernier chapitre de cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
47

Fissore, Olivier. "Terminaison de la réécriture sous stratégies." Nancy 1, 2003. http://www.theses.fr/2003NAN10176.

Full text
Abstract:
L'objectif de cette thèse est l'étude et la réalisation d'outils pour prouver la terminaison de programmes à base de règles utilisant des stratégies. Partant d'une méthode originale permettant de prouver par induction la terminaison de la réécriture innermost, nous avons amélioré et étendu ce processus de preuve à la stratégie outermost puis aux stratégies locales. Ces processus de preuve ont été implantés dans un outil nommé CARIBOO. Des langages tels qu'ELAN permettent à l'utilisateur de définir ses propres stratégies, par combinaison des règles du programme au moyen d'opérateurs adaptés. Nous avons élaboré une méthode de preuve de terminaison de ces stratégies, basée sur un processus automatique de simplification. Enfin, nous avons adapté notre processus de preuve inductif original à la preuve de la terminaison faible d'un programme, qui fournit à la fois la preuve de l'existence d'une évaluation terminante de toute donnée et un algorithme d'évaluation de cette donnée
The aim of this thesis is to study and develop tools for proving termination of rule-based languages using strategies. Starting from an original method for proving, by induction, the termination of innermost rewriting, we enhanced and extended this method to the outermost and local strategies. These proof processes have then been implemented in a tool, named CARIBOO. Such languages as ELAN make it possible for the programmer to define his own strategies, by combining rules of the program with appropriate strategy operators. We came up with a method allowing to prove termination of such strategies, based on an automatic simplification process. Finally, our original inductive proof process has been adapted to show weak termination of programs. This new process provides both the proof of termination of at least one evaluation of any data and an evaluation algorithm for this data
APA, Harvard, Vancouver, ISO, and other styles
48

Urso, Pascal. "Généralisations et méthodes correctes pour l'induction mathématique." Phd thesis, Université de Nice Sophia-Antipolis, 2002. http://tel.archives-ouvertes.fr/tel-00505928.

Full text
Abstract:
Il existe de nombreux systèmes de preuves par induction visant à automatiser la preuve de théorèmes mathématiques. Cependant, un système de preuve ne peut pas être réellement automatique si plusieurs interactions humaines -- telles que l'apport de lemmes, de généralisations, ou de schémas d'induction -- sont nécessaires pour prouver des théorèmes qui semblent triviaux pour un être humain. Par exemple, la preuve de la commutativité de la multiplication (y * x = x * y) doit notamment recourir à des lemmes exprimant la distributivité de la multiplication ainsi que la distributivité et la commutativité de l'addition. Dans cette thèse, nous proposons des apports aux méthodes de preuve par induction dans le sens d'une plus grande automatisation. Ces apports sont constitués de deux heuristiques efficaces et surtout de deux algorithmes corrects. Le premier algorithme calcule des généralisations correctes pour des théories non-conditionnelles. Le second est une méthode d'induction originale -- la "partition de termes"-- permettant la preuve automatique de théorèmes inductifs.
APA, Harvard, Vancouver, ISO, and other styles
49

Wang, Feng. "Abstraction temporelle de signal ECG, apprentissage inductif de contraintes temporelles et reconnaissance des arythmies cardiaques." Rennes 1, 2002. http://www.theses.fr/2002REN10123.

Full text
Abstract:
Ce travail a pour objectif la caractérisation automatique des arythmies cardiaques. Jusqu'à présent, les approches proposées reposaient sur une démarche classique associant le traitement du signal et la classification des événements mesurés sur le signal. L'approche adoptée dans ce travail se différencie et associe le traitement du signal, l'apprentissage inductif et la reconnaissance de motifs d'événements temporellement contraints appelés chroniques. Le traitement du signal permet de transformer ou d'abstraire l'ECG numérique en une suite de données symbolique à reconnaître. L'apprentissage inductif produit automatiquement les règles de description des troubles du rythme. La reconnaissance en ligne, fondé sur un système de supervision industriel, réalise la caractérisation des troubles du rythme observés à partir des caractéristiques clefs extraites à l'étape d'apprentissage. Les résultats obtenus démontrent la souplesse et l'efficacité de l'approche.
APA, Harvard, Vancouver, ISO, and other styles
50

Labarère, José. "Développement ascendant de recommandations pour la pratique clinique en situation d'incertitude scientifque : apport des arbres d'induction et application à la prévention de la maladie thrombo-embolique veineuse." Université Joseph Fourier (Grenoble), 2003. http://www.theses.fr/2003GRE19012.

Full text
Abstract:
Les recommandations pour la pratique clinique sont des propositions développées pour aider le praticien dans sa décision concernant le caractère approprié des soins dans des circonstances cliniques données. L'élaboration de recommandations en situation d'incertitude scientifique repose sur l'avis d'experts et conduit à des recommandations discordantes dont la validité est controversée. Ce travail expérimente une méthode de développement ascendant de recommandations à partir des données d'une enquête épidémiologique, dans le cadre de la prévention de la maladie thrombo-embolique veineuse. Cette méthode pallie le défaut de connaissances scientifiques robustes par la formalisation des règles décisionnelles sous-jacentes aux pratiques cliniques observées. Elle utilise pour cela les arbres d'induction. La pertinence des règles décisionnelles est illustrée par la fréquence d'un indicateur de santé dans les sous-groupes de patients correspondants. Cette méthode limite la subjectivité liée à l'avis d'experts dans le processus de développement et accroît la validité présumée des recommandations. L'étude d'impact des recommandations a documenté leur efficacité sur les pratiques cliniques et la prévalence des thromboses veineuses profondes
Clinical practice guidelines are systematically developed statements to assist practitioner decisions about appropriate health care for specific clinical circumstances. When robust scientific evidence is lacking, clinical guidelines are derived from expert opinion. This leads to inconsistent guidelines which vary in their advice. This thesis reports the implementation of an ascending method of guideline development based on observational data in the case of prevention for venous thromboembolism. This method reduces the scientific uncertainty by extracting clinical decision rules from physician practice data. For this purpose, we used classification and regression tree methods. The accuracy of the clinical decision rules was illustrated by the rate of an outcome measure in the corresponding subsets of patients. This method reduces expert subjectivity in the process of development and increases the expected validity of the guidelines. Finally, we have demonstrated the impact of these guidelines on both physician practices and deep vein thrombosis, through a before-and-after study design
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography