To see the other types of publications on this topic, follow the link: Formalisation sémantique.

Dissertations / Theses on the topic 'Formalisation sémantique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 29 dissertations / theses for your research on the topic 'Formalisation sémantique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kacfah, Emani Cheikh Hito. "Formalisation automatique et sémantique de règles métiers." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1301/document.

Full text
Abstract:
Cette thèse porte sur la transformation automatique et sémantique de règles métiers en des règles formelles. Ces règles métiers sont originellement rédigées sous la forme de textes en langage naturel, de tableaux et d'images. L'objectif est de mettre à la disposition des experts métiers, un ensemble de services leur permettant d'élaborer des corpus de règles métiers formelles. Le domaine de la Construction est le champ d'application de ces travaux. Disposer d'une version formelle et exécutable de ces règles métiers servira à effectuer des contrôles de conformité automatique sur les maquettes numériques des projets de construction en cours de conception.Pour cela, nous avons mis à disposition des experts métiers les deux principales contributions de cette thèse. La première est la mise sur pied d'un langage naturel contrôlé, dénommé RAINS. Il permet aux experts métiers de réécrire les règles métiers sous la forme de règles formelles. Les règles RAINS se composent de termes du vocabulaire métier et de mots réservés tels que les fonctions de comparaisons, les marques de négation et de quantification universelle et les littéraux. Chaque règle RAINS a une sémantique formelle unique qui s'appuie sur les standards du web sémantique. La seconde contribution majeure est un service de formalisation des règles métiers. Ce service implémente une approche de formalisation proposée dans le cadre de cette thèse et dénommée FORSA. Ce service propose des versions RAINS des règles métiers en langage naturel qui lui sont soumises. FORSA fait appel à des outils du traitement automatique du langage naturel et à des heuristiques. Pour évaluer FORSA, nous avons mis sur pied un benchmark adapté à la tâche de formalisation des règles métiers. Les données de ce benchmark sont issues de normes du domaine de la Construction<br>This thesis focuses on automatic and semantic transformation of business rules into formal rules. These business rules are originally drafted in the form of natural language text, tables and images. Our goal is to provide to business experts a set of services allowing them to develop corpora of formal business rules. We carry out this work in the field of building engineering construction. Having formal and executable versions of the business rules enables to perform automatic compliance checking of digital mock-ups of construction projects under design.For this we made available to business experts, the two main contributions of this thesis. The first is the development of a controlled natural language, called RAINS. It allows business experts to rewrite business rules in the form of formal rules. A RAINS rule consists of terms of the business vocabulary and reserved words such as comparison predicates, negation and universal quantification markers and literals. Each RAINS rule has a unique formal semantics which is based on the standards of the Semantic Web. The second major contribution is a service for formalization of business rules. This service implements a formalized approach proposed in this thesis and called FORSA. This service offers RAINS versions of natural language business rules submitted to it. FORSA uses natural language processing tools and heuristics. To evaluate FORSA, we have set up a benchmark adapted to the formalization of business rules task. The dataset from this benchmark are from norms in the field of Construction
APA, Harvard, Vancouver, ISO, and other styles
2

Lefeuvre, Anais. "Sémantique des temps du français : une formalisation compositionnelle." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0065/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre du projet Région Aquitaine - INRIA : ITIPY. Ce projet vise à terme l’extraction automatique d’itinéraires à partir de récits de voyage du XIX ème et du début du XX ème siècle. Notre premier travail fut de caractériser le corpus comme échantillon du français, par une étude contrastive d’une part de données quantitatives et d’autre part de la structure des récits de voyage. Nous nous sommes ensuite consacrée à l’étude du temps, et plus particulièrement à l’analyse automatique de la sémantique des temps verbaux du français. Disposant d’un analyseur syntaxique et sémantique à large échelle du français, basé sur les grammaires catégorielles et la sémantique compositionnelle (λ-DRT), notre tâche a été de prendre en compte les temps des verbes pour reconstituer la temporalité des événements et des états, notions regroupées sous le termes d’éventualité. Cette thèse se concentre sur la construction d’un lexique sémantique traitant des temps verbaux du français. Nous proposons une extension et une adaptation d’un système d’opérateurs compositionnels conçu pour les temps du verbe anglais, aux temps et à l’aspect du verbe français du XIX ème siècle à nos jours. Cette formalisation est de facto opérationnelle, car elle est définie en terme d’opérateurs du λ-calcul dont la composition et la réduction, déjà programmées, calculent automatiquement les représentations sémantiques souhaitées, des formules multisortes de la logique d’ordre supérieur. Le passage de l’énoncé comportant une éventualité seule au discours, dont le maillage référentiel est complexe, est discuté et nous concluons par les perspectives qu’ouvre nos travaux pour l’analyse du discours<br>This work has been lead in the frame of the ITIPY project which goal was to automatically extract itineraries from travel novels from the XIX th century and from the beginning of the XX th. Our thesis work is close to the text understanding task in the information retrieval field and we aim at building a representation of meaning of linguistic utterances, leaning on the compositionnality principle. More precisely, the itinerary extraction supposes to temporally represent displacement and localization events or states (that we actually call eventualities) of a traveler as far as we understand it through discourse. Working on an automatic parser for syntax (in categorial grammars) and semantics (in λ-DRT), we focused on the building of an semantic lexicon for tense in French. We actually characterized our corpora as a sample of French language, by the means of a quantitative and qualitative analysis as well as a study of the internal structure of this genre. The main contribution of this work deals with tense and aspect semantic processing of the event expressed by tensed verbs, and with its modelling. In this respect, we propose an adaptation and an extension for French from XIX th century to nowadays of a lexicon originally produced to deal with English verbs. This formalisation is operational, for it is defined in λ-calculus which composition and réduction, already implemented, calculate automatically semantics représentations, high order logic formulas. Transition from a single event uterrance to a whole discourse which contains a complex referential network is discussed and allows us to define the limits of this hereby work
APA, Harvard, Vancouver, ISO, and other styles
3

Barque, Lucie. "Description et formalisation de la polysémie régulière du français." Paris 7, 2008. http://www.theses.fr/2008PA070005.

Full text
Abstract:
La thèse propose une réflexion théorique sur la nature des liens de polysémie et sur leur rôle dans la structuration du lexique. Son apport principal est de préciser le concept de polysémie régulière et d'en proposer une formalisation en s'appuyant sur des descriptions lexicales riches et explicitement structurées produites dans le cadre de la Lexicologie Explicative et Combinatoire. La méthode adoptée consiste à décrire en parallèle les sens lexicaux (sous la forme de définitions lexicographiques structurées) et les liens de polysémie (sous la forme de paires de définitions sous-spécifiées appelées « patrons de polysémie »). Les sens TAUPE(animal)-TAUPE(espion), GORILLE(singe)- GORILLE (garde du corps), etc. Sont, par exemple, décrits en même temps que le lien de polysémie animal → individu ayant une fonction qui lient ces paires. Cette méthode a donné lieu à la production d'un fragment de lexique formalisé décrivant la polysémie active dans les champs sémantiques des animaux et des sentiments. Il pourra servir de base au développement rapide et systématique d'un lexique sémantique du français plus étendu qui mettra en avant les régularités en matière de polysémie<br>This dissertation is devoted to the description of polysemy links in the lexicon. Its main contribution is to specify the concept of regular polysemy and to formalize it by means of fine-grained and explicitly structured descriptions produced in the framework of Explanatory-Combinatorial Lexicology. Our method consists in the simultaneous description of lexical meanings (represented by lexicographic definitions) and polysemy links (represented by pairs of underspecified lexicographic definitions called "polysemy patterns"). For instance, the meanings of TAUPE(animal)~TAUPE(spy), GORILLE(monkey)~GORILLE(body guard), etc. Are described together with the polysemy link "animal → person with a function" that links these pairs of meanings. The method has led to the construction of a piece of a formalized lexicon that describes polysemy patterns in the semantic fields of animals and emotions. This could be used for the development of an extended semantic lexicon for French that concentrates on regular polysemy
APA, Harvard, Vancouver, ISO, and other styles
4

Khan, Muhammad Uzair. "A study of first class futures : specification, formalisation, and mechanised proofs." Nice, 2011. http://www.theses.fr/2011NICE4003.

Full text
Abstract:
Futures enable an efficient and easy to use programming paradigm for distributed applications. A future is a placeholder for result of concurrent execution. Futures can be first class objects; first class futures may be safely transmitted between the communicating processes. Consequently, futures spread everywhere. When the result of a concurrent execution is available, it is communicated to all processes which received the future. In this thesis, we study the mechanisms for transmitting the results of first class futures; the future update strategies. We provide a detailed semi-formal specification of three main future update strategies adapted from ASP-calculus; we then use this specification for a real implementation. We study the efficiency of the three update strategies through experiments. Ensuring correctness of distributed protocols, like future update strategies is a challenging task. To show that our specification is correct, we formalise it together with a component model. Components abstract away the program structure and the details of the business logic ; this paradigm thus facilitates reasoning on the protocol. We formalise in Isabelle/HOL, a component model comprising notions of hierarchical components, asynchronous communications, and futures. We present the basic constructs and corresponding lemmas related to structure of components, and formal operational semantics of our components in presence of a future update strategy; proofs showing correctness of future updates are presented. Our work can be considered as a formalisation of ProActive/GCM, and shows the correctness of the middleware implementation<br>Les futurs fournissent une modèle de programmation efficace pour le développement des applications distribuées. Un futur est une objet temporaire qui représente le résultat d’une exécution concurrente. Les futurs peuvent être des objet de «première classe», et ainsi être transmis en toute sécurité entre les processus communicants. En conséquence, les futures se propagent partout dans le système. Lorsque le résultat d’une exécution simultanée est disponible, il est communiqué à tous les processus qui ont reçu le futur. Nous étudions les mécanismes de transmission des résultats des futurs; les "stratégies pour mise à jour des futurs". Nous fournissons une spécification semi-formelle détaillée, de trois principales stratégies. Nous utilisons ensuite cette spécification pour une véritable implémentation et nous étudions l’efficacité des trois stratégies. C’est une tâche difficile d’assurer la correction des protocoles distribués. Pour montrer que notre spécification est correcte, nous la formalisons avec un modèle de composants. Les composants abstraient la structure du programme ; ce paradigme facilite donc le raisonnement sur le protocole. Nous formalisons dans Isabelle/HOL un modèle de composants comprenant des notions de composants hiérarchiques, les communications asynchrones, et les futurs. Nous présentons les constructions de base et des lemmes liés à la structure des composants. Nous présentons une sémantique formelle des nos composants en présence d’une stratégie de mise à jour de futurs ; Les preuves montrant la correction de notre stratégie sont présentées. Notre travail peut être considéré comme une formalisation de ProActive / GCM
APA, Harvard, Vancouver, ISO, and other styles
5

Son, Hyunjung. "L' adverbial temporel en DONGAN en coréen : description et formalisation." Paris, EHESS, 2003. http://www.theses.fr/2003EHES0012.

Full text
Abstract:
Il est largement admis que si les adverbiaux temporels jouent un rôle important dans la configuration temporelle des phrases, leur description sémantique et syntaxique demeure relativement marginale. Le présent travail s’est ainsi fixé deux objectifs, le premier étant la description détaillée du fonctionnement de l’adverbial temporel coréen en DONGAN. Cette tâche nous a permis de dégager quatre paramètres permanents de la description du sémantisme de DONGAN : la distinction de mono-occurrence/ multi-occurrence, la structure du groupe déterminant, la quantification et le type de phrases noyaux. Le second objectif était de représenter formellement le fonctionnement de DONGAN tel qu’on a pu l’observer en construisant un parseur sémantique et syntaxique. Pour ce faire, nous nous sommes appuyés sur la G Grammaire proposée par F. Renaud (1996) dont les moteurs principaux sont le lambda-calcul typé et la grammaire d’unification<br>As it is widely known, time adverbials play an important role in the temporal configuration of a sentence while their semantic and syntactic description rests relatively marginal. This dissertation has two primary objectives. The first objective is to describe in detail the function of the Korean temporal adverbial with DONGAN, identifying four factors relevant to the description of DONGAN: distinction of mono-occurrence/ multi-occurrence, structure of determiner group, quantification and type of nuclear sentences. The second objective is to represent the observed function of DONGAN formally in framework of G grammar proposed by F. Renaud (1996) whose two principal components are typed lambda-calculus and unification grammar
APA, Harvard, Vancouver, ISO, and other styles
6

Al-Hajj, Moustafa. "Extraction et formalisation de la sémantique des liens hypertextes dans des documents culturels, scientifiques et techniques." Tours, 2007. http://www.theses.fr/2007TOUR4023.

Full text
Abstract:
L'utilisation des liens hypertextes sur internet rend les sites plus attractifs et plus faciles à lire et permet l'enrichissement des sites par des informations provenant d'autres sites. Cependant, ces mêmes liens entraînent des difficultés pour les lecteurs et les moteurs de recherche. Les liens hypertextes sont porteurs d'informations sémantiques qui, si elles étaient complètement formalisées, seraient exploitables par des programmes pour améliorer la navigation et la recherche d'information, et prendraient leur place dans l'émergence du web sémantique. Dans cette thèse, nous proposons une méthodologie originale d'extraction formelle de la sémantique des liens hypertextes. La méthode proposée a été testée sur les liens d'un corpus. Le formalisme RDF est utilisé pour représenter la sémantique des liens. Une ontologie pour les liens spécifiques au domaine des biographies de personnages célèbres a été constituée à partir de la sémantique extraite des liens. Celle-ci a été représentée en RDFS. Des outils d'apprentissage supervisé et de caractérisation des pages web par des mots clés sont utilisés pour aider à l'extraction formelle de la sémantique<br>The use of hypertext links on the web makes sites more attractive and easier to read and allows enrichment of sites by information coming from other sites. However, this links produce some difficulties for readers and search engines. The hypertext links are carrying semantic information which, if it were completely formalized, would be exploitable by programs to improve navigation and research of information, and would take its place in the emergence of semantic web. In this thesis, we propose an original methodology for the formal semantic extraction of hypertext links. The suggested method has been tested on the links of a corpus. The formalism RDF has been used to represent the link semantics. Ontology for the links specific to the field of biographies of famous people was made up starting from the link semantics extracted and then represented in RDFS. Some tools of supervised learning and of web pages characterization by keywords has been used to help with the formal extraction of semantics
APA, Harvard, Vancouver, ISO, and other styles
7

GIRAULT, François. "Formalisation en logique linéaire du fonctionnement des réseaux de Petri." Phd thesis, Université Paul Sabatier - Toulouse III, 1997. http://tel.archives-ouvertes.fr/tel-00010245.

Full text
Abstract:
En logique classique, la formalisation du fonctionnement des réseaux de Petri (RdP) se heurte à la pérennité de la vérité. En logique modale, elle impose la construction préalable du graphe des marquages accessibles. A contrario, la logique linéaire (LL) fondée par Girard permet de formaliser directement par des séquents prouvables purement propositionnels les relations d'accessibilité dans les RdP : toute transition apparaît comme une implication linéaire disponible ad libitum entre les propositions traduisant ses marquages d'entrée et de sortie. Pour approfondir cette formalisation, nous définissons comme primitives en LL les notions de ressource, d'action et de consommabilité/productibilité, analogues mais distinctes de celles de proposition, de déduction et de vérité/fausseté en logique classique. Nous développons une interprétation concrète pour tous les connecteurs linéaires en cohérence avec leurs propriétés syntaxiques. Nous présentons le connecteur « par » comme un opérateur de cumul disjoint d'exemplaires de ressources (dual du connecteur « fois » de cumul conjoint) et la négation linéaire « nil » comme un inverseur du sens du temps. Cette concrétisation montre les limites des formalisations existantes des RdP en LL ; nous les généralisons en traduisant chaque transition par une implication linéaire ordinaire, traitée comme une ressource périssable, dont tout exemplaire consommé correspond à une occurrence de franchissement. Ainsi, nous apportons une expression logique aux aspects primordiaux du fonctionnement des RdP : nous démontrons qu'une relation d'accessibilité par séquence de transitions équivaut à un séquent prouvable et que l'équation fondamentale est l'expression algébrique d'un corollaire du critère d'équilibrage en LL. Grâce à la combinatoire de tous les connecteurs linéaires, notre approche ouvre des perspectives d'analyse de relations complexes d'accessibilité comme celles de reprise après défa illance dans un système industriel.
APA, Harvard, Vancouver, ISO, and other styles
8

Normandeau, Marc. "Le modèle ROOM, formalisation de sa sémantique statique et son application au développement d'un logiciel de poursuite de satellites." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape16/PQDD_0023/MQ26602.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Normandeau, Marc. "Le modele ROOM formalisation de sa sémantique statique et son application au developpement d'un logiciel de poursuite de satellites." Mémoire, Université de Sherbrooke, 1997. http://savoirs.usherbrooke.ca/handle/11143/4354.

Full text
Abstract:
Le domaine des systèmes contrôle-commande en temps réel requiert beaucoup de travail au niveau de la spécification du comportement. La demande croissante de ce type de logiciel et les délais de production de plus en plus courts forcent l'utilisation d'outils de développement. Ces derniers doivent permettre d'accélérer le processus de développement et d'en améliorer la qualité.Le modèle ROOM offre un cadre de travail pour la conception et la vérification de systèmes temps-réel. L'outil ObjecTime implante cette technique de modélisation. Il permet de spécifier graphiquement un système, de le simuler et d'en générer le code pour une plate-forme cible. Ce formalisme graphique est accompagné d'un langage textuel (ROOM). Cependant, à cause de la nature du domaine des systèmes contrôle-commande en temps réel, une vérification formelle de la sémantique statique est nécessaire. Elle permet d'accroître la fiabilité de l'outil en éliminant les erreurs dues au langage dans les modèles générés. Sous un autre aspect, l'arrivée récente de cette méthodologie sur le marché implique un manque de maturité. Il lui est donc important d'acquérir de l'expérience sur des problèmes réels. Les résultats de ce mémoire sont un logiciel de poursuite de satellites développé, selon ROOM et une spécification formelle de la sémantique statique du langage ROOM. Une étude de cas a été faite pour vérifier l'application du modèle ROOM à un exemple concret.Le problème choisi n'est pas qu'un simple exemple académique, car le logiciel résultant a été installé dans une station de poursuite de satellites pour vérifier sa qualité. La formalisation du langage est faite à l'aide des grammaires attribuées. Les grammaires attribuées permettent de définir formellement les propriétés des langages contextuels ou non contextuels.Le mémoire présente également une étude préliminaire des outils d'aide à l'implantation d'un compilateur pour le langage et fournit des recommandations quant à ceux-ci.
APA, Harvard, Vancouver, ISO, and other styles
10

Émorine, Martine. "Formalisation syntaxique et sémantique des constructions à verbes supports en français et en espagnol dans une grammaire catégorielle d'unification." Clermont-Ferrand 2, 1992. http://www.theses.fr/1992CLF2A001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Sam, Keth Vichetra. "Formalisation de l'interfonctionnement dans les résaux de télécommunication et définition d'une théorie de test pour systèmes concurrents." Paris 7, 2002. http://www.theses.fr/2002PA077171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Delort, Laurence. "L'expression des relations temporelles dans le discours : explication et formalisation de quelques emplois de "avant"." Paris 7, 2008. http://www.theses.fr/2008PA070084.

Full text
Abstract:
L'interprétation d'un discours est, pour une grande part, tributaire de la reconnaissance de relations entre les situations dénotées. Parmi ces relations, nous nous proposons d'examiner la relation de succession temporelle et une de ses manifestations de surface : la préposition AVANT lorsqu'elle entre dans la formation de constructions de la forme PI AVANT P2, où PI et P2 sont deux propositions syntaxiques (P2 pouvant être une proposition complétive QUE P, ou infmitive DE V-inf). L'observation de corpus montre que certaines de ces constructions ne peuvent pas recevoir l'analyse traditionnelle selon laquelle AVANT P2 est un adverbe de localisation temporelle. L'objectif de cette thèse est double. Tout d'abord, d'un point de vue descriptif, il s'agit d'expliquer pourquoi certaines constructions PI AVANT P2 peuvent échapper à l'interprétation traditionnelle, et d'établir les conditions sémantiques, énonciatives et discursives de ces constructions relevant d'interprétations non standard. Ensuite, d'un point de vue formel, il s'agit de rendre compte de ces différentes interprétations dans une théorie de la représentation du discours (comme la « Discourse Représentation Theory » ou la « Segmented Discourse Représentation Theory »), et de mettre au jour leurs conséquences sur la structure du discours<br>Discourse interpretation depends, in big part, on recognition of relations between described eventualities. Among these relations, we propose to investigate temporal precedence and one of its lexical marker : the preposition AVANT (BEFORE in English) when it appears within sentences PI AVANT P2, where PI and P2 are two syntactic clauses. Corpora display several of these sentences where AVANT P2 isn't a temporal locating adverbial, which is the standard analysis. The goal of this thesis is twofold. First, from a descriptive point of view, we want to explain why some sentences PI AVANT P2 can't be analysed in a traditional way, and to give the semantic, enunciative and discursive factors of unusual interpretations of these sentences. Then, from a formal point of view, we want to give an account of these distinct interpretations within a theory of discourse representation (as « Discourse Representation Theory » or « Segmented Discourse Representation Theory »), and to put forward their effects on discourse structure
APA, Harvard, Vancouver, ISO, and other styles
13

Moll, Georges-Henri. "Un langage pivot pour le couplage de Prolog avec des bases de données : formalisation et environnement opérationnel." Lyon 1, 1987. http://www.theses.fr/1987LYO10102.

Full text
Abstract:
Un langage pivot, base sur l'algebre relationnelle, a ete defini pour servir de pont semantique entre prolog et les differents langages de manipulation de donnees des bases. Il joue un role operationnel grace a des modules: de separation automatique des parties concernant les bases dans un programme prolog; de traduction et d'optimisation lui conferant la puissance d'un langage pour manipuler des donnees reparties
APA, Harvard, Vancouver, ISO, and other styles
14

El, Maarouf Ismaïl. "Formalisation de connaissances à partir de corpus : modélisation linguistique du contexte pour l'extraction automatique de relations sémantiques." Phd thesis, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00657708.

Full text
Abstract:
Les corpus, collections de textes sélectionnés dans un objectif spécifique, occupent une place de plus en plus déterminante en Linguistique comme en Traitement Automatique des Langues (TAL). Considérés à la fois comme source de connaissances sur l'usage authentique des langues, ou sur les entités que désignent des expressions linguistiques, ils sont notamment employés pour évaluer la performance d'applications de TAL. Les critères qui prévalent à leur constitution ont un impact évident, mais encore délicat à caractériser, sur (i) les structures linguistiques majeures qu'ils renferment, (ii) les connaissances qui y sont véhiculées, et, (iii) la capacité de systèmes informatiques à accomplir une tâche donnée. Ce mémoire étudie des méthodologies d'extraction automatique de relations sémantiques dans des corpus de textes écrits. Un tel sujet invite à examiner en détail le contexte dans lequel une expression linguistique s'applique, à identifier les informations qui déterminent son sens, afin d'espérer relier des unités sémantiques. Généralement, la modélisation du contexte est établie à partir de l'analyse de co-occurrence d'informations linguistiques issues de ressources ou obtenues par des systèmes de TAL. Les intérêts et limites de ces informations sont évalués dans le cadre de la tâche d'extraction de relations sur des corpus de genre différent (article de presse, conte, biographie). Les résultats obtenus permettent d'observer que pour atteindre une représentation sémantique satisfaisante ainsi que pour concevoir des systèmes robustes, ces informations ne suffisent pas. Deux problèmes sont particulièrement étudiés. D'une part, il semble indispensable d'ajouter des informations qui concernent le genre du texte. Pour caractériser l'impact du genre sur les relations sémantiques, une méthode de classification automatique, reposant sur les restrictions sémantiques qui s'exercent dans le cadre de relations verbo-nominales, est proposée. La méthode est expérimentée sur un corpus de conte et un corpus de presse. D'autre part, la modélisation du contexte pose des problèmes qui relèvent de la variation discursive de surface. Un texte ne met pas toujours bout à bout des expressions linguistiques en relation et il est parfois nécessaire de recourir à des algorithmes complexes pour détecter des relations à longue portée. Pour répondre à ce problème de façon cohérente, une méthode de segmentation discursive, qui s'appuie sur des indices de structuration de surface apparaissant dans des corpus écrits, est proposée. Elle ouvre le champ à la conception de grammaires qui permettent de raisonner sur des catégories d'ordre macro-syntaxique afin de structurer la représentation discursive d'une phrase. Cette méthode est appliquée en amont d'une analyse syntaxique et l'amélioration des performances est évaluée. Les solutions proposées à ces deux problèmes nous permettent d'aborder l'extraction d'information sous un angle particulier : le système implémenté est évalué sur une tâche de correction d'Entités Nommées dans le contexte d'application des Systèmes de Question-Réponse. Ce besoin spécifique entraîne l'alignement de la définition d'une catégorie sur le type de réponse attendue par une question.
APA, Harvard, Vancouver, ISO, and other styles
15

Tatibouët, Jérémie. "Approche systématique basée sur fUML pour formaliser la sémantique d’exécution des profils UML." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112247.

Full text
Abstract:
Les profils permettent de customiser UML pour un domaine particulier. Cette customisation se fait par l’ajout de concepts (stéréotypes) relatifs au domaine, l’ajout de contraintes sur ces concepts ainsi que la résolution de points de variation sémantiques. Il existe un processus établit et documenté dans l’état de l’art permettant de construire la syntaxe de ces langages basés sur UML. En revanche, ce processus ne couvre pas l’aspect formalisation de la sémantique et les propositions issues de l’état de l’art ne présentent pas d’approches systématiques pour traiter ce problème.La formalisation de la sémantique est un point essentiel de la construction d’un langage car elle permet de donner le sens des constructions syntaxiques. Pour être efficace, la formalisation de la sémantique d’un langage doit être menée conjointement à une action de normalisation. L’intérêt d’avoir une sémantique formelle et standard pour un langage est qu’elle permet aux modèles définis dans ce langage d’être exploités (analyse, exécution, simulation, etc.) de manière équivalente entre les outils. Cette équivalence permet aux utilisateurs d’observer des interprétations identiques d’un même modèle entre différents outils et donc d’avoir une compréhension commune du modèle et de la sémantique associée. Dans le contexte des profils, les actions de normalisations menées par l’OMG se concentrent exclusivement sur la syntaxe et la formalisation de la sémantique est négligée. Nous proposons de répondre à ce problème en nous appuyant sur les spécifications fUML et PSCS qui définissent une sémantique normative pour un sous-ensemble d’UML.Dans un premier temps, nous définissons deux méthodologies alternatives s’appuyant sur ces standards permettant de formaliser la sémantique d’exécution d’un profil UML. Dans la première méthodologie la sémantique d’exécution d’un profil est formalisée au niveau du modèle de domaine. La forme exécutable d’un modèle applicatif profilé est obtenue par transformation de modèle. Dans la seconde méthodologie, la sémantique est définie directement pour le profil. Le modèle qui la formalise est une extension du modèle sémantique de fUML/PSCS formalisée avec fUML. Les modèles sémantiques obtenus sont conformes à fUML ce qui les rend par construction exécutables et directement exploitables dans n’importe quel outil implantant les normes UML et fUML. Dans un deuxième temps, nous comparons nos approches sur la base de trois critères : l’effort de modélisation requis pour produire le modèle sémantique, la préservation de la sémantique de base d’UML définie par fUML/PSCS et la possibilité d’identifier rapidement les relations entre les stéréotypes et leurs sémantiques. Cette comparaison, nous permet de montrer la capacité de notre seconde méthodologie à prendre en compte des extensions clefs de la sémantique de base d’UML dans le contexte des profils. Ces éléments clefs sont : la délégation du contrôle, l’instanciation et les communications. L’ensemble de nos contributions ont été outillées dans le contexte de l’outil d’exécution de modèles MOKA qui est intégré au modeleur UML/SysML Papyrus<br>UML profiles enable the UML to be tailored to a particular domain. To do so, a profile adds domain specific concepts (i.e., stereotypes) and constraints to UML and disambiguates specific semantic variation points. The design process for abstract syntax of profiles is well documented in the literature. However, specification of the semantics is neglected. According to our researches, there are no proposals in the state-of-the-art that define a systematic approach to solve this problem.Semantic formalization is a key point of language design. It enables to formally define the meaning of syntactic elements. In order to be efficient, the formalization activity must be realized in parallel with a standardization activity. The interest to have a language with a formal standardized semantic is to enable models defined using this latter to be interpreted (analysis, execution, simulation) in equivalent way between tools implementing the semantics. This equivalence enables users to observe similar interpretations of the same model between different tools and therefore to have a shared understanding of this model and the associated semantic.In the context of UML profiles, normalization activities leaded by the OMG are focused on the syntax. The semantic formalization aspect is neglected. We propose to address this problem by relying on fUML and PSCS OMG (Object Management Group) specifications. These standards formalize execution semantics for a subset of UML (classes, composite structures, and activities).Firstly, we define two methodologies relying on these standards to formalize execution semantics of UML profiles execution semantics. The first methodology defines the execution semantics for the domain model underlying the profile. The executable form of an applicative model defined using the profile is obtained by model transformation. In the second methodology, semantics are defined directly for the profile by extending the semantic model of fUML/PSCS using fUML. By being conform to fUML, the semantic model is by construction executable and can be directly used in any tools implementing the UML and fUML standards.Secondly, we compare our approaches against the following criteria: the modelling effort required to build the semantic model, the capability of the methodology to preserve the UML semantics (i.e., the one defined by fUML/PSCS) and the capability to identify clearly the relationships between the stereotypes and their semantics. This comparison enables us to demonstrate the capacity of the second methodology to define key extensions of the UML semantics in the context of a profile. These latter are: the control delegation, the instantiation, and the communications. The contributions have been implemented in our model execution framework Moka which is integrated in the open-source UML/SysML modeling tool Papyrus
APA, Harvard, Vancouver, ISO, and other styles
16

Liao, Yongxin. "Annotations sémantiques pour l'interopérabilité des systèmes dans un environnement PLM." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00904822.

Full text
Abstract:
Pour demeurer compétitives, de plus en plus d'entreprises sont amenées à collaborer dans le cadre des entreprises étendues ou des réseaux d'entreprises. Ce type d'organisation nécessite l'interconnexion d'une multitude de systèmes d'entreprises, hétérogènes que ce soit par les fonctions qu'ils assurent ou par leurs conceptions (modèles, architectures, ...). Typiquement, ceci renvoie au concept de l'interopérabilité, définie par la capacité des systèmes ou des organisations à fournir ou à accepter des services et à utiliser ces services pour opérer efficacement ensemble. L'échange de l'information et le partage des connaissances (interopérabilité technique) entre les différents systèmes d'information sont désormais des atouts majeurs pour favoriser l'activité collaborative de création de valeur. Le développement de nouvelles technologies et la mise en place de standards a contribué à résoudre (partiellement au moins) ce problème d'interopérabilité technique. Cependant, ce n'est pas suffisant pour garantir l'interopérabilité à un niveau conceptuel : c'est-à-dire garantir que les modèles issus d'une ingénierie peuvent être partagés et compris par rapport à une sémantique commune, et utilisés par les différents systèmes d'entreprise pour réaliser une mission globale. L'approche de gestion du cycle de vie du produit (PLM) est considérée comme une solution essentielle pour faciliter le partage de modèles relatifs à des produits fabriqués. Elle vise à fournir une plate-forme commune qui rassemble les différents systèmes de l'entreprise à chaque étape du cycle de vie du produit dans ou à travers les entreprises. Bien que les principaux éditeurs de logiciels fassent des efforts pour créer des outils offrant un ensemble complet et intégré de modèles, la plupart d'entre eux n'intègrent pas une gestion cohérente des connaissances formalisées dans ces modèles spécifiques à chaque métier. L'hétérogénéité tant syntaxique que sémantique de ces modèles est souvent source d'une interprétation erronée des spécifications produites par chaque environnement de modélisation. L'objectif de cette thèse est ainsi de proposer une méthode, une formalisation et des outils pour prendre en compte, tout au long du cycle de vie d'un produit, l'ensemble des connaissances tacites et explicites sous la forme d'annotations sémantiques formelles qui peuvent favoriser la compréhension partagée ainsi qu'une vérification de cohérence des modèles produits, dans un contexte PLM.
APA, Harvard, Vancouver, ISO, and other styles
17

Popescu, Vladimir. "Formalisation des contraintes pragmatiques pour la génération des énoncés en dialogue homme-machine multi-locuteurs." Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0175.

Full text
Abstract:
Nous avons développé un cadre pour contrôler la génération des énoncés en dialogue homme-machine multi-locuteurs. Ce processus se déroule en quatre étapes : (i) la structure rhétorique du dialogue est calculée, en utilisant une émulation de la SDRT (&lt;&lt; Segmented Discourse Representation Theory &gt;&gt;) ; (ii) cette structure est utilisée pour calculer les engagements des locuteurs ; ces engagements sont utilisés pour piloter le réglage de la force illocutoire des énoncés ; (iii) les engagements sont filtrés et placés dans une pile pour chaque locuteur ; ces piles sont utilisées pour effectuer des ellipses sémantiques ; (iv) la structure rhétorique pilote le choix des connecteurs concessifs (mais, quand même, pourtant et bien que) entre les énoncés ; pour ce faire, les énoncés sont ordonnés du point de vue argumentatif<br>We have developed a framework for controlling utterance generation in multi-party human-computer dialogue. This process takes place in four stages: (i) the rhetorical structure for the dialogue is computed, by using an emulation of SDRT ("Segmented Discourse Representation Theory"); (ii) this structure is used for computing speakers' commitments; these commitments are used for driving the process of adjusting the illocutionary force degree of the utterances; (iii) the commitments are filtered and placed in a stack for each speaker; these stacks are used for performing semantic ellipses; (iv) the discourse structure drives the choice of concessive connectors (mais, quand même, pourtant and bien que) between utterances; to do this, the utterances are ordered from an argumentative viewpoint
APA, Harvard, Vancouver, ISO, and other styles
18

Popescu, Vladimir. "Formalisation des contraintes pragmatiques pour la génération des énoncés en dialogue homme-machine multi-locuteurs." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00343846.

Full text
Abstract:
Nous avons développé un cadre pour contrôler la génération des énoncés en dialogue homme-machine multi-locuteurs.‭ ‬Ce processus se déroule en quatre étapes‭ ‬:‭ (‬i‭) ‬la structure rhétorique du dialogue est calculée,‭ ‬en utilisant une émulation de‭ ‬la SDRT‭ (<< ‬Segmented Discourse Representation Theory‭ >>) ; (‬ii‭) ‬cette structure est utilisée pour calculer les engagements des locuteurs‭ ; ‬ces engagements sont utilisés pour piloter le réglage de la force illocutoire des énoncés‭ ; (‬iii‭) ‬les engagements sont filtrés et placés dans une pile pour chaque locuteur‭ ; ‬ces piles sont utilisées pour effectuer des ellipses sémantiques‭ ; (‬iv‭) ‬la structure rhétorique pilote le choix des connecteurs concessifs‭ (‬mais,‭ ‬quand même,‭ ‬pourtant et bien que‭) ‬entre les énoncés‭ ; ‬pour ce faire,‭ ‬les énoncés sont ordonnés du point de vue argumentatif.
APA, Harvard, Vancouver, ISO, and other styles
19

Maršík, Jiří. "Les effects et les handlers dans le langage naturel." Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0322.

Full text
Abstract:
Ces travaux s’intéressent à la modélisation formelle de la sémantique des langues naturelles. Pour cela, nous suivons le principe de compositionnalité qui veut que le sens d’une expression complexe soit une fonction du sens de ses parties. Ces fonctions sont généralement formalisées à l’aide du [lambda]-calcul. Cependant, ce principe est remis en cause par certains usages de la langue, comme les pronoms anaphoriques ou les présuppositions. Ceci oblige à soit abandonner la compositionalité, soit modifier les structures du sens. Dans le premier cas, le sens n’est alors plus obtenu par un calcul qui correspond à des fonctions mathématiques, mais par un calcul dépendant du contexte, ce qui le rapproche des langages de programmation qui manipulent leur contexte avec des effets de bord. Dans le deuxième cas, lorsque les structures de sens sont ajustées, les nouveaux sens ont tendance à avoir une structure de monade. Ces dernières sont elles-mêmes largement utilisées en programmation fonctionnelle pour coder des effets de bord, que nous retrouvons à nouveau. Par ailleurs, s’il est souvent possible de proposer le traitement d’un unique phénomène, composer plusieurs traitements s’avère être une tâche complexe. Nos travaux proposent d’utiliser les résultats récents autour des langages de programmation pour parvenir à combiner ces modélisations par les effets de bord. Pour cela, nous étendons le [lambda]-calcul avec une monade qui implémente les effects et les handlers, une technique récente dans l’étude des effets de bord. Dans la première partie de la thèse, nous démontrons les propriétés fondamentales de ce calcul (préservation de type, confluence et terminaison). Dans la seconde partie, nous montrons comment utiliser le calcul pour le traitement de plusieurs phénomènes linguistiques : deixis, quantification, implicature conventionnelle, anaphore et présupposition. Enfin, nous construisons une unique grammaire qui gère ces phénomènes et leurs interactions<br>In formal semantics, researchers assign meanings to sentences of a natural language. This work is guided by the principle of compositionality: the meaning of an expression is a function of the meanings of its parts. These functions are often formalized using the [lambda]-calculus. However, there are areas of language which challenge the notion of compositionality, e.g. anaphoric pronouns or presupposition triggers. These force researchers to either abandon compositionality or adjust the structure of meanings. In the first case, meanings are derived by processes that no longer correspond to pure mathematical functions but rather to context-sensitive procedures, much like the functions of a programming language that manipulate their context with side effects. In the second case, when the structure of meanings is adjusted, the new meanings tend to be instances of the same mathematical structure, the monad. Monads themselves being widely used in functional programming to encode side effects, the common theme that emerges in both approaches is the introduction of side effects. Furthermore, different problems in semantics lead to different theories which are challenging to unite. Our thesis claims that by looking at these theories as theories of side effects, we can reuse results from programming language research to combine them.This thesis extends [lambda]-calculus with a monad of computations. The monad implements effects and handlers, a recent technique in the study of programming language side effects. In the first part of the thesis, we prove some of the fundamental properties of this calculus: subject reduction, confluence and termination. Then in the second part, we demonstrate how to use the calculus to implement treatments of several linguistic phenomena: deixis, quantification, conventional implicature, anaphora and presupposition. In the end, we build a grammar that features all of these phenomena and their interactions
APA, Harvard, Vancouver, ISO, and other styles
20

Traore, Lamine. "Semantic modeling of an histopathology image exploration and analysis tool." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066621/document.

Full text
Abstract:
La formalisation des données cliniques est réalisée et adoptée dans plusieurs domaines de la santé comme la prévention des erreurs médicales, la standardisation, les guides de bonnes pratiques et de recommandations. Cependant, la communauté n'arrive pas encore à tirer pleinement profit de la valeur de ces données. Le problème majeur reste la difficulté à intégrer ces données et des services sémantiques associés au profit de la qualité de soins. Objectif L'objectif méthodologique de ce travail consiste à formaliser, traiter et intégrer les connaissances d'histopathologie et d'imagerie basées sur des protocoles standardisés, des référentiels et en utilisant les langages du web sémantique. L'objectif applicatif est de valoriser ces connaissances dans une plateforme pour faciliter l'exploration des lames virtuelles (LV), améliorer la collaboration entre pathologistes et fiabiliser les systèmes d'aide à la décision dans le cadre spécifique du diagnostic du cancer du sein. Il est important de préciser que notre but n'est pas de remplacer le clinicien, mais plutôt de l'accompagner et de faciliter ses lourdes tâches quotidiennes : le dernier mot reste aux pathologistes. Approche Nous avons adopté une approche transversale pour la représentation formelle des connaissances d'histopathologie et d'imagerie dans le processus de gradation du cancer. Cette formalisation s'appuie sur les technologies du web sémantique<br>Semantic modelling of a histopathology image exploration and analysis tool. Recently, anatomic pathology (AP) has seen the introduction of several tools such as high-resolution histopathological slide scanners, efficient software viewers for large-scale histopathological images and virtual slide technologies. These initiatives created the conditions for a broader adoption of computer-aided diagnosis based on whole slide images (WSI) with the hope of a possible contribution to decreasing inter-observer variability. Beside this, automatic image analysis algorithms represent a very promising solution to support pathologist’s laborious tasks during the diagnosis process. Similarly, in order to reduce inter-observer variability between AP reports of malignant tumours, the College of American Pathologists edited 67 organ-specific Cancer Checklists and associated Protocols (CAP-CC&amp;P). Each checklist includes a set of AP observations that are relevant in the context of a given organ-specific cancer and have to be reported by the pathologist. The associated protocol includes interpretation guidelines for most of the required observations. All these changes and initiatives bring up a number of scientific challenges such as the sustainable management of the available semantic resources associated to the diagnostic interpretation of AP images by both humans and computers. In this context, reference vocabularies and formalization of the associated knowledge are especially needed to annotate histopathology images with labels complying with semantic standards. In this research work, we present our contribution in this direction. We propose a sustainable way to bridge the content, features, performance and usability gaps between histopathology and WSI analysis
APA, Harvard, Vancouver, ISO, and other styles
21

Hachmaoui, Mohammed Houssem Eddine. "Traduction mécanisée et certifiée en Coq d'une algèbre relationnelle étendue pour SQL vers une algèbre imbriquée." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG021.

Full text
Abstract:
En 1974, Boyce et Chamberlin ont créé le langage SQL en se basant sur l'algèbre relationnelle proposée par Codd en 1970, mais à mesure d'extensions, la sémantique formelle de SQL s'est éloignée de celle de l'algèbre relationnelle. Le petit fragment select from where de SQL peut correspondre à une algèbre relationnelle avec une sémantique multiensemble en restreignant les expressions et les formules à celles exprimables en algèbre relationnelle. Pour capturer la sémantique du fragment beaucoup plus réaliste select from where group by having en prenant en compte toutes les expressions y compris celles avec agrégats, toutes les formes de formules, les valeurs nulles et, encore plus subtil, les environnements très particuliers de SQL, Benzaken et Contejean ont proposé l'algèbre SQLalg qui est une extension de l'algèbre relationnelle avec un nouvel opérateur pour la partie group by having conçu spécifiquement pour prendre en compte tous les aspects de SQL cités précédemment. Ce même fragment de SQL, avec toute ses subtilités, est-il capturable par l'algèbre relationnelle imbriquée ? Cette thèse prouve formellement que oui. En effet, nous proposons une traduction, certifiée en coq, de SQLalg vers NRAᵉ, qui est une formalisation en coq de l'algèbre relationnelle imbriquée. La traduction prend en compte les expressions simples et complexes, les formules SQL et reflète parfaitement comment les environnements sont construits et manipulés, spécialement pour les agrégats et les requêtes corrélées. Ce travail s'inscrit dans un cadre plus global, celui du projet DBCert: une chaîne de compilation certifiée en Coq de SQL vers JavaScript<br>In 1974, Boyce and Chamberlin created sql using the concepts of the relational algebra proposed by Codd in 1970, but as it evolved, its formal semantics became more and more complex. The small fragment select from where of SQL can be mapped to a relational algebra, with bag's semantics and by restricting expressions and formulae to those which can be expressed in relational algebra. To capture the semantics of the much more realistic fragment select from where group by having, taking into account all the expressions including those with aggregates, all forms of formulas, null values and, even more subtle, the specific SQL's environments, Benzaken and Contejean propose SQLalg which is an extension of relational algebra with a new operator for the group by having part designed specifically to take into account all the aspects of SQL cited above. Can this same fragment of SQL, with all its subtleties, be captured by nested relational algebra ? The present work formally proves that the answer to this question is yes. Indeed, we have built a certified translation, formalized in Coq, from SQLalg to NRAᵉ, which is a formalization in Coq of the nested relational algebra. The translation supports simple and complex expressions, SQL's formulae and perfectly reflects how environments are built and manipulated, especially for aggregates and for correlated queries. This work is part of a more global framework : the DBCert project which is a compilation chain certified in Coq from SQL to JavaScript
APA, Harvard, Vancouver, ISO, and other styles
22

Maršík, Jiří. "Les effects et les handlers dans le langage naturel." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0322/document.

Full text
Abstract:
Ces travaux s’intéressent à la modélisation formelle de la sémantique des langues naturelles. Pour cela, nous suivons le principe de compositionnalité qui veut que le sens d’une expression complexe soit une fonction du sens de ses parties. Ces fonctions sont généralement formalisées à l’aide du [lambda]-calcul. Cependant, ce principe est remis en cause par certains usages de la langue, comme les pronoms anaphoriques ou les présuppositions. Ceci oblige à soit abandonner la compositionalité, soit modifier les structures du sens. Dans le premier cas, le sens n’est alors plus obtenu par un calcul qui correspond à des fonctions mathématiques, mais par un calcul dépendant du contexte, ce qui le rapproche des langages de programmation qui manipulent leur contexte avec des effets de bord. Dans le deuxième cas, lorsque les structures de sens sont ajustées, les nouveaux sens ont tendance à avoir une structure de monade. Ces dernières sont elles-mêmes largement utilisées en programmation fonctionnelle pour coder des effets de bord, que nous retrouvons à nouveau. Par ailleurs, s’il est souvent possible de proposer le traitement d’un unique phénomène, composer plusieurs traitements s’avère être une tâche complexe. Nos travaux proposent d’utiliser les résultats récents autour des langages de programmation pour parvenir à combiner ces modélisations par les effets de bord. Pour cela, nous étendons le [lambda]-calcul avec une monade qui implémente les effects et les handlers, une technique récente dans l’étude des effets de bord. Dans la première partie de la thèse, nous démontrons les propriétés fondamentales de ce calcul (préservation de type, confluence et terminaison). Dans la seconde partie, nous montrons comment utiliser le calcul pour le traitement de plusieurs phénomènes linguistiques : deixis, quantification, implicature conventionnelle, anaphore et présupposition. Enfin, nous construisons une unique grammaire qui gère ces phénomènes et leurs interactions<br>In formal semantics, researchers assign meanings to sentences of a natural language. This work is guided by the principle of compositionality: the meaning of an expression is a function of the meanings of its parts. These functions are often formalized using the [lambda]-calculus. However, there are areas of language which challenge the notion of compositionality, e.g. anaphoric pronouns or presupposition triggers. These force researchers to either abandon compositionality or adjust the structure of meanings. In the first case, meanings are derived by processes that no longer correspond to pure mathematical functions but rather to context-sensitive procedures, much like the functions of a programming language that manipulate their context with side effects. In the second case, when the structure of meanings is adjusted, the new meanings tend to be instances of the same mathematical structure, the monad. Monads themselves being widely used in functional programming to encode side effects, the common theme that emerges in both approaches is the introduction of side effects. Furthermore, different problems in semantics lead to different theories which are challenging to unite. Our thesis claims that by looking at these theories as theories of side effects, we can reuse results from programming language research to combine them.This thesis extends [lambda]-calculus with a monad of computations. The monad implements effects and handlers, a recent technique in the study of programming language side effects. In the first part of the thesis, we prove some of the fundamental properties of this calculus: subject reduction, confluence and termination. Then in the second part, we demonstrate how to use the calculus to implement treatments of several linguistic phenomena: deixis, quantification, conventional implicature, anaphora and presupposition. In the end, we build a grammar that features all of these phenomena and their interactions
APA, Harvard, Vancouver, ISO, and other styles
23

Douali, Nassim. "Conception et évaluation des méthodes et des systèmes d'aide a la décision pour une médecine personnalisée." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066083.

Full text
Abstract:
La sécurité est une première étape essentielle dans l'amélioration de la qualité des soins. Devant l’importance de ces erreurs qui menacent 12 millions de patients aux USA chaque année ; plusieurs travaux ont essayé de trouver des solutions pour réduire les erreurs médicales et les effets indésirables des médicaments : La médecine basée sur la preuve, la médecine personnalisée et les systèmes d’aide à la décision médicale. Les sociétés savantes élaborent de façon périodique des recommandations de bonnes pratiques pour aboutir à instaurer une médecine basée sur la preuve. Ces recommandations sont considérées comme des outils efficaces pour faire pont entre la pratique médicale des praticiens et les preuves scientifiques.La simple diffusion de GBPC n’a qu’un impact limité sur les pratiques cliniques.Plusieurs études ont montré que l’informatisation de ces guides en les intégrant dans le Workflow clinique permet d’améliorer l’adhérence des médecins à ces recommandations. Les guides de bonnes pratiques cliniques ne couvrent pas les caractéristiques individuelles des patients. Un des objectifs d’amélioration des soins et de la réduction des effets indésirables des patients est la personnalisation de la prise en charge. Cette personnalisation nécessite l’utilisation de toutes les informations (cliniques, biologiques, génétiques, radiologiques, sociales..) pour caractériser le profil du patient. Nous avons développé une méthode de raisonnement hybride, CBFCM, capable d’utiliser des connaissances et des données hétérogènes. L’implémentation de la méthode a été faite avec des outils du web sémantique. Nous avons développé un environnement Open Source pour la modélisation et la formalisation des connaissances médicales (recommandations..). Nous avons validé la méthode avec plusieurs études dans le domaine des infections urinaires mais aussi dans d’autres domaines (pneumologie, stéatose hépatique non alcoolique, diabète gestationnel..). L’intégration des données génétiques, cliniques et biologiques nous a permis d’améliorer la prédiction de certaines maladies (NASH)<br>Several studies have tried to find ways to reduce medical and adverse drug errors:The evidence-based medicine, personalized medicine and clinical decision support systems. Many recommandations are developped periodically to improve a best practices. These recommendations are considered effective tools to bridge between medical practitioners and practice of scientific evidence. The use of the Clinical Practice Guidelines has a limited impact on clinical practice. Several studies showed that the computerization of these guides by integrating them into the clinical workflow improves adherence of physicians to these recommendations.One of the aims of improving care and reducing adverse effects of patients is personalizing care. This customization requires the use of all the information (clinical, biological, genetic, radiological, social..) to characterize the profile of the patient.We have developed a method of hybrid reasoning "Case Based Fuzzy CognitiveMaps" able to use knowledge and heterogeneous data. The implementation of themethod was made with semantic web technologies. We have developed an open source environment for modeling and formalization of medical knowledge.We validated the method with several studies in the field of urinary tract infections,but also in other areas (respiratory, nonalcoholic fatty liver disease, gestational diabetes..). The integration of genetic, clinical and laboratory data have allowed us to improve the prediction of certain diseases (NASH)
APA, Harvard, Vancouver, ISO, and other styles
24

Maarouf, Ismaïl Mathieu El. "Formalisation de connaissances à partir de corpus : modélisation linguistique du contexte pour l'extraction automatique de relations sémantiques." Lorient, 2011. http://www.theses.fr/2011LORIL245.

Full text
Abstract:
Les corpus, collections de textes sélectionnés dans un objectif spécifique, occupent une place de plus en plus déterminante en Linguistique comme en Traitement Automatique des Langues (TAL). Considérés à la fois comme source de connaissances sur l'usage authentique des langues, ou sur les entités que désignent des expressions linguistiques, ils sont notamment employés pour évaluer la performance d'applications de TAL. Les critères qui prévalent à leur constitution ont un impact évident, mais encore délicat à caractériser, sur (i) les structures linguistiques majeures qu'ils renferment, (ii) les connaissances qui y sont véhiculées, et, (iii) la capacité de systèmes informatiques à accomplir une tâche donnée. Ce mémoire étudie des méthodologies d'extraction automatique de relations sémantiques dans des corpus de textes écrits. Un tel sujet invite à examiner en détail le contexte dans lequel une expression linguistique s'applique, à identifier les informations qui déterminent son sens, afin d'espérer relier des unités sémantiques. Généralement, la modélisation du contexte est établie à partir de l'analyse de co-occurrence d'informations linguistiques issues de ressources ou obtenues par des systèmes de TAL. Les intérêts et limites de ces informations sont évalués dans le cadre de la tâche d'extraction de relations sur des corpus de genre différent (article de presse, conte, biographie). Les résultats obtenus permettent d'observer que pour atteindre une représentation sémantique satisfaisante ainsi que pour concevoir des systèmes robustes, ces informations ne suffisent pas. Deux problèmes sont particulièrement étudiés. D'une part, il semble indispensable d'ajouter des informations qui concernent le genre du texte. Pour caractériser l'impact du genre sur les relations sémantiques, une méthode de classification automatique, reposant sur les restrictions sémantiques qui s'exercent dans le cadre de relations verbo-nominales, est proposée. La méthode est expérimentée sur un corpus de conte et un corpus de presse. D'autre part, la modélisation du contexte pose des problèmes qui relèvent de la variation discursive de surface. Un texte ne met pas toujours bout à bout des expressions linguistiques en relation et il est parfois nécessaire de recourir à des algorithmes complexes pour détecter des relations à longue portée. Pour répondre à ce problème de façon cohérente, une méthode de segmentation discursive, qui s'appuie sur des indices de structuration de surface apparaissant dans des corpus écrits, est proposée. Elle ouvre le champ à la conception de grammaires qui permettent de raisonner sur des catégories d'ordre macro-syntaxique afin de structurer la représentation discursive d'une phrase. Cette méthode est appliquée en amont d'une analyse syntaxique et l'amélioration des performances est évaluée. Les solutions proposées à ces deux problèmes nous permettent d'aborder l'extraction d'information sous un angle particulier : le système implémenté est évalué sur une tâche de correction d'Entités Nommées dans le contexte d'application des Systèmes de Question-Réponse. Ce besoin spécifique entraîne l'alignement de la définition d'une catégorie sur le type de réponse attendue par une question<br>Corpora which are text collections selected for specific purposes, are playing an increasing role in Linguistics and Natural Language Processing (NLP). They are conceived as knowledge sources on natural language use, as much as knowledge on the entities designated by linguistic expressions, and they are used in particular to evaluate NLP application performances. The criteria prevailing on their constitution have an obvious, though still delicate to characterize, impact on (i) the major linguistic structures they contain, (ii) the knowledge conveyed, and, (iii) computational systems' success on a give task. This thesis studies methodologies of automatic extraction of semantic relations on written text corpora. Such a topic calls for a detailed examination of the context in which a given expression holds, as well as for the discovery of the features which determine its meaning, in order to be able to link semantic units. Generally, contextual models are built from the co-occurrence analysis of linguistic informations, drawn from resources and NLP tools. The benefits and limits of these informations are evaluated in a task of relation extraction from corpora belonging to different genres (press article, fairy tale, biography). The results show that these informations are insufficient to reach a satisfying semantic representation as well as to design robust systems. Two problems are particularly addressed. On the one hand, it seems indispensable to add informations related to text genre. So as to characterize the impact of genre on semantic relations, an automatic classification method, which relies on the semantic restrictions holding between verbs and nouns, is proposed. The method is experimented on a fairy tale corpus and on a press corpus. On the other hand, contextual models need to deal with problems which come under discourse surface variation. In a text, related linguistic expressions are not always close to one another and it is sometimes necessary to design complex algorithms in order to detect long dependencies. To answer this problem in a coherent manner, a method of discourse segmentation based on surface structure triggers in written corpora, is proposed. It paves the way for grammars operating on macro-syntactic categories in order to structure the discursive representation of a sentence. This method is applied prior to a syntactic analysis and its improvement is evaluated. The solutions proposed to these problems help us to approach Information Extraction from a particular angle : the implemented system is evaluated on a task of Named Entity correction in the context of a Question-Answering System. This specific need entails the alignment of a category definition on the type of answer expected by the question
APA, Harvard, Vancouver, ISO, and other styles
25

Ferreirone, Mariano. "Extraction and integration of constraints in multiple data sources using ontologies and knowledge graphs." Electronic Thesis or Diss., Université de Lorraine, 2025. http://www.theses.fr/2025LORR0013.

Full text
Abstract:
Cette thèse explore l'introduction des graphes de formes SHACL dans des environnements sémantiques présentant des sources hétérogènes et des exigences contextuelles variées. Cette recherche propose une approche pour l'enrichissement des systèmes basés sur le Web sémantique, apportant des bénéfices à plusieurs domaines, notamment l'Industrie 4.0. La thèse commence par une large revue des travaux actuels liés à la validation des contraintes sémantiques sur les modèles de représentation des connaissances. Sur la base d'une revue systématique de la littérature, une définition d'une taxonomie décrivant les types de travaux associés est proposée. Les défis ouverts liés à la création de graphes de formes et à leur inclusion dans les environnements sémantiques existants sont mis en évidence. Le besoin d'une représentation des graphes de formes capable de s'adapter à différents contextes ainsi que l'intégration de ces graphes sont particulièrement soulignés. En s'appuyant sur les standards SHACL, un modèle de restriction sémantique représentant des groupes de formes partageant une même cible et pouvant contenir des conflits inter-formes est présenté. Un processus de configuration de pré-validation permettant d'activer le sous-graphe du modèle le mieux adapté au contexte actuel est décrit. De plus, une approche d'intégration des graphes de formes SHACL appartenant à un même environnement est proposée. L'intégration proposée résout les conflits de contraintes grâce à la spécialisation des formes. Un cas d'utilisation pratique, basé sur l'École de Ski Française, démontre l'utilisabilité des contributions proposées. Des évaluations de l'exactitude et de la cohérence du graphe de formes généré sont réalisées. Les performances des procédures mises en œuvre sont également évaluées. La thèse se conclut par un résumé des contributions et une proposition de pistes de recherche futures visant à améliorer davantage l'intégration et la représentation des graphes de formes SHACL<br>This thesis explores the introduction of Shapes Constraint Language graphs in semantic environments which present heterogeneous sources and different context requirements. This research presents a proposal for the enrichment of Semantic Web based systems, providing benefits for several domains such as the Industry 4.0. The thesis starts with a wide review of the current works related to the validation of semantic constraints on knowledge representation models. Based on a systematic literature review, a definition of a taxonomy which describes the related types of works is proposed. The open challenges related to the creation of shape graphs and their inclusion in existing semantic environments are highlighted. The needs for a shape graph representation which is able to attend different contexts and for the integration of shape graphs stand out. Based on the Shapes Constraint Language standards, a semantic restriction model which represents groups of shapes which share target and could hold inter-shape conflicts is presented. A pre-validation configuration process to activate the model's sub-graph that best fits the current context is described. Moreover, an approach for the integration of these graphs which belongs to a common environment is proposed. The integration procedure resolves the constraint conflicts with the specialization of shapes. A practical use case based on the French Ski School demonstrates the usability of the proposed contributions. Evaluations of the correctness and consistency of the generated shape graph are carried out. The implemented procedures' performance is also evaluated. The thesis concludes by summarizing the contributions and suggesting future research directions to further improve the integration and representation of Shapes Constraint Language graphs
APA, Harvard, Vancouver, ISO, and other styles
26

Li, Yan. "Autour des syntagmes nominaux sémantiquement pluriels en chinois mandarin et de leurs interprétations collective et distributive." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC260.

Full text
Abstract:
Cette thèse est consacrée à l’étude des syntagmes nominaux sémantiquement pluriels en chinois mandarin et aux interprétations collective et distributive qui leur sont associées. Elle offre une analyse des formes de pluralité suivantes : le syntagme coordonne par gen, les nominaux modifiés par le suffixe -men, ainsi que les sujets ou les objets des groupes verbaux modifies par quan (‘tout’-flottant). A propos du syntagme coordonne par gen, nous montrons que la conjonction gen dans le syntagme ‘A gen B’ lexicalise une contrainte de pluralité nominale par le biais de restrictions sur les conjoints. Notre argument est bâti sur trois points principaux, à savoir que la catégorie des conjoints est nécessairement [+N], que le syntagme coordonne par gen n’introduit que des individus pluriels dans le discours et que ce syntagme porte la valeur sémantique pluriel [+Pl]. Nous passons aussi en revue différents types de prédicats afin de retracer la distribution des interprétations collective et distributive des syntagmes coordonnés par gen. Ensuite, nous nous penchons sur le suffixe -men et sur l’expression formée par ce suffixe et un nom commun ou un nom propre. Notre examen couvre principalement deux questions, celle de la nature de -men et celle de la (in)définitude de l’expression suffixée par -men en mandarin. Nous soutenons que -men n’est pas un marqueur collectif mais plutôt un marqueur pluriel. Cependant, ce marqueur n’est pas obligatoire, à la différence des marqueur du pluriel tels que -s dans les langues occidentales, le mandarin étant une langue à classificateur. Quant à l’(in)définitude de l’expression suffixée par -men, nous admettons que c’est un pluriel défini, mais ceci du fait que -men ne s’attache qu’aux pronoms personnels et aux noms d’humains, noms qui occupent le hautde la hiérarchie d’animacité. Donc l’expression suffixée par -men hériterait de la définitude en partie de la nature de son domaine fortement individué. Enfin, nous nous intéressons a l’interprétation distributive des syntagmes nominaux dans la phrase ou figure l’adverbe quan (‘tout’-flottant). Nous affirmons que quan impose la lecture distributive de manière autonome et nous en proposons une analyse en tant que modificateur de prédicat d’évènement. Quan cible un nominal relie par un θ-rôle et encapsule dans ce rôle l’instruction de distribution. La distributivité renforcée par quan implique une relation distributive entre deux entités : le nominal qui est sémantiquement pluriel et l’évènement pluriel<br>The thesis invested the research on the semantically plural nominal phrases in Mandarin Chinese and on their collectif and distributif interpretations. It offered an analysis of the following form of pluralities : the coordinated phrase with gen, the nominals modified by the suffix -men, and the subjects or the objects of the VP modified by quan (the floating quantifier). Concerning the coordinated phrase with gen, we will show that the conjunction gen of the phrase ‘A gen B’ lexicalize the constraint of the plurality via the restrictions on the conjoint elements. Our argument is mainly based on three points : 1) the category of the conjuncts is necessarily [+N] ; 2) coordinated phrases with gen introduce only the plural individuals in the discourse and 3) this nominal phrase characterizes the semantic plural value [+Pl]. We will also examine the different types of predicates in order to retrace thedistribution of collective and distributive interpretations of the coordinated phrases with gen. Then, we look into the suffix –men and the expressions formed by this suffix and a common noun or a proper noun. The investigation will mainly concern two questions : the question of the nature of –men and the question of the (in)definitude of the expressions suffixed by –men in Mandarin Chinese. We will argue that –men is not a collectif marker, but preferably a plural marker. However, different from plural markers in the western languages for exemple –s, the marker –men in Mandarin Chinese which is typically a classifer language, is not obligatory. Regarding the (in)definitude of the expressions suffixed by -men, we will admit that they are definite plurals, because of the fact that –men attaches only to only to personal pronouns and humain nouns, the nouns which occupy a high hierarchy of animacity. In consequence, the expressions suffixed by –men partly inherit the definitude of the nature of its considerably individuated domain. Finally, we are interested in the distributive interpretation of the nominal phrases in the sentences wherethe adverbial quan (the floating quantifier) appeares. We will claim that quan imposes the distributive reading in an autonomous manner and we will put forward an analysis of adverbial quan as a modifier of event predicate. Quan targets nominals linked by θ-roles and encapsulate in this role the instruction of distribution. The distributivity reinforced by quan involves a distributive relation between two entities : the nominal which is semantically plural and the plural event
APA, Harvard, Vancouver, ISO, and other styles
27

Lebedeva, Ekaterina. "Expression de la dynamique du discours à l'aide de continuations." Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0025.

Full text
Abstract:
Cette thèse développe un formalisme théorique pour la sémantique du discours. Il s'appuie sur l'extension des grammaires de Montague, sur la notion de continuation et sur les mécanismes de levée et de traitement des exceptions. Le formalisme permet de traiter des phénomènes dynamiques tels que les anaphores d'une phrase à l'autre, les présuppositions déclenchées par des référents et les projections présuppositions<br>This thesis develops a theoretical formalism that takes into account semantical discourse dynamics. It focuses on the extension of Montague semantic with the notion of continuation and an exception handling and raising mechanism. The formalism allows to handle dynamic phenomena such as cross-sentential anaphora, presuppositions triggered by referring expressions and presupposition projection
APA, Harvard, Vancouver, ISO, and other styles
28

Lebedeva, Ekaterina. "Expression de la dynamique du discours à l'aide de continuations." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00783245.

Full text
Abstract:
This thesis develops a theoretical formalism of formal semantics of natural language in the spirit of Montague semantics. The developed framework satisfies the principle of compositionality in a simple and elegant way, by being as parsimonious as possible: completely new formalisms or extensions of existing formalisms with even more complex constructions to fit particular linguistic phenomena have been avoided; instead, the framework handles these linguistic phenomena using only basic and well-established formalisms, such as simply-typed lambda calculus and classical logic. Dynamics is achieved by employing a continuation-passing technique and an exception raising and handling mechanism. The context is explicitly represented by a term, and, therefore, can be easily accessed and manipulated. The framework successfully handles cross-sentential anaphora and presuppositions triggered by referring expressions and has potential to be extended for dealing with more complex dynamic phenomena, such as presuppositions triggered by factive verbs and conversational implicatures.
APA, Harvard, Vancouver, ISO, and other styles
29

Samson-Fauteux, Mélissa. "Représentations du sens lexical en lexicologie explicative et combinatoire : étude de trois formalisations spécifiques." Thèse, 2010. http://hdl.handle.net/1866/4554.

Full text
Abstract:
Cette étude porte sur les différentes formalisations du sens linguistique dans le cadre de la théorie Sens-Texte (TST) ; elle s’intéresse notamment à la représentation sémantique, la représentation la plus importante dans la modélisation du sens d’énoncés et d’unités lexicales de la langue. Cette étude a trois objectifs : premièrement, décrire trois formalisations de la représentation sémantique existant dans la TST – les réseaux sémantiques, les définitions lexicographiques et les définitions de la BDéf (des définitions très formalisées) ; deuxièmement, identifier les disparités et les décalages entre les formalisations choisies ; troisièmement, proposer des modifications aux formalisations existantes pour réduire au maximum ces disparités.<br>This study explores the different formalisations of linguistic meaning as encountered in the Meaning-Text Theory (MST) framework. Its main interest is semantic representation, which is the most important representation in the modeling of the meaning of utterances and lexical units. This study has three objectives: first, describing three existing formalisations of semantic representation in the MST – semantic networks, lexicographical definitions, and BDéf definitions (definitions that are extremely formalized); second, identifying the discrepancies between these formalisations; finally, proposing modifications to these formalisations in order to reduce the disparities as much as possible.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography