To see the other types of publications on this topic, follow the link: Modèles syntaxiques.

Dissertations / Theses on the topic 'Modèles syntaxiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 24 dissertations / theses for your research on the topic 'Modèles syntaxiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Caelen-Haumont, Geneviève. "Stratégies des locuteurs en réponse à des consignes de lecture d'un texte : analyse des interactions entre modèles syntaxiques, sémantiques, pragmatiques et paramètres prosodiques." Aix-Marseille 1, 1991. http://www.theses.fr/1991AIX10044.

Full text
Abstract:
Les interpretations des relations entre la prosodie et la grammaire etant divergentes selon les auteurs, nous dressons u bilan de ces relations entre les domaines de la syntaxe, semantique, pragmatique et divers indices acoustiques, dans le de lectures d'un texte (12 locuteurs x 3 consignes). Les consignes reclament de plus en plus d'intelligibilite. Pour la plupart originaux, 6 modeles grammaticaux et 24 indices issus de fo, de l'energie et de la duree ont ete definis modeles entre eux et d'autre part indices entre eux sont concus comme concurrents. Appliques sur les items lexicaux d'un texte, ces modeles, en fonction de leur domaine, permettent d'attribuer un poids a chaque item. L'hypothese de depart est que ces poids refletent une hierarchie predictive de l'organisation intonative et accentuelle de l'enonce. En utilisant une methodologie appropriee, nous montrons dans les limites de notre texte que 1e il existe au niveau gener une bonne correlation entre modeles et indices de fo (en moyenne 85 % de predictions correctes) 2e les modeles semantiques et pragmatiques sont beaucoup plus utilises par les locuteurs que les modeles syntaxiques 3e l'indice (origi a la fois le plus precis et le plus couteux est de loin le plus utilise 4e les strategies des locuteurs constituent une strategie qui consiste a utiliser en debut de texte ou pour la consigne la moins contraignante, des modeles holistiques les modeles analytiques 5e les strategies ne s'actualisent pas necessairement dans le cadre de la phrase, mais sont arti autour des syntagmes minimaux regroupes en unites plus ou moins grandes 6e ces unites peuvent enjamber la frontiere de phrase 7e la fonction des indices de la duree et de l'energie est precisement de demarquer ces syntagmes minimaux 8e ces strategies ont la propriete d'etre adaptatives et opportunistes
As the interpretations of the relations between prosody and grammar do not concord among authors for french and other languages, we value these relations in the frame of text readings (12 speakers x 3 reading instructions), and more preci between syntax, semantics, pragmatics and a set of acoustical crues. These instructions are asking to readers to speak m and more clearly. Most of the 6 models and most of the 24 crues (extracted from pitch, energy, duration parameters) whic have been defined for this purpose, are new. The experiment was thought in order to put these models (as well as acoustical crues) in competition. Applied upon lexical items of a text, these models, in relation with their own grammat domain, enable one to ascribe weighting to each lexical item. The initial hypothesis is that these numerical values refl a hierarchy which is predicting pitch hierarchy in the utterances, at the intonation and accent levels. By using an appr methodology, we show in the limits of the text experiment that 1e these models are predicting of pitch crues in 85% of t cases 2e speakers are much more using semantic and pragmatic models than syntactic ones 3e the crue (new one) the most precise and requiring a high cost of attention is by far the most frequent in speaker productions 4e speaker strategies reflecting a meta-strategy consisting in using holistic models at the beginning of the text or when the less exacting re instruction is running, the analytic models 5e these strategies do not necessarily take place in sentence boundary frame but lay upon minimal phrases (the lowest extension) gathered in more or less important units 6e a sentence boundary overlap may occur 7e the function of duration and energy crues consists precisely in the demarcation of such minimal phrases 8e these strategies present the characteristics to be very adaptable and to be locally achieved in a moment-tomoment decision
APA, Harvard, Vancouver, ISO, and other styles
2

Ben, Amor Rafika. "Comparaison de quelques modèles syntaxiques formels (GB, GPSG, HPSG et LFG) : application au traitement de l'accord dans différentes langues avec référence particulière au français." Paris 3, 2000. http://www.theses.fr/2000PA030087.

Full text
Abstract:
L'objectif de notre travail est d'etudier le traitement de l'accord dans differents modeles syntaxiques : gb, gpsg, hpsg et lfg. Ces modeles sont appliques a des langues presentant des variations morphologiques et structurales: le francais, l'italien, l'anglais, l'arabe, le gallois et autres. Quelles solutions ces modeles proposent-ils pour resoudre l'accord verbal, adjectival et participial? dans gb, le mouvement des constituants vers une position tete agr ou tns, selon les langues, regle l'accord alors que dans les grammaires d'unification, l'ordre des constituants n'est pas determine par des positions geometriques dans l'arbre syntagmatique mais par un trait syntaxique de poids leger ou non leger tel que dans hpsg. L'unification des structures de traits permet de realiser l'accord morphologique entre les constituants.
APA, Harvard, Vancouver, ISO, and other styles
3

Faure, Germain. "Structures et modèles de calculs de réécriture." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00164576.

Full text
Abstract:
Le calcul de réécriture ou rho-calcul est une généralisation du lambda-calcul avec filtrage et agrégation de termes. L'abstraction sur les variables est étendue à une abstraction sur les motifs et le filtrage correspondant peut être effectué modulo une théorie
équationnelle a priori arbitraire. L'agrégation est utilisée pour collecter les différents résultats possibles.
Dans cette thèse, nous étudions différentes combinaisons des ingrédients fondamentaux du rho-calcul: le filtrage, l'agrégation et les mécanismes d'ordre supérieur.
Nous étudions le filtrage d'ordre supérieur dans le lambda-calcul pur modulo une restriction de la beta-conversion appelée super-développements. Cette nouvelle approche est suffisamment expressive pour traiter les problèmes de filtrage du second-ordre et ceux avec des motifs d'ordre supérieur à la Miller.
Nous examinons ensuite les modèles catégoriques du
lambda-calcul parallèle qui peut être vu comme un enrichissement du lambda-calcul avec l'agrégation de termes. Nous montrons que ceci est une étape significative vers la sémantique dénotationnelle du calcul de réécriture.
Nous proposons également une étude et une comparaison des calculs avec motifs éventuellement dynamiques, c'est-à-dire qui peuvent être instanciés et réduits. Nous montrons que cette étude, et plus particulièrement la preuve de confluence, est suffisamment générale pour
s'appliquer à l'ensemble des calculs connus. Nous étudions ensuite l'implémentation de tels calculs en proposant un calcul de réécriture avec filtrage et substitutions explicites.
APA, Harvard, Vancouver, ISO, and other styles
4

Dugua, Céline. "Liaison, segmentation lexicale et schémas syntaxiques entre 2 et 6 ans : un modèle développemental basé sur l'usage." Grenoble 3, 2006. https://hal.archives-ouvertes.fr/tel-01272976.

Full text
Abstract:
Cette thèse aborde la question de l'acquisition de la liaison par les enfants francophones entre 2 à 6 ans. Elle s'inscrit dans les théories basées sur l'usage et les grammaires de construction et permet de montrer la forte interaction des différents niveaux linguistiques (phonologique, lexical, syntaxique) au cours du développement. A partir de l'analyse de 8 études de corpus et d'un relevé d'erreurs de liaison chez une fillette, nous avons élaboré 6 démarches expérimentales comprenant notamment un suivi longitudinal de 20 enfants durant 4 ans et 2 études transversales avec 122 et 200 sujets. Dans ce cadre, nous proposons un modèle développemental en trois étapes qui intègre liaison, segmentation lexicale et émergence de schémas syntaxiques. Précocement, l'enfant récupérerait des séquences globales concrètes dans son environnement langagier et les mémoriserait telles quelles dans son lexique. Par exemple, il récupèrerait un âne, zâne, l'âne. A partir du socle constitué par ces éléments lexicaux de formes diverses, des schémas plus abstraits émergeraient progressivement. D'abord généraux, ils se présenteraient sous la forme un + X ; dans ce cas le déterminant distribue des emplacements pouvant accueillir tout type de forme lexicale, d'où la prégnance des erreurs par remplacement (un zâne) à 2-3 ans. Peu à peu, ces schémas se spécifieraient en intégrant la nature de la consonne de liaison dans leur représentation (un + nX). Ces derniers expliquent les progrès en liaison et aussi le pic d'erreurs par surgénéralisation à des mots à initiale consonantique (erreur du type un nèbre pour un zèbre) vers 4-5 ans
This thesis focuses on the acquisition of liaison by french children aged between 2 and 6. Through cognitive functional approaches, more specifically on usage-based models and construction grammars, our analyses highlight how linguistic levels (phonological, lexical, syntactic) interact during the development. From 8 corpora studies as well as a measurement of errors in liaison contexts, taken from a child's utterances, we elaborated 6 experimental study protocols, in particular, a four-year longitudinal follow up of 20 children, as well as 2 cross-studies with larger samples (122 and 200 subjects). We suggest a 3 stage developmental model integrating liaison phenomenon, lexical segmentation and constructional schemas emergence. Precociously, the child would retrieve concrete linguistic sequences in her linguistic environment. She would then memorise these sequences and store them in her lexicon in same form as that one heard. For example, she could memorise sequences like un âne (a donkey), l'âne (with determiners), zâne, nâne (with consonant liaison on the initial). These concrete sequences constitute the base from which more abstract schemas emerge progressively. The first are general, integrating a determiner (the pivot) and a slot which can receive any lexical forms. They are like un (a/an) + X and they explain early frequent substitution errors (like un zâne). Gradually, these schemas become more specific, integrating the phonetic nature of the liaison consonant: un + nX. Their application explains progress in liaison contexts and overgeneralization errors on words starting with a consonant (like un nèbre instead of un zèbre (zebra))
APA, Harvard, Vancouver, ISO, and other styles
5

Perez, Sanchez Maria Milagrosa. "Typologie et uniformisation syntaxique des modèles de transfert de chaleur dans le contexte de la thermique du bâtiment." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0005.

Full text
Abstract:
Nous présentons dans ce travail la méthodologie permettant l'intégration dans un algorithme général des différents modèles de transfert de chaleur intervenant au sein d'un bâtiment. Pour cela nous proposons un formalisme d'écriture des différents modes de transfert faisant apparaître systématiquement les températures de surfaces internes. Après une présentation des modèles de transferts conductifs et des échanges superficiels au sein de l'enveloppe du bâtiment, nous étudions les relations existant entre ces modèles, nous faisons apparaître les similitudes et exposons les passages possibles d'un type de modèle à un autre. Nous développons également une uniformisation syntaxique de ces modèles afin de les intégrer dans l'algorithme général permettant la simulation du comportement thermique dynamique du bâtiment. Enfin, nous consacrons la dernière partie de cette étude aux applications et exploitations de la méthodologie proposée. Pour cela nous décrivons tout d'abord le code de calcul que nous avons mis au point, puis quelques applications que nous avons traitées. Nous terminons en montrant l'efficacité du code de calcul sur quelques exemples numériques.
APA, Harvard, Vancouver, ISO, and other styles
6

Choi, Juyeon. "Problèmes morpho-syntaxiques analysés dans un modèle catégoriel étendu : application au coréen et au français avec une réalisation informatique." Thesis, Paris 4, 2011. http://www.theses.fr/2011PA040211.

Full text
Abstract:
Ce travail de thèse vise à proposer les analyses formelles de phénomènes langagiers, tels que le système casuel, le double cas, la flexibilité de l'ordre des mots, la coordination, la subordination et la thématisation, dans deux langues structurellement très distinctes : le coréen et le français. Le choix théorique s'est porté sur le formalisme de la Grammaire Catégorielle Combinatoire Applicative, développée par Jean-Pierre Desclés et Ismail Biskri, en mettant en œuvre les combinateurs de la Logique Combinatoire de Curry et le calcul fonctionnel des types de Church. Le problème à résoudre est le suivant : en prenant une langue « à cas » comme le coréen, avec les constructions « à double cas » et la flexibilité dans l'ordre des mots, spécifiques à certaines langues extrêmes orientales, cette langue est-elle analysable avec un formalisme catégoriel et selon quelle stratégie de calcul ? Nous donnons un certain nombre d'exemples qui répondent à cette question. Les analyses formelles proposées dans ce travail permettent ensuite d'examiner la pertinence syntaxique de l'hypothèse « anti-anti relativiste » en dégageant certains invariants syntaxiques à partir des opérations de prédication, de détermination, de transposition, de quantification et de coordination. Nous proposons également un analyseur catégoriel, ACCG, applicable au coréen et au français, qui permet d'engendrer, de façon automatique, les calculs catégoriels, ainsi que les structures opérateur/opérande
This dissertation aims at proposing the formal analysis of the linguistic phenomena, such as the case system, the double case, the flexible word order, the coordination, the subordination and the thematisation, in the two structurally distinct languages: Korean and French. The formalism of Applicative Combinatory Categorial Grammar, developed by Jean-Pierre Desclés and Ismail Biskri, allow us to analyze these problems by means of the combinators of the Combinatory Logic of Curry and the functional calculus of the Church's types. By taking account of these formal analysis applied to Korean and to French, we discuss on the « anti-anti relativist » hypothesis by finding some syntactic invariants from the different operations such as the predication, the determination, the quantification, the transposition and the coordination. We propose also a categorial parser, ACCG, applicable to Korean and French sentences, which generates automatically categorial calculus and the operator-operand structures
APA, Harvard, Vancouver, ISO, and other styles
7

Atar, Sharghi Navid. "Analyse syntaxique comparée du persan et du français : vers un modèle de traduction non ambigüe et une langue controlée." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-01011496.

Full text
Abstract:
Cette étude consiste en une analyse comparée des unités syntaxiques (les syntagmes) et des constructions fondamentales du fiançais et du persan, en ayant un regard sur les Langues Contrôlées (LC) et les cas problématiques et ambigus pour la traduction.Après un passage sur l'histoire de ces langues et une brève présentation du système d 'écriture et phonétique du persan ,les classes de mots et leurs classifications traditionnelle et moderne sont comparées. Ensuite, les structures des syntagmes déterminant, nominal, adjectival, prépositionnel , adverbial et verbal et la nature de leurs composants, ainsi que les constructions fondamentales de la phrase de base dans ces deux langues sont analysées. Tout au long du parcours, en faisant quelques tests de traduction avec des étudiants persanophones, certains cas problématiques pour la traduction sont repérés et traités pour une langue contrôlée français-persan éventuelle. Dans la synthèse finale, sont rassemblées, les structures syntagmatiques et certaines instructions pour élaborer une LC concernant les langues française et persane
APA, Harvard, Vancouver, ISO, and other styles
8

Huet, Stéphane. "Informations morpho-syntaxiques et adaptation thématique pour améliorer la reconnaissance de la parole." Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00524245.

Full text
Abstract:
Une des voies pour améliorer les performances des systèmes de reconnaissance automatique de la parole (RAP) consiste à employer davantage de connaissances linguistiques. Nous nous plaçons dans ce cadre en axant nos travaux sur deux aspects : les informations morpho-syntaxiques et l'adaptation thématique. Dans une première partie, nous proposons une nouvelle prise en compte des parties du discours en post-traitement du décodage de la parole. Nous étiquetons pour ce faire des listes d'hypothèses à l'aide d'un analyseur morpho-syntaxique développé pour tenir compte des spé- cificités des transcriptions. Nous réordonnons ces listes en modifiant le score global employé par un système de RAP pour reconnaître un groupe de souffle, de manière à inclure les informations morpho-syntaxiques. Une diminution significative du taux d'erreur de mots est obtenue lors d'expériences menées sur des émissions d'information francophones (corpus Ester). Nous établissons en outre l'intérêt des informations morpho-syntaxiques pour améliorer des mesures de confiance. Dans une seconde partie plus exploratoire, nous nous intéressons à l'adaptation thématique d'un modèle de langage (ML) d'un système de RAP. Nous proposons à cette fin une chaîne de traitements originale qui nous permet de spécialiser de manière ne et non supervisée le ML. Nous découpons tout d'abord une première transcription du document étudié en sections thématiquement homogènes. Pour cela, nous développons un nouveau cadre probabiliste pour prendre en compte dfférentes modalités (cohérence lexicale, indices acoustiques et marqueurs linguistiques) et montrons son intérêt pour améliorer la qualité de la segmentation. Nous construisons ensuite des corpus d'adaptation à partir du Web en utilisant une procédure novatrice. Nous modifions enfin le ML avec ces corpus spécifiques et montrons que, sur des sections thématiques sélectionnées manuellement, cette méthode permet d'améliorer significativement la modélisation du ML, même si le gain constaté au niveau de la qualité de la transcription est léger.
APA, Harvard, Vancouver, ISO, and other styles
9

Zouaidi, Safa. "La combinatoire des verbes d'affect : analyse sémantique, syntaxique et discursive français-arabe." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAL028/document.

Full text
Abstract:
Le principal enjeu de notre recherche est d’aboutir à un modèle intégratif fonctionnel pour l’analyse des verbes d’affect en français et en arabe. Nous avons choisi d’étudier quatre V_affect : deux verbes d’émotion (étonner et énerver en français et leurs équivalents [ʔadhaʃa], [ʕaɣḍaba] en arabe]) et deux verbes de sentiment (admirer et envier et leurs équivalents [ʔaʕʒaba] et [ħasada]) appartenant aux champs sémantiques de la surprise, la colère, l’admiration et la jalousie. Plus concrètement, l’analyse se situe :– au niveau sémantique et syntaxique : les dimensions sémantiques véhiculées par les collocatifs verbaux comme étonner tellement, énerver prodigieusement, en français, et [ʔaʕʒaba ʔiʕʒāban kabīran] (admirer admiration grand) , [ɣaḍaba ɣaḍabaan ʃadīdan] (énerver colère sévère), en arabe, sont systématiquement reliées à la syntaxe (les constructions grammaticales récurrentes) (Hoey, 2005).– au niveau syntaxique et discursif : les emplois actifs, passifs, et pronominaux des V_affect sont étudiés dans la perspective des dynamiques informationnelles au sein de la phrase (Van Valin et LaPolla, 1997).D’un point de vue méthodologique, l’étude s’appuie sur une démarche quantitative et qualitative de la combinatoire verbale et privilégie la démarche contrastive. Elle est fondée sur le corpus journalistique français de la base de données EmoBase (projet Emolex 100 M de mots) et du corpus journalistique ArabiCorpus (137 M de mots).La thèse contribue ainsi à l’étude des valeurs sémantiques, du comportement syntaxique et discursif de la combinatoire des V_affect, en arabe et en français, ce qui permet de mieux structurer le champ lexical des affects par rapport à ce que proposent les études existantes en lexicologie. Les principaux résultats de l’étude peuvent être appliqués en didactique des langues, en traductologie et en traitement automatisé du lexique des affects dans les deux langues comparées
The paramount stake of this research is to achieve an integrative functional model for the analysis of affective verbs in French and Arabic. I have chosen four affective verbs: two verbs of emotion (to astonish and to rage in French and their equivalent in Arabic) and two verbs of sentiment (to admire and to envy in French and their equivalent [ʔadhaʃa], [ʔaɣḍaba] in Arabic) they belong to semantic dictions of Surprise, Anger, Admiration, and Jealousy. More concretely, the analysis is shaped:- On the semantic and syntactic level: the semantic dimensions carried by verbal collocations such as to extremely astonish, to rage prodigiously in French, and [ʔaʕʒaba ʔiʕʒāban kabīran] (admire admiration big)*, [ɣaḍaba ɣaḍabaan ʃadīdan] (to rage rage extreme), and in Arabic are systematically linked to syntax (the recurrent grammatical constructions) (Hoey 2005).- On the syntactic and discursive level: the usage of passive, active and reflexive forms of affective verbs are dealt with from the perspective of informational dynamics in the sentence. (Van Valin et LaPolla 1997).From a methodological point of view, the study is based on the quantitative and qualitative approach of the verbal combination and favours the contrastive one. It is founded on the French journalistic corpus of Emobase Database (Emolex project 100 M of words) and the journalistic corpus Arabicorpus) (137 M of words).Furthermore, the thesis participates in the studies of semantic values, the syntactic and the discursive behavior of affective verbs’combinations, in Arabic and in French, which will enable to better structure the diction of emotions in relation to what is proposed by current studies in lexicography. The main results of the study can be applied in language teaching, translation, and automated processing of emotions' lexicon in the two compared languages
APA, Harvard, Vancouver, ISO, and other styles
10

Le-Hong, Phuong. "Elaboration d'un composant syntaxique à base de grammaires d'arbres adjoints pour le vietnamien." Phd thesis, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00529657.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine du traitement automatique des langues naturelles et plus spécifiquement dans celui du traitement du vietnamien. Le travail présenté dans la thèse porte sur la construction d'outils et de ressources linguistiques pour les tâches fondamentales de traitement automatique du vietnamien, notamment la construction d'une grammaire à large couverture et un analyseur syntaxique pour cette langue. Nous développons une chaîne modulaire de prétraitements pour le vietnamien dont le rôle est d'appliquer à des corpus bruts une cascade de traitements de surface. Il s'agit d'un segmenteur en phrases, d'un segmenteur en unités lexicales, d'un reconnaisseur de mots redoublés et d'un étiqueteur morpho-syntaxique. Préalables nécessaires à une possible analyse, ces traitements peuvent également servir à préparer d'autres tâches. La modélisation de la grammaire vietnamienne est effectuée en utilisant le formalisme des grammaires d'arbres adjoints lexicalisées (Lexicalized Tree Adjoining Grammars ou LTAG). Nous développons un système qui extrait automatiquement une grammaire LTAG à partir d'un corpus arboré du vietnamien. Les arbres élémentaires de la grammaire forment les structures syntaxiques de la langue vietnamienne. Nous adaptons et enrichissons un analyseur syntaxique du français pour construire un analyseur syntaxique profond pour le vietnamien. Nous présentons les fondements théoriques des différents modules et systèmes, leurs évaluations quantitatives. Nos systèmes atteignent des performances prometteuses dans les tâches du traitement automatique du vietnamien à l'heure actuelle.
APA, Harvard, Vancouver, ISO, and other styles
11

Kirman, Jerome. "Mise au point d'un formalisme syntaxique de haut niveau pour le traitement automatique des langues." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0330/document.

Full text
Abstract:
La linguistique informatique a pour objet de construire un modèle formel des connaissances linguistiques, et d’en tirer des algorithmes permettant le traitement automatique des langues. Pour ce faire, elle s’appuie fréquemment sur des grammaires dites génératives, construisant des phrases valides par l’application successive de règles de réécriture. Une approche alternative, basée sur la théorie des modèles, vise à décrire la grammaticalité comme une conjonction de contraintes de bonne formation, en s’appuyant sur des liens profonds entre logique et automates pour produire des analyseurs efficaces. Notre travail se situe dans ce dernier cadre. En s’appuyant sur plusieurs résultats existants en informatique théorique, nous proposons un outil de modélisation linguistique expressif, conçu pour faciliter l’ingénierie grammaticale. Celui-ci considère dans un premier temps la structure abstraite des énoncés, et fournit un langage logique s’appuyant sur les propriétés lexicales des mots pour caractériser avec concision l’ensemble des phrases grammaticalement correctes. Puis, dans un second temps, le lien entre ces structures abstraites et leurs représentations concrètes (en syntaxe et en sémantique) est établi par le biais de règles de linéarisation qui exploitent la logique et le lambda-calcul. Par suite, afin de valider cette approche, nous proposons un ensemble de modélisations portant sur des phénomènes linguistiques divers, avec un intérêt particulier pour le traitement des langages présentant des phénomènes d’ordre libre (c’est-à-dire qui autorisent la permutation de certains mots ou groupes de mots dans une phrase sans affecter sa signification), ainsi que pour leur complexité algorithmique
The goal of computational linguistics is to provide a formal account linguistical knowledge, and to produce algorithmic tools for natural languageprocessing. Often, this is done in a so-called generative framework, where grammars describe sets of valid sentences by iteratively applying some set of rewrite rules. Another approach, based on model theory, describes instead grammaticality as a set of well-formedness logical constraints, relying on deep links between logic and automata in order to produce efficient parsers. This thesis favors the latter approach. Making use of several existing results in theoretical computer science, we propose a tool for linguistical description that is both expressive and designed to facilitate grammar engineering. It first tackles the abstract structure of sentences, providing a logical language based on lexical properties of words in order to concisely describe the set of grammaticaly valid sentences. It then draws the link between these abstract structures and their representations (both in syntax and semantics), through the use of linearization rules that rely on logic and lambda-calculus. Then in order to validate this proposal, we use it to model various linguistic phenomenas, ending with a specific focus on languages that include free word order phenomenas (that is, sentences which allow the free reordering of some of their words or syntagmas while keeping their meaning), and on their algorithmic complexity
APA, Harvard, Vancouver, ISO, and other styles
12

Wang, Tiexin. "A study to define an automatic model transformation approach based on semantic and syntactic comparisons." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2015. http://www.theses.fr/2015EMAC0015/document.

Full text
Abstract:
Les modèles sont de plus en plus utilisés que ce soit pour la description d’un point de vue d’un système complexe ou pour l’échange d’information. Cependant, le partage d’information, le transfert d’information d’un modèle à un autre est aujourd’hui une problématique liée à l’interopérabilité des systèmes. Cette problématique peut être abordée selon trois approches : intégrée (tous les modèles identiques), unifiée (tous les modèles font référence à un modèle pivot), fédérée (pas de règles précises sur les modèles). Bien que des standards existent, ils sont rarement respectés avec rigueur. L’approche fédérée semble par conséquent l’approche la plus réaliste. Cependant, cette approche est complexe car les différents modèles, bien que comportant des concepts communs, peuvent avoir une structure et un vocabulaire très hétérogène pour décrire le même concept. Par conséquent, il faut identifier les concepts communs des différents modèles avant de définir les règles de transformation permettant de passer d’un format à un autre. Cette thèse propose une méthodologie permettant d’atteindre ces objectifs, elle se base d’une part sur la proposition d’un méta-méta-modèle permettant d’unifier la description de la structure des modèles, i.e. le méta-modèle, et d’autre part sur le calcul de distance entre chaque élément des modèles qui permettront de déduire les règles de transformation. Cette mesure de distance reflète la distance à la fois syntaxique, écritures différentes d’un même terme, ainsi que sémantique liée à l’utilisation de synonyme. La recherche de synonyme est basée sur l’utilisation de base de connaissance, représentée sous forme d’ontologie, tel que WordNet
The models are increasingly used both for the description of a view of a complex system or for information exchange. However, to share the information, transferring information from one model to another is an issue related to the interoperability of systems now. This problem can be approached in three ways: integrated (all identical models), unified (all models refer to a pivot model), federated (no specific rules on the models). Although standards exist, they are rarely respected rigorously. The federated approach therefore seems to be the most realistic approach. However, because of the different models, this approach is complicated. Models can have a very heterogeneous structure and different vocabulary to describe the same concept. Therefore, we must identify the common concepts of different models before defining the transformation rules for transforming from one format to another. This thesis proposes a methodology to achieve these goals. It is partly based on the proposal of a meta-meta-model (to unify the description of the model structure), i.e. the meta-model, and secondly calculating the distance between each element of models to deduce the transformation rules. This distance reflecting both syntactic distance (words occurrence) and semantic relation that related to the synonymous. Researching synonym relation is based on the use of knowledge base, represented as ontology, such as WordNet
APA, Harvard, Vancouver, ISO, and other styles
13

Phan, Van Trung. "Modelling of the in service behaviour of passive insulated structures for deep sea offshore applications." Thesis, Brest, 2012. http://www.theses.fr/2012BRES0098/document.

Full text
Abstract:
L’étude se situe dans le cadre de la recherche de gains de performance de structures d’isolations passives pour l’offshore profond. Le travail proposé a pour support des analyses expérimentales et numériques de tubes revêtus par des matériaux isolants utilisés en eau profonde pour transporter du fluide chaud. Le raboutage des tubes en acier, préalablement revêtus en atelier, nécessite un dégagement du revêtement aux extrémités pour réaliser l'opération d'assemblage (généralement par soudure). La partie dégagée est ensuite recouverte par un nouveau matériau pouvant être appliqué sur site. Ainsi l’isolation de cette partie du tube (Field Joint), qui est soumise à des chargements thermomécaniques en service, doit être optimisée pour assurer une durée de vie compatible avec les contraintes de l’exploitation offshore en eau profonde. Le travail comporte principalement quatre parties : - la modélisation du comportement thermique pour analyser l’évolution en temps et en espace de la température du matériau au cours de la fabrication, de la pose et en service sachant que pour les matériaux d’isolation le comportement mécanique est fortement dépendant de la température,- une partie expérimentale pour l’analyse du comportement des matériaux isolants en fonction de la température et en fonction de la pression hydrostatique qui est le principal chargement mécanique de ces structures en service,- la modélisation du comportement mécanique des isolants,- et une partie modélisation et simulation du comportement en service d'assemblages multi-matériaux de type industriel, avec prise en compte du comportement non-linéaire des constituants
Ultra deep offshore oil exploitation presents new challenges to offshore engineering and operating companies. Such applications require the use of pipelines with an efficient thermal protection. Passive insulation materials are commonly used to guarantee the thermal performance of the pipes, and syntactic foams are now the preferred material for this application. The mechanical behaviour of such insulation materials is quite complex, associating time-dependent behaviour of polymers with damage behaviour of glass microspheres. In order to allow an optimisation of such systems, while ensuring in-service durability, accurate numerical models of insulation materials are thus required. During the service life in deep water, hydrostatic pressure is the most important mechanical loading of the pipeline, so this study aims to describe the mechanical behaviour of the material under such loading. Using a hyperbaric chamber, the analysis of the evolution of the volumetric strain with time, with respect to the temperature, under different time-evolutions of the applied hydrostatic pressure is presented in this paper. Such experimental results associated with the mechanical response of the material under uniaxial tensile creep tests, allow the development of a thermo-mechanical model, so that representative loadings can be analysed
APA, Harvard, Vancouver, ISO, and other styles
14

Pécheux, Nicolas. "Modèles exponentiels et contraintes sur les espaces de recherche en traduction automatique et pour le transfert cross-lingue." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS242/document.

Full text
Abstract:
La plupart des méthodes de traitement automatique des langues (TAL) peuvent être formalisées comme des problèmes de prédiction, dans lesquels on cherche à choisir automatiquement l'hypothèse la plus plausible parmi un très grand nombre de candidats. Malgré de nombreux travaux qui ont permis de mieux prendre en compte la structure de l'ensemble des hypothèses, la taille de l'espace de recherche est généralement trop grande pour permettre son exploration exhaustive. Dans ce travail, nous nous intéressons à l'importance du design de l'espace de recherche et étudions l'utilisation de contraintes pour en réduire la taille et la complexité. Nous nous appuyons sur l'étude de trois problèmes linguistiques — l'analyse morpho-syntaxique, le transfert cross-lingue et le problème du réordonnancement en traduction — pour mettre en lumière les risques, les avantages et les enjeux du choix de l'espace de recherche dans les problèmes de TAL.Par exemple, lorsque l'on dispose d'informations a priori sur les sorties possibles d'un problème d'apprentissage structuré, il semble naturel de les inclure dans le processus de modélisation pour réduire l'espace de recherche et ainsi permettre une accélération des traitements lors de la phase d'apprentissage. Une étude de cas sur les modèles exponentiels pour l'analyse morpho-syntaxique montre paradoxalement que cela peut conduire à d'importantes dégradations des résultats, et cela même quand les contraintes associées sont pertinentes. Parallèlement, nous considérons l'utilisation de ce type de contraintes pour généraliser le problème de l'apprentissage supervisé au cas où l'on ne dispose que d'informations partielles et incomplètes lors de l'apprentissage, qui apparaît par exemple lors du transfert cross-lingue d'annotations. Nous étudions deux méthodes d'apprentissage faiblement supervisé, que nous formalisons dans le cadre de l'apprentissage ambigu, appliquées à l'analyse morpho-syntaxiques de langues peu dotées en ressources linguistiques.Enfin, nous nous intéressons au design de l'espace de recherche en traduction automatique. Les divergences dans l'ordre des mots lors du processus de traduction posent un problème combinatoire difficile. En effet, il n'est pas possible de considérer l'ensemble factoriel de tous les réordonnancements possibles, et des contraintes sur les permutations s'avèrent nécessaires. Nous comparons différents jeux de contraintes et explorons l'importance de l'espace de réordonnancement dans les performances globales d'un système de traduction. Si un meilleur design permet d'obtenir de meilleurs résultats, nous montrons cependant que la marge d'amélioration se situe principalement dans l'évaluation des réordonnancements plutôt que dans la qualité de l'espace de recherche
Most natural language processing tasks are modeled as prediction problems where one aims at finding the best scoring hypothesis from a very large pool of possible outputs. Even if algorithms are designed to leverage some kind of structure, the output space is often too large to be searched exaustively. This work aims at understanding the importance of the search space and the possible use of constraints to reduce it in size and complexity. We report in this thesis three case studies which highlight the risk and benefits of manipulating the seach space in learning and inference.When information about the possible outputs of a sequence labeling task is available, it may seem appropriate to include this knowledge into the system, so as to facilitate and speed-up learning and inference. A case study on type constraints for CRFs however shows that using such constraints at training time is likely to drastically reduce performance, even when these constraints are both correct and useful at decoding.On the other side, we also consider possible relaxations of the supervision space, as in the case of learning with latent variables, or when only partial supervision is available, which we cast as ambiguous learning. Such weakly supervised methods, together with cross-lingual transfer and dictionary crawling techniques, allow us to develop natural language processing tools for under-resourced languages. Word order differences between languages pose several combinatorial challenges to machine translation and the constraints on word reorderings have a great impact on the set of potential translations that is explored during search. We study reordering constraints that allow to restrict the factorial space of permutations and explore the impact of the reordering search space design on machine translation performance. However, we show that even though it might be desirable to design better reordering spaces, model and search errors seem yet to be the most important issues
APA, Harvard, Vancouver, ISO, and other styles
15

Tellier, Isabelle. "Définition et implémentation par les grammaires catégorielles d'un modèle cognitif formel de l'énonciation." Cachan, Ecole normale supérieure, 1996. http://www.theses.fr/1996DENS0007.

Full text
Abstract:
Nous présentons dans cette thèse un nouveau modèle formel d'analyse et de représentation de textes écrits, particulièrement adapte à l'étude de la verbalisation de taches cognitives. Ce modèle ne s'attache pas tant a décrire la sémantique des textes qu'a cerner ce qu'ils révèlent des choix de leurs auteurs, dont nous cherchons a caractériser le style: au niveau énonciatif, les choix lexicaux et syntaxiques sont analysés grâce a un système de traits intégré dans un langage formel (algébrique) ; au niveau cognitif, les choix d'organisation globale du discours sont représentés dans un automate fini. Ce modèle est calculable et il a, en grande partie, été implémenté par une grammaire catégorielle. Nous détaillons et développons également les propriétés de ces grammaires, ainsi que le mode de génération automatique de notre représentation, inspiré de celui défini par Montague. Nous l'appliquons à un corpus de récits de prises de décision
APA, Harvard, Vancouver, ISO, and other styles
16

Tafforeau, Jérémie. "Modèle joint pour le traitement automatique de la langue : perspectives au travers des réseaux de neurones." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0430/document.

Full text
Abstract:
Les recherches en Traitement Automatique des Langues (TAL) ont identifié différents niveaux d'analyse lexicale, syntaxique et sémantique. Il en découle un découpage hiérarchique des différentes tâches à réaliser afin d'analyser un énoncé. Les systèmes classiques du TAL reposent sur des analyseurs indépendants disposés en cascade au sein de chaînes de traitement (pipelines). Cette approche présente un certain nombre de limitations : la dépendance des modèles à la sélection empirique des traits, le cumul des erreurs dans le pipeline et la sensibilité au changement de domaine. Ces limitations peuvent conduire à des pertes de performances particulièrement importantes lorsqu'il existe un décalage entre les conditions d'apprentissage des modèles et celles d'utilisation. Un tel décalage existe lors de l'analyse de transcriptions automatiques de parole spontanée comme par exemple les conversations téléphoniques enregistrées dans des centres d'appels. En effet l'analyse d'une langue non-canonique pour laquelle il existe peu de données d'apprentissage, la présence de disfluences et de constructions syntaxiques spécifiques à l'oral ainsi que la présence d'erreurs de reconnaissance dans les transcriptions automatiques mènent à une détérioration importante des performances des systèmes d'analyse. C'est dans ce cadre que se déroule cette thèse, en visant à mettre au point des systèmes d'analyse à la fois robustes et flexibles permettant de dépasser les limitations des systèmes actuels à l'aide de modèles issus de l'apprentissage par réseaux de neurones profonds
NLP researchers has identified different levels of linguistic analysis. This lead to a hierarchical division of the various tasks performed in order to analyze a text statement. The traditional approach considers task-specific models which are subsequently arranged in cascade within processing chains (pipelines). This approach has a number of limitations: the empirical selection of models features, the errors accumulation in the pipeline and the lack of robusteness to domain changes. These limitations lead to particularly high performance losses in the case of non-canonical language with limited data available such as transcriptions of conversations over phone. Disfluencies and speech-specific syntactic schemes, as well as transcription errors in automatic speech recognition systems, lead to a significant drop of performances. It is therefore necessary to develop robust and flexible systems. We intend to perform a syntactic and semantic analysis using a deep neural network multitask model while taking into account the variations of domain and/or language registers within the data
APA, Harvard, Vancouver, ISO, and other styles
17

Ghoul, Dhaou. "Classifications et grammaires des invariants lexicaux arabes en prévision d’un traitement informatique de cette langue. Construction d’un modèle théorique de l’arabe : la grammaire des invariants lexicaux temporels." Thesis, Paris 4, 2016. http://www.theses.fr/2016PA040184.

Full text
Abstract:
Cette thèse porte sur la classification et le traitement des invariants lexicaux arabes qui expriment un aspect temporel afin de créer un modèle qui présente chaque invariant sous la forme d’un schéma de grammaire (automates à états finis). Dans ce travail nous avons limité notre traitement seulement pour 20 invariants lexicaux. Notre hypothèse part du principe que les invariants lexicaux sont situés au même niveau structural (formel) que les schèmes dans le langage quotient (squelette) de la langue arabe. Ils cachent beaucoup d’informations et entraînent des attentes syntaxiques qui permettent de prédire la structure de la phrase.Au début de cette thèse, nous abordons la notion « invariant lexical » en exposant les différents niveaux d’invariance. Ensuite, nous classons les invariants étudiés dans cette thèse selon plusieurs critères.La deuxième partie de cette thèse fait l’objet de notre propre étude concernant les invariants lexicaux temporels dans laquelle nous commençons par une présentation de notre méthode d’étude linguistique ainsi que la modélisation par schémas de grammaires des invariants lexicaux temporels étudiés. Ensuite, nous abordons l’analyse proprement dite des invariants lexicaux simples comme « ḥattā, baʿda » et complexes comme « baʿdamā, baynamā ».Enfin, une application expérimentale « Kawâkib » a été employée pour détecter et identifier les invariants lexicaux en montrant leurs points forts aussi bien que leurs lacunes. Nous proposons également une nouvelle vision de la prochaine version de « Kawâkib » qui peut représenter une application pédagogique de l'arabe sans lexique
This thesis focuses on the classification and the treatment of Arabic lexical invariants that express a temporal aspect. Our aim is to create a diagram of grammar (finite state machine) for each invariant. In this work, we limited our treatment to 20 lexical invariants. Our assumption is that the lexical invariants are located at the same structural level (formal) as the schemes in the language quotient (skeleton) of the Arabic language. They hide much information and involve syntactic expectations that make it possible to predict the structure of the sentence.In the first part of our research tasks, we present the concept of “invariant lexical” by exposing the various levels of invariance. Then, we classify the invariants according to several criteria.The second part is the object of our own study concerning the temporal lexical invariants. We present our linguistic method as well as our approach of modelling using diagrams of grammars. Then, we analyze the simple lexical invariants such “ḥattā, baʿda” and the complexes ones such “baʿdamā, baynamā”.Finally, an experimental application “Kawâkib” was used to detect and identify the lexical invariants by showing their strong points as well as their gaps. We also propose a new vision of the next version of “Kawâkib” that can represent a teaching application of Arabic without lexicon
APA, Harvard, Vancouver, ISO, and other styles
18

Thuilier, Juliette. "Contraintes préférentielles et ordre des mots en français." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00781228.

Full text
Abstract:
Cette thèse propose une approche expérimentale de la linguistique à travers l'étude de la notion de contrainte préférentielle et son application à deux phénomènes d'ordre en français : la position de l'adjectif épithète ainsi que l'ordre relatif des deux compléments sous-catégorisés par le verbe et apparaissant en position postverbale. Les contraintes préférentielles sont définies comme des contraintes qui n'affectent pas la grammaticalité mais l'acceptabilité des phrases. Nous émettons l'hypothèse selon laquelle ces contraintes constituent des propriétés spécifiques à la langue dont il faut rendre compte dans le champ de la linguistique. Sur le plan méthodologique, l'étude de ces contraintes est rendue problématique par leur nature : étant donné qu'elles n'agissent pas sur la grammaticalité des phrases, elles échappent aux méthodes traditionnelles de la syntaxe (introspection et jugement de grammaticalité). Il est donc nécessaire de définir des outils permettant leur description et leur analyse. Les méthodes envisagées sont l'analyse statistique de données de corpus, inspirée des travaux de Bresnan et al. (2007) et de Bresnan & Ford (2010), et, dans une moindre mesure, l'expérimentation psycholinguistique. En ce qui concerne la position de l'adjectif, nous testons la plupart des contraintes rencontrées dans la littérature et nous proposons une analyse statistique de données extraites du corpus French Treebank. Nous montrons notamment l'importance de l'item adjectival ainsi que de l'item nominal avec lequel il se combine. Certaines contraintes syntaxiques concernant la configuration du syntagme adjectival et du syntagme nominal jouent également un rôle dans le choix de la position. Le travail concernant l'ordre relatif des compléments du verbe est mené sur un échantillon de phrases extraites de deux corpus journalistiques (French Treebank et Est-Républicain) et de deux corpus d'oral (ESTER et C-ORAL-ROM). Nous montrons l'importante influence du poids des constituants dans le choix de l'ordre : l'ordre court avant long, caractéristique d'une langue SVO comme le français, est respecté dans plus de 86% des cas. Nous mettons également à jour le rôle fondamental du lemme verbal associé à sa classe sémantique, annotée à partir du dictionnaire de Dubois & Dubois-Charlier (1997). Enfin, en nous appuyant sur l'analyse des données de corpus ainsi que sur deux questionnaires d'élicitation de jugement d'acceptabilité, il semble que ni caractère animé, ni l'opposition 'donné/nouveau' (Prince, 1981) n'ait une influence sur l'ordre des compléments, ce qui semble aller à l'encontre d'observations faites dans d'autres langues comme l'anglais ou l'allemand.
APA, Harvard, Vancouver, ISO, and other styles
19

Parisse, Christophe. "Reconnaissance de l'écriture manuscrite : analyse de la forme globale des mots et utilisation de la morpho-syntaxe." Paris 11, 1989. http://www.theses.fr/1989PA112301.

Full text
Abstract:
La reconnaissance de l'écriture par un ordinateur et par un être humain (la lecture) présentent beaucoup de points communs. C'est pourquoi l'observation de la lecture a permis d'aborder d'une manière nouvelle le problème non résolu de la reconnaissance d 'une écriture manuscrite quelconque. Un système dont le but est une reconnaissance mono-scripteur sur un lexique de 10000 mots a été réalisé et testé. S'inspirant des recherches sur la lecture, ce système fait coopérer une analyse globale de la forme du mot, des traitements syntaxiques et un calcul de proximités lexico­ sémantiques. La reconnaissance morphologique utilise des transformations d'images de mots digitalisées permettant d’effectuer des comparaisons de forme globales. Ces transformations traduisent la forme globale de l'objet constitué par le mot indépendamment de sa structure interne (enchevêtrement des formes élémentaires qui le constitue). Ceci permet d'effectuer des comparaisons de forme à l'intérieur d’une écriture donnée quelle que soit celle-ci. Un analyseur syntaxique basé sur un modèle markovien à apprentissage permet d 'évaluer la grammaticalité des phrases proposées à l'issue de la reconnaissance morphologique. Les phrases grammaticalement correctes sont sémantiquement pondérées à l'aide d 'un calcul de cooccurrences lexicales effectué sur des bases textuelles thématiques
Machine recognition of handwriting: global analyses of word shapes and morpho-syntactic evaluation,Machine recognition of handwriting aims at a goal which is not far-removed from human reading. The study of reading may thus provide uscful hints to as yet unsuccessful computer recognition of unrestricted handwriting. A writer oriented system (for a 10000 word vocabulary) has been developed in this framework and tested. It operates on the basis of interaction of full-word shape analyses and syntactic and lexical-semantic processing. The system comprises:• 1 mage transformations designed so as to enable global shape comparisons of scanned words. These transformations reOect the global shape of word images and not their internal structure thereby permitting to conduct shape comparisons within a given unrestricted handwriting. • A syntactic parser based on a markovian mode! whose rules emerge through training. Lt checks the grammaticality of candidate sentences which result from shape comparisons. • Semantic weighting of sen. Tences which are found grammatical. Lt is based on computing lexical co-occurrences in thematically organized textual data-bases
APA, Harvard, Vancouver, ISO, and other styles
20

Zemirli, Zouhir. "Synthèse vocale de textes arabes voyellés." Toulouse 3, 2004. http://www.theses.fr/2004TOU30262.

Full text
Abstract:
Nous nous intéressons à l’utilité et l’utilisabilité de la structure visuelle des textes, pour leur transposition à l’oral par des systèmes de synthèse de parole (TTS). Nous proposons la synoptique d’un système qui conduit à une représentation du texte interprétable par un TTS. Nous avons partiellement réalisé le module spécifique aux stratégies d’oralisation, afin de rendre articulables la part signifiante des textes, souvent oubliée. Des spécifications ont été précisées et partiellement intégrées par un partenaire industriel. Des hypothèses prédictives quant à l’impact sur la mémorisation/compréhension de deux stratégies issues de notre modèle d’oralisation par reformulation des textes écrits pour être lus silencieusement, ont été formulées et testées. Ce travail a montré que des fonctions cognitives étaient perdues. Des prototypes, exploitant la notion d’image de page, ont été imaginés à travers des interfaces dans lesquelles la multimodalité a pour rôle de combler cette lacune
The text to speech synthesis consists in creating speech by analysis of a text which is subjected to no restriction. The object of this thesis is to describe the modeling and the taking into account of knowledge in phonetic, phonological, morpho-lexical and syntactic necessary to the development of a complete system of voice synthesis starting from diacritized arab texts. The automatic generation of the prosodico-phonetics sequence required the development of several components. The morphosyntaxic labelling "TAGGAR" carries out grammatical labelling, a marking and a syntactic grouping and the automatic insertion of the pauses. Graphemes to phonemes conversion is ensured by using lexicons, syntactic grammars, morpho-orthographical and phonological rules. A multiplicative model of prediction of the duration of the phonemes is described and a model of generation of the prosodic contours based on the accents of the words and the syntactic group is presented
APA, Harvard, Vancouver, ISO, and other styles
21

Trouvilliez, Benoît. "Similarités de données textuelles pour l'apprentissage de textes courts d'opinions et la recherche de produits." Thesis, Artois, 2013. http://www.theses.fr/2013ARTO0403/document.

Full text
Abstract:
Cette thèse porte sur l'établissement de similarités de données textuelles dans le domaine de la gestion de la relation client. Elle se décline en deux parties : - l'analyse automatique de messages courts en réponse à des questionnaires de satisfaction ; - la recherche de produits à partir de l'énonciation de critères au sein d'une conversation écrite mettant en jeu un humain et un programme agent. La première partie a pour objectif la production d'informations statistiques structurées extraites des réponses aux questions. Les idées exprimées dans les réponses sont identifiées, organisées selon une taxonomie et quantifiées. La seconde partie vise à transcrire les critères de recherche de produits en requêtes compréhensibles par un système de gestion de bases de données. Les critères étudiés vont de critères relativement simples comme la matière du produit jusqu'à des critères plus complexes comme le prix ou la couleur. Les deux parties se rejoignent sur la problématique d'établissement de similarités entre données textuelles par des techniques de TAL. Les principales difficultés à surmonter sont liées aux caractéristiques des textes, rédigés en langage naturel, courts, et comportant fréquemment des fautes d'orthographe ou des négations. L'établissement de similarités sémantiques entre mots (synonymie, antonymie, etc) et l'établissement de relations syntaxiques entre syntagmes (conjonction, opposition, etc) sont également des problématiques abordées. Nous étudions également dans cette thèse des méthodes de regroupements et de classification automatique de textes afin d'analyser les réponses aux questionnaires de satisfaction
This Ph.D. thesis is about the establishment of textual data similarities in the client relation domain. Two subjects are mainly considered : - the automatic analysis of short messages in response of satisfaction surveys ; - the search of products given same criteria expressed in natural language by a human through a conversation with a program. The first subject concerns the statistical informations from the surveys answers. The ideas recognized in the answers are identified, organized according to a taxonomy and quantified. The second subject concerns the transcription of some criteria over products into queries to be interpreted by a database management system. The number of criteria under consideration is wide, from simplest criteria like material or brand, until most complex criteria like color or price. The two subjects meet on the problem of establishing textual data similarities thanks to NLP techniques. The main difficulties come from the fact that the texts to be processed, written in natural language, are short ones and with lots of spell checking errors and negations. Establishment of semantic similarities between words (synonymy, antonymy, ...) and syntactic relations between syntagms (conjunction, opposition, ...) are other issues considered in our work. We also study in this Ph. D. thesis automatic clustering and classification methods in order to analyse answers to satisfaction surveys
APA, Harvard, Vancouver, ISO, and other styles
22

Prost, Jean-Philippe. "Modelling Syntactic Gradience with Loose Constraint-based Parsing." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00352828.

Full text
Abstract:
La grammaticalité d'une phrase est habituellement conçue comme une notion binaire : une phrase est soit grammaticale, soit agrammaticale. Cependant, bon nombre de travaux se penchent de plus en plus sur l'étude de degrés d'acceptabilité intermédiaires, auxquels le terme de gradience fait parfois référence. À ce jour, la majorité de ces travaux s'est concentrée sur l'étude de l'évaluation humaine de la gradience syntaxique. Cette étude explore la possibilité de construire un modèle robuste qui s'accorde avec ces jugements humains.
Nous suggérons d'élargir au langage mal formé les concepts de Gradience Intersective et de Gradience Subsective, proposés par Aarts pour la modélisation de jugements graduels. Selon ce nouveau modèle, le problème que soulève la gradience concerne la classification d'un énoncé dans une catégorie particulière, selon des critères basés sur les caractéristiques syntaxiques de l'énoncé. Nous nous attachons à étendre la notion de Gradience Intersective (GI) afin qu'elle concerne le choix de la meilleure solution parmi un ensemble de candidats, et celle de Gradience Subsective (GS) pour qu'elle concerne le calcul du degré de typicité de cette structure au sein de sa catégorie. La GI est alors modélisée à l'aide d'un critère d'optimalité, tandis que la GS est modélisée par le calcul d'un degré d'acceptabilité grammaticale. Quant aux caractéristiques syntaxiques requises pour permettre de classer un énoncé, notre étude de différents cadres de représentation pour la syntaxe du langage naturel montre qu'elles peuvent aisément être représentées dans un cadre de syntaxe modèle-théorique (Model-Theoretic Syntax). Nous optons pour l'utilisation des Grammaires de Propriétés (GP), qui offrent, précisément, la possibilité de modéliser la caractérisation d'un énoncé. Nous présentons ici une solution entièrement automatisée pour la modélisation de la gradience syntaxique, qui procède de la caractérisation d'une phrase bien ou mal formée, de la génération d'un arbre syntaxique optimal, et du calcul d'un degré d'acceptabilité grammaticale pour l'énoncé.
À travers le développement de ce nouveau modèle, la contribution de ce travail comporte trois volets.
Premièrement, nous spécifions un système logique pour les GP qui permet la révision de sa formalisation sous l'angle de la théorie des modèles. Il s'attache notamment à formaliser les mécanismes de satisfaction et de relâche de contraintes mis en oeuvre dans les GP, ainsi que la façon dont ils permettent la projection d'une catégorie lors du processus d'analyse. Ce nouveau système introduit la notion de satisfaction relâchée, et une formulation en logique du premier ordre permettant de raisonner au sujet d'un énoncé.
Deuxièmement, nous présentons notre implantation du processus d'analyse syntaxique relâchée à base de contraintes (Loose Satisfaction Chart Parsing, ou LSCP), dont nous prouvons qu'elle génère toujours une analyse syntaxique complète et optimale. Cette approche est basée sur une technique de programmation dynamique (dynamic programming), ainsi que sur les mécanismes décrits ci-dessus. Bien que d'une complexité élevée, cette solution algorithmique présente des performances suffisantes pour nous permettre d'expérimenter notre modèle de gradience.
Et troisièmement, après avoir postulé que la prédiction de jugements humains d'acceptabilité peut se baser sur des facteurs dérivés de la LSCP, nous présentons un modèle numérique pour l'estimation du degré d'acceptabilité grammaticale d'un énoncé. Nous mesurons une bonne corrélation de ces scores avec des jugements humains d'acceptabilité grammaticale. Qui plus est, notre modèle s'avère obtenir de meilleures performances que celles obtenues par un modèle préexistant que nous utilisons comme référence, et qui, quant à lui, a été expérimenté à l'aide d'analyses syntaxiques générées manuellement.
APA, Harvard, Vancouver, ISO, and other styles
23

Goyer, Simon. "Pour un modèle de l'explication pluraliste et mécaniste en psychiatrie." Mémoire, 2013. http://www.archipel.uqam.ca/5449/1/M12940.pdf.

Full text
Abstract:
Dans ce mémoire, je présente et j'évalue trois modèles de l'explication en psychiatrie, à savoir (1) l'interprétation réductionniste que je fais des modèles déductif-nomologique (DN) et inductif-statistique (IS) de Carl Gustav Hempel (et Paul Oppenheim); (2) le modèle de l'explication réductionniste et mécaniste formulé par John Bickle et (3) le modèle de l'explication pluraliste et mécaniste développé par le psychiatre et chercheur Kenneth S. Kendler. Au premier chapitre, je présente la conception syntaxique des théories scientifiques. J'y présente, en outre, les modèles DN et IS qui s'inscrivent dans cette conception. J'y expose aussi mon interprétation réductionniste de ces modèles. Je termine ce chapitre par une présentation du modèle de la réduction interthéorique d'Ernest Nagel. Au deuxième chapitre, je présente une critique des modèles de la réduction interthéorique de Nagel et de Kenneth F. Schaffner. De plus, j'expose trois problèmes que rencontrent les modèles DN et IS. En montrant les failles de ces derniers, je conclus trois choses : (a) il n'est pas possible d'interpréter de manière réductive les modèles DN et IS; (b) ces modèles, même non interprétés de manière réductionniste, sont problématiques et, pour cela, inapplicables en psychiatrie; (c) la conception syntaxique des théories est un cadre inadéquat pour concevoir l'explication en médecine mentale. Dans le troisième chapitre, je présente la conception sémantique des théories scientifiques. Suivant cette conception, une théorie est une famille de modèles. On peut définir le terme « modèle » de plusieurs manières. Patrick Suppes, Bas C. Van Fraassen et Ronald N. Giere ont proposé une définition de ce terme. J'adopte celle de Giere. Puis, j'expose la notion de modèle mécaniste qui peut être subsumée sous la conception des modèles de ce dernier. Je montre qu'un modèle mécaniste est pertinent pour représenter l'explication d'un trouble de santé mentale. Je termine en rejetant le modèle mécaniste et réductionniste de Bickle et en défendant le modèle mécaniste et pluraliste de Kendler. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : philosophie des sciences, philosophie de la psychiatrie, explication, réduction, conception syntaxique des théories, conception sémantique des théories, modèle, causalité, psychiatrie, troubles de santé mentale, neurosciences.
APA, Harvard, Vancouver, ISO, and other styles
24

Germain, Pierre-Luc. "L'approche sémantique offre-t-elle un meilleur modèle de l'explication scientifique que les théories qu'elle prétend supplanter ?" Thèse, 2009. http://hdl.handle.net/1866/7543.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography