Academic literature on the topic 'Modèle lexical'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modèle lexical.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modèle lexical"

1

Pausé, Marie-Sophie, and Dorota Sikora. "Polysémie et homonymie des locutions dans un modèle lexical." SHS Web of Conferences 27 (2016): 05012. http://dx.doi.org/10.1051/shsconf/20162705012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

VERMOTE, TIMOTHEUS. "Entre système et usage en discours: nouvelles perspectives sur la localisation de l'opposition massif/comptable. Le cas des noms de fruits et de légumes." Journal of French Language Studies 24, no. 3 (August 7, 2013): 403–22. http://dx.doi.org/10.1017/s0959269513000215.

Full text
Abstract:
RÉSUMÉUn sujet crucial concernant l'opposition massif/comptable est l'apparente flexibilité morphosyntaxique régulière de certaines classes sémantiques, comme celle des noms d'animaux (Kleiber, 1999; Nicolas, 2002 et références incluses), ou celle des noms de fruits et de légumes. C'est cette dernière que nous examinons ici, par le biais d'une vaste étude de corpus comprenant l'analyse quantitative (profils distributionnels) et qualitative (effets de sens) des acceptions massives et comptables de 18 items lexicaux. Nos observations nous amènent à postuler un modèle original de la localisation de l'opposition massif/comptable, rendant compte des phénomènes de flexibilité régulière sans recourir à la notion de polysémie, et basé sur un Principe de Double Héritage. Ainsi, nos données suggèrent que les noms de fruits et de légumes présentent de manière intrinsèque les deux acceptions, et hériteraient leur caractère comptable au niveau lexical (propriétés ontologiques) et leur caractère massif à un niveau supra-lexical, de par leur appartenance à une certaine classe sémantico-pragmatique (objets de consommation culinaire).
APA, Harvard, Vancouver, ISO, and other styles
3

Corbin, Danielle. "Les bases non autonomes en français ou comment intégrer l'exception dans un modèle lexical." Langue française 66, no. 1 (1985): 54–76. http://dx.doi.org/10.3406/lfr.1985.6345.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Clément, Danièle. "Le lexique en vedette : son rôle dans le modèle de Bresnan 'Lexical Functionnal Grammar'." DRLAV. Documentation et Recherche en Linguistique Allemande Vincennes 38, no. 1 (1988): 93–118. http://dx.doi.org/10.3406/drlav.1988.1066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Samain, Didier. "Technique et fiction chez Trần Đức Thảo. Qu’est-ce qu’un contexte d’activité ?" Histoire Epistémologie Langage 42, no. 2 (2020): 17–34. http://dx.doi.org/10.1051/hel/2020014.

Full text
Abstract:
L’article intègre l’étude historiographique dans un modèle plus général de l’activité scientifique. Il expose en l’occurrence comment des savoirs divers sont agrégés chez Thảo, en distinguant des principes structurants (chez Thảo, la dialectique et la récapitulation), des modules explicatifs (e.g. le postulat prototypiste) et des propositions locales (telle la thèse du décumul lexical). Ces différents plans, qui associent des fictions et des données observables, ne correspondent pas à une logique arborescente, mais à un principe de consolidation réciproque.
APA, Harvard, Vancouver, ISO, and other styles
6

FIRMONASARI, Aprillia. "La construction des rôles énonciatifs d'ordre élocutif dans le discours politique." FRANCISOLA 4, no. 2 (April 29, 2020): 69–81. http://dx.doi.org/10.17509/francisola.v4i2.24208.

Full text
Abstract:
RÉSUMÉ. Cette étude tente d’étudier l’analyse du discours en approche interactionniste dans l’espace de la communication politique. Dans cet espace, les paroles d’un homme politique sont le reflet de sa culture et contiennent une part de subjectivité. Un homme politique utilise des énonciations subjectives ou individuelles (l’élocutif) pour reflèter son identité, son statut et sa position dans son interaction. Les objets de cette étude sont les sept discours de Nicolas Sarkozy prononcés entre 2006 et 2011 qui ont été les plus marquants pendant sa campagne et son mandat présidentiels. Pour ce travail, la première tâche à accomplir en analyse interactionniste est celle qui consiste à récueiller les données pour la constitution de son corpus lexicographique et textuel. Il faut élaborer une grille de lecture de chaque discours et identifier les marqueurs ou les traces persuasives qui se trouvent dans ces discours en utilisant le tableau lexical à l’aide de logiciel Lexico3. La fréquence d’utilisation de ces formes lexicales qui fait partie de stratégie discursive de Nicolas Sarkozy sont analysées et interprétées en utilisant la théorie Charaudeau (1992), Gumperz (1989) et Van Dijk (2007). Les résultats montrent que l’énonciations subjectives soutiennent le processus de communication interactionnelle et détiennent le pouvoir des symboles. Cette étude devrait donc contribuer au modèle d’analyse des stratégies discursive à l’approche interactionniste. Mots-clés : discours politique, élocutif, énonciation subjective, identité. ABSTRACT. This research attempts to analyses a discourse with the interactionist approach in the field of political communication. In this field, the utterances of a politician reflect his/her culture and contain elements of subjectivity. The politician, therefore, uses subjective or individual utterances (the elocutive) to reflect his/her identity, status, and position in his/her interaction with the audience. The objects of this study are seven speeches of Nicolas Sarkozy delivered between 2006 and 2011, and these were the most significant speeches during his presidential campaign and his presidency. The first step to conduct an interactionist analysis is collecting the data to compile a lexicographic corpus. This is to develop a reading grid for each speech and identify persuasive markers or traces that are found in each of the speeches by using the lexical table of Lexico3 software. The frequency of the use lexical forms that are parts of Nicolas Sarkozy's discursive strategy are subsequently analyzed and interpreted by using the theories proposed by Charaudeau (1992), Gumperz (1989), and Van Dijk (2007). The findings of this study show that subjective utterances support interactional communication process and hold the power of symbols. With these findings, this study can contribute to the making of the model of discursive strategy analysis with the interactionist approach. Keywords: elocution, political discourse, identity, subjective statement.
APA, Harvard, Vancouver, ISO, and other styles
7

Le Flem, Claude-Daniel. "La modélisation psychomécanique des systèmes temporels : le cas du russe." Revue québécoise de linguistique 20, no. 2 (May 7, 2009): 195–221. http://dx.doi.org/10.7202/602710ar.

Full text
Abstract:
Résumé La démarche de la psychomécanique est en principe hypothético-déductive, la théorie prenant son départ à une exigence absolue — un « inévitable » — et procédant déductivement jusqu’à la rencontre avec les faits : Guillaume pose par exemple dans Temps et verbe (1965) que toutes les langues construisent leur systématique verbale à partir d’un présent universel α/ω). Le modèle qu’il élabore pour le russe comme celui de Meney (1974a et b, 1975), bien qu’incompatibles entre eux, acceptent ce postulat qui entraîne des problèmes de cohérence interne et, en bout de course, la non-satisfaction de l’exigence minimale d’adéquation d’observation. L’hypothèse de remplacement que je propose, limitée à l’indicatif, révoque sa division en époques au bénéfice de la combinatoire de deux systèmes aspectuels, l’un lexical, l’autre grammatical. Cette solution, qui range le russe parmi les langues exclusivement aspectuelles, s’impose par sa simplicité, sa cohérence, son accord avec la sémiologie et son efficacité sur le plan empirique.
APA, Harvard, Vancouver, ISO, and other styles
8

Tourangeau, Rémi. "Les Pageants Historiques de Scène Comme Médium du Discours Idéologique." Theatre Research in Canada 15, no. 1 (January 1994): 21–47. http://dx.doi.org/10.3138/tric.15.1.21.

Full text
Abstract:
Cet article s'appuie sur le récent ouvrage de l'auteur, Fêtes et spectacles du Québec, et présente les conclusions d'une analyse comparative du Pageant historique et de La Fabuleuse Histoire d'un royaume: deux spectacles créés respectivement en 1938 et en 1988, dans la région du Saguenay-Lac-Saint-Jean. Pour étudier les fonctions sociales de ces spectacles et le sens dont ils sont porteurs, Rémi Tourangeau utilise une méthode sociocritique du type «sociologie du texte». Il expose et applique un modèle d'analyse basé sur l'étude des niveaux lexical, sémantique et syntaxique des textes dramatiques. Ilfait ainsi ressortir l'évolution d'un certain discours idéologique à travers un réseau de sociolectes et d'isotopies sémantiques et dans le sens du dualisme du langage qui sous-tend l'axe paradigmatique de la conquête du pays. Cette démonstration explique les formes structurelles de ces spectacles à grands effets en tant que médium de communication et, conséquemment, l'efficacité de ce médium.
APA, Harvard, Vancouver, ISO, and other styles
9

Léturgie, Arnaud. "Un cas d'extragrammaticalité particulier : les amalgames lexicaux fantaisistes." Linguistica 51, no. 1 (December 31, 2011): 87–104. http://dx.doi.org/10.4312/linguistica.51.1.87-104.

Full text
Abstract:
L'amalgamation lexicale est un procédé d'innovation lexicale assez peu décrit en français et dont la morphologie ressort de l'extragrammatical. Partant du constat que les différentes classifications des amalgames lexicaux sont établies sur des corpus restreints, nous proposons de dresser un état des lieux de ces classifications en confrontant plusieurs modèles théoriques avec deux corpus complémentaires pour fournir une description morpho-phonologique de ces unités lexicales afin de faire émerger un prototype pour le français. Nous avons procédé, dans un premier temps, au recensement de 7 052 amalgames lexicaux tirés de 17 dictionnaires fantaisistes. Puis, un second corpus d'amalgames attestés en discours a été constitué afin d'être comparé au premier. À l'aide des données récoltées, il est possible de voir apparaître un schéma prototypique de l'amalgamation lexicale en français.
APA, Harvard, Vancouver, ISO, and other styles
10

Estivalet, Gustavo Lopez, and Felício Wessling Margotti. "Diálogos entre a flexão verbal do Português e do Francês (Dialogues entre la flexion verbale du Portugais et du Français)." Estudos da Língua(gem) 12, no. 2 (December 30, 2014): 31. http://dx.doi.org/10.22481/el.v12i2.1252.

Full text
Abstract:
As línguas latinas, como o português e o francês, compartilham uma série de características morfológicas em seus paradigmas de flexão verbal. Assim, podem-se estabelecer associações e operações morfológicas específicas a cada língua. Mas existem também regras gerais e morfemas equivalentes nos dois sistemas em relação às desinências modo-temporal e número-pessoal. Este artigo a) apresenta o funcionamento morfológico da flexão verbal do português e do francês através de uma metodologia descritiva e comparativa da formação e utilização do verbo e b) discute as semelhanças e diferenças entre os dois sistemas a partir de uma abordagem teórica lexical baseada no morfema. Argumenta-se a favor de um modelo comum e geral subjacente às estruturas morfológicas da flexão verbal do português e do francês.PALAVRAS-CHAVE: Morfologia. Flexão Verbal. Línguas Latinas. RÉSUMÉLes langues romanes, comme le portugais et le français, partagent plusieurs caractéristiques morphologiques dans leurs paradigmes de flexion verbale. Ainsi, il est possible d’établir une série d’associations et opérations morphologiques spécifiques à chaque langue. Mais il y a aussi des règles générales et des morphèmes équivalents dans ces deux systèmes en ce qui concerne la flexion verbale, les désinences de mode, temps, nombre et personne. Cet article a) présente le fonctionnement morphologique de la flexion verbale du portugais et du français à travers une méthodologie descriptive et comparative de la formation et de l’utilisation du verbe et b) discute les similitudes et les différences entre les deux systèmes à partir d’une approche théorique lexicale basée dans le morphème. Nous argumentons en faveur d’un modèle commun et général sous-jacent aux structures morphologiques de la flexion verbale du portugais et du français.MOTS-CLÉS: Morphologie. Flexion Verbale. Langues Romanes.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Modèle lexical"

1

Jousse, Anne-Laure. "Modèle de structuration des relations lexicales fondé sur le formalisme des fonctions lexicales." Thèse, Paris 7, 2010. http://hdl.handle.net/1866/4347.

Full text
Abstract:
Cette thèse porte sur l’élaboration d’un modèle de structuration des relations lexicales, fondé sur les fonctions lexicales de la Théorie Sens-Texte [Mel’cuk, 1997]. Les relations lexicales considérées sont les dérivations sémantiques et les collocations telles qu’elles sont définies dans le cadre de la Lexicologie Explicative et Combinatoire [Mel’cuk et al., 1995]. En partant du constat que ces relations lexicales ne sont pas décrites ni présentées de façon satisfaisante dans les bases de données lexicales, nous posons la nécessité d’en créer un modèle de structuration. Nous justifions l’intérêt de créer un système de fonctions lexicales puis détaillons les quatre perspectives du système que nous avons mises au point : une perspective sémantique, une perspective axée sur la combinatoire des éléments d’une relation lexicale, une perspective centrée sur leurs parties du discours, ainsi qu’une perspective mettant en avant l’élément sur lequel se focalise la relation. Le système intègre l’ensemble des fonctions lexicales, y compris les fonctions lexicales non standard, dont nous proposons une normalisation de l’encodage. Le système a été implémenté dans la base de données lexicale du DiCo. Nous présentons trois applications dans lesquelles il peut être exploité. Premièrement, il est possible d’en dériver des interfaces de consultation pour les bases de données lexicales de type DiCo. Le système peut également être directement consulté en tant qu’assistant à l’encodage des relations lexicales. Enfin, il sert de référence pour effectuer un certain nombre de calculs sur les informations lexicographiques, qui pourront, par la suite, être implémentés pour automatiser la rédaction de certains champs de fiches lexicographiques.
This thesis proposes a model for structuring lexical relations, based on the concept of lexical functions (LFs) proposed in Meaning-Text Theory [Mel’cuk, 1997]. The lexical relations taken into account include semantic derivations and collocations as defined within this theoretical framework, known as Explanatory and Combinatorial Lexicology [Mel’cuk et al., 1995]. Considering the assumption that lexical relations are neither encoded nor made available in lexical databases in an entirely satisfactory manner, we assume the necessity of designing a new model for structuring them. First of all, we justify the relevance of devising a system of lexical functions rather than a simple classification. Next, we present the four perspectives developped in the system: a semantic perspective, a combinatorial one, another one targetting the parts of speech of the elements involved in a lexical relation, and, finally, a last one emphasizing which element of the relation is focused on. This system covers all LFs, even non-standard ones, for which we have proposed a normalization of the encoding. Our system has already been implemented into the DiCo relational database. We propose three further applications that can be developed from it. First, it can be used to build browsing interfaces for lexical databases such as the DiCo. It can also be directly consulted as a tool to assist lexicographers in encoding lexical relations by means of lexical functions. Finally, it constitutes a reference to compute lexicographic information which will, in future work, be implemented in order to automatically fill in some fields within the entries in lexical databases.
Thèse réalisée en cotutelle avec l'Université Paris Diderot (Paris 7)
APA, Harvard, Vancouver, ISO, and other styles
2

Quang, Vu Minh. "Exploitation de la prosodie pour la segmentation et l'analyse automatique de signaux de parole." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0104.

Full text
Abstract:
Cette thèse se situe à la frontière des domaines du traitement automatique de la parole et de la recherche d'informations multimédia. Ces dernièn une nouvelle tâche est apparue dans le domaine du traitement automatique de la parole: la transcription enrichie d'un document audio. Parmi les informations extra-linguistiques transportées par la parole, une meta-donnée importante pour la transcription enrichie concerne l'information sur l, des phrases parlées (c'est-à-dire les phrases sont-elles du type interrogatif ou affirmatif ou autre). Notre étude a principalement porté sur la différ prosodique entre les phrases de type affirmatif et de type interrogatif pour les langues française et vietnamienne, la détection et la classification a du type de phrase pour chacune des deux langues et la comparaison des stratégies spécifiques à chacune des deux langues. Nous avons commen travail par l'étude sur la langue française. Nous avons ainsi réalisé un système de segmentation et détection automatique de type de phrases basé sur l"information prosodique et sur l"information lexicale. Le système a été validé sur des corpus de parole spontanée de la vie courante qui sont l'enregistrement de conversations téléphoniques entre un client et une agence de tourisme, des entretiens d'embauche ou des réunions de projet. Cette première étude sur la langue française, nous avons élargit notre recherche en travaillant sur la langue vietnamienne, une langue où les étud, sur le système prosodique sont encore toutes préliminaires. Nous avons d'abord poursuivi une étude pour identifier la différence prosodique entre phrases interrogatives et affirmatives à la fois sur le plan de production et sur le plan de perception. Ensuite, sur la base de ces résultats, un mot, classification a été construit
This thesis work is at the frontier between multimedia information retrieval and automatic speech processing. During the last years, a new task en speech processing: the rich transcription of an audio document. An important meta-data for rich transcription is the information on sentence type sentence of interrogative or affirmative type). The study on the prosodie differences between these two types of sentences in Vietnamese languaç detection and classification of sentence type in French language and in Vietnamese language is the main subject of this research work. Our depar1 study on French language. We've realized a system for segmentation and automatic detection of sentence type based on both prosodie and lexica information. The system has been validated on real world spontaneous speech corpus which are recording of conversations via telephone, betwee and a tourism office staff, recruiting interview, project meeting. After this first study on French, we've extended our research in Vietnamese langui language where ail studies until now on prosodie system are still preliminary. We've carried a study on the prosodie differences between interroga affirmative sentences in both production and perception levels. Next, based on these results, a classification motor has been built
APA, Harvard, Vancouver, ISO, and other styles
3

Abdel, Jalil Mohamed ali. "Approche polysémique et traductologique du Coran : la sourate XXII (Al-Hajj [le pèlerinage]) comme modèle." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0348.

Full text
Abstract:
La tradition musulmane rapporte que l’une des caractéristiques les plus fondamentales du Coran est qu’il est un texte polysémique par excellence (ḥammāl dhū wujūh, porteur de plusieurs visages). Si le Coran est polysémique et que ses exégèses ne sont que des lectures possibles, il s’ensuit que ses traductions en sont également autant de lectures possibles et complémentaires. L’accumulation des traductions contribue ainsi à exprimer la polysémie du texte d’origine, même si ces traductions, dans leur diversité, restent en deçà de la diversité des exégèses.La thèse prend la sourate Al-Ḥajj comme exemple de cette problématique. Elle est articulée autour de deux axes de recherche :I. une étude de la polysémie du texte de départ.II. une étude de la polysémie du texte d’arrivée qui montre comment la traduction réduit et/ou modifie la polysémie.Le corpus est constitué de 18 traductions représentatives de toutes les tendances et de toutes les périodes de l’histoire de la traduction française du Coran depuis 1647 jusqu’à 2010.Constituant un espace clos qui évolue indépendamment de l’exégèse vers plus de littéralité, les traductions se rejoignent, se complètent, reflètent dans leur diversité avec légère modification une grande partie de la polysémie réunie et concentrée dans le texte de départ mais sporadique, éparse et dispersée dans les traductions
According to Islamic tradition, one of the core characteristics of the Quran is that it is a polysemic text par excellence (ḥammāl dhū wujūh, bearer of several faces). To say that the Quranic text is polysemic implies that its various exegeses are as many possible readings of it, which implies in turn that its translations are also as many readings that complete each other. The accumulation of translations is thus another expression of the polysemy of the original text, even if the diversity of these translations does not match that of the exegeses.The thesis deals with the analysis of the Surah of Al-Ḥajj and it is based on two research axes:I. a study of the polysemy of the original text (Surah of Al-Ḥajj).II. A study of the polysemy of the final text (18 French translations) to show how translation reduces and/or modifies polysemy. The corpus of translations (18 translations) covers all the periods of the history of the translation of the Koran from 1647 until 2010 in order to see the evolution of the translation of the Koranic text.As a closed space that evolves independently from exegesis to more literality, the translations meet and complement each other, reflecting in their diversity with slight modification a large part of the polysemy united and concentrated in the original text but sporadic, sparse and Dispersed in the translations
APA, Harvard, Vancouver, ISO, and other styles
4

Ghoul, Dhaou. "Classifications et grammaires des invariants lexicaux arabes en prévision d’un traitement informatique de cette langue. Construction d’un modèle théorique de l’arabe : la grammaire des invariants lexicaux temporels." Thesis, Paris 4, 2016. http://www.theses.fr/2016PA040184.

Full text
Abstract:
Cette thèse porte sur la classification et le traitement des invariants lexicaux arabes qui expriment un aspect temporel afin de créer un modèle qui présente chaque invariant sous la forme d’un schéma de grammaire (automates à états finis). Dans ce travail nous avons limité notre traitement seulement pour 20 invariants lexicaux. Notre hypothèse part du principe que les invariants lexicaux sont situés au même niveau structural (formel) que les schèmes dans le langage quotient (squelette) de la langue arabe. Ils cachent beaucoup d’informations et entraînent des attentes syntaxiques qui permettent de prédire la structure de la phrase.Au début de cette thèse, nous abordons la notion « invariant lexical » en exposant les différents niveaux d’invariance. Ensuite, nous classons les invariants étudiés dans cette thèse selon plusieurs critères.La deuxième partie de cette thèse fait l’objet de notre propre étude concernant les invariants lexicaux temporels dans laquelle nous commençons par une présentation de notre méthode d’étude linguistique ainsi que la modélisation par schémas de grammaires des invariants lexicaux temporels étudiés. Ensuite, nous abordons l’analyse proprement dite des invariants lexicaux simples comme « ḥattā, baʿda » et complexes comme « baʿdamā, baynamā ».Enfin, une application expérimentale « Kawâkib » a été employée pour détecter et identifier les invariants lexicaux en montrant leurs points forts aussi bien que leurs lacunes. Nous proposons également une nouvelle vision de la prochaine version de « Kawâkib » qui peut représenter une application pédagogique de l'arabe sans lexique
This thesis focuses on the classification and the treatment of Arabic lexical invariants that express a temporal aspect. Our aim is to create a diagram of grammar (finite state machine) for each invariant. In this work, we limited our treatment to 20 lexical invariants. Our assumption is that the lexical invariants are located at the same structural level (formal) as the schemes in the language quotient (skeleton) of the Arabic language. They hide much information and involve syntactic expectations that make it possible to predict the structure of the sentence.In the first part of our research tasks, we present the concept of “invariant lexical” by exposing the various levels of invariance. Then, we classify the invariants according to several criteria.The second part is the object of our own study concerning the temporal lexical invariants. We present our linguistic method as well as our approach of modelling using diagrams of grammars. Then, we analyze the simple lexical invariants such “ḥattā, baʿda” and the complexes ones such “baʿdamā, baynamā”.Finally, an experimental application “Kawâkib” was used to detect and identify the lexical invariants by showing their strong points as well as their gaps. We also propose a new vision of the next version of “Kawâkib” that can represent a teaching application of Arabic without lexicon
APA, Harvard, Vancouver, ISO, and other styles
5

Desalle, Yann. "Réseaux lexicaux, métaphore, acquisition : une approche interdisciplinaire et inter-linguistique du lexique verbal." Phd thesis, Université Toulouse le Mirail - Toulouse II, 2012. http://tel.archives-ouvertes.fr/tel-00714834.

Full text
Abstract:
Souvent, lorsque les locuteurs d'une langue n'ont pas accès à l'item conventionnel pour étiqueter un objet ou un événement, ils étendent, consciemment ou inconsciemment, le sens d'un autre item lexical disponible. Ce phénomène se produit particulièrement au cours de la phase d'acquisition lexicale des jeunes enfants. Lorsqu'une telle sur-extension sémantique va au-delà de la catégorie d'objet ou d'événement conventionnellement dénotée par l'item lexical produit, il s'agit d'une sur-extension catégorielle et l'énoncé produit est d'allure métaphorique: par exemple, " déshabiller la pomme " pour l'action peler une pomme est un énoncé d'allure métaphorique. Tout d'abord, cette thèse a permis de développer SLAM, un système de résolution lexicale automatique des métaphores produites en situation de manque du mot. SLAM s'appuie, d'une part, sur l'analyse syntaxique de grands corpus et, d'autre part, sur la structure Petit Monde Hiérarchique des réseaux lexicaux de synonymie. Par exemple, à partir des énoncés " elle déshabille* la pomme " ou " les bras* de l'arbre ", SLAM permet d'obtenir les interprétations suivantes: respectivement, " elle pèle une pomme " et " les branches de l'arbre ".Ensuite, cette thèse a permis d'étudier spécifiquement la dynamique d'acquisition du lexique des verbes qui se stabilise après celui des noms. D'une part, des outils méthodologiques pour l'étude inter-linguistique de la dynamique d'acquisition du lexique des verbes ont été élaborés: (a) un cadre méthodologique pour la construction de procédures d'identification des sur-extensions sémantiques catégorielles des verbes; (b) une méthodologie pour le repérage des stimuli visuels d'action sans biais culturel. D'autre part, les liens entre la structure des réseaux lexicaux de synonymie et la dynamique d'acquisition du lexique des verbes en français et en mandarin ont été mis au jour. Après avoir pointé des différences dans la dynamique d'acquisition du lexique des verbes par les jeunes enfants natifs du français et du mandarin, cette étude a servi à construire le score REFLEX, mesure du degré d'acquisition du lexique des verbes, qui permet de catégoriser automatiquement les jeunes enfants vs adultes en français et en mandarin.
APA, Harvard, Vancouver, ISO, and other styles
6

Maheux, Marie-Andrée. "Description lexicale du français québécois un modèle prédictionnairique." Mémoire, Université de Sherbrooke, 1994. http://hdl.handle.net/11143/10036.

Full text
Abstract:
À l'heure actuelle, le français québécois n'a pas, ou presque pas, fait l'objet d'une description systématique. La très grande majorité des travaux consacrés au français québécois se sont en effet limités à le traiter avec une approche différentielle, à le décrire comme un ensemble d'écarts par rapport au français européen. Il s'avère donc important d'envisager une description du français québécois dans sa totalité, c'est-à-dire comme le regroupement de ses particularités spécifiques et des éléments communs à toute la francophonie. Le meilleur point de départ pour décrire une langue découle du dépouillement d'un corpus de textes reflétant bien l'usage de cette langue, sur le plan de l'écrit aussi bien que de l'oral. En prenant comme source principale de documentation la banque de données textuelles de Sherbrooke (désormais, BDTS), je veux décrire certains substantifs du français québécois, mais d'une façon originale. Mon travail consiste à recenser toutes les informations disponibles pour une description lexicale, sans pour autant concevoir des articles lexicographiques finis. Mon but correspond plutôt à la confection de fiches prédictionnairiques, étape antérieure à tout énoncé lexicographique. Dans ce mémoire, je tenterai d'exposer et d'expérimenter cette nouvelle méthode de description lexicale. Mon mémoire vise donc plusieurs objectifs. Je commencerai d'abord par présenter les champs descriptifs de la fiche prédictionnairique. Par la suite, j'appliquerai le contenu de cette fiche à deux substantifs désignant des parties du corps (tête et oeil). Je tenterai également de démontrer l'intérêt de ma description prédictionnairique par l'établissement de comparaisons entre mes informations et celles qui sont recensées dans deux ouvrages lexicographiques récents; le Dictionnaire québécois d'aujourd'hui et le Petit Robert 1993. De plus, je proposerai un modèle d'article lexicographique.
APA, Harvard, Vancouver, ISO, and other styles
7

Romeo, Lauren Michele. "The Structure of the lexicon in the task of the automatic acquisition of lexical information." Doctoral thesis, Universitat Pompeu Fabra, 2015. http://hdl.handle.net/10803/325420.

Full text
Abstract:
La información de clase semántica de los nombres es fundamental para una amplia variedad de tareas del procesamiento del lenguaje natural (PLN), como la traducción automática, la discriminación de referentes en tareas como la detección y el seguimiento de eventos, la búsqueda de respuestas, el reconocimiento y la clasificación de nombres de entidades, la construcción y ampliación automática de ontologías, la inferencia textual, etc. Una aproximación para resolver la construcción y el mantenimiento de los léxicos de gran cobertura que alimentan los sistemas de PNL, una tarea muy costosa y lenta, es la adquisición automática de información léxica, que consiste en la inducción de una clase semántica relacionada con una palabra en concreto a partir de datos de su distribución obtenidos de un corpus. Precisamente, por esta razón, se espera que la investigación actual sobre los métodos para la producción automática de léxicos de alta calidad, con gran cantidad de información y con anotación de clase como el trabajo que aquí presentamos, tenga un gran impacto en el rendimiento de la mayoría de las aplicaciones de PNL. En esta tesis, tratamos la adquisición automática de información léxica como un problema de clasificación. Con este propósito, adoptamos métodos de aprendizaje automático para generar un modelo que represente los datos de distribución vectorial que, basados en ejemplos conocidos, permitan hacer predicciones de otras palabras desconocidas. Las principales preguntas de investigación que planteamos en esta tesis son: (i) si los datos de corpus proporcionan suficiente información para construir representaciones de palabras de forma eficiente y que resulten en decisiones de clasificación precisas y sólidas, y (ii) si la adquisición automática puede gestionar, también, los nombres polisémicos. Para hacer frente a estos problemas, realizamos una serie de validaciones empíricas sobre nombres en inglés. Nuestros resultados confirman que la información obtenida a partir de la distribución de los datos de corpus es suficiente para adquirir automáticamente clases semánticas, como lo demuestra un valor-F global promedio de 0,80 aproximadamente utilizando varios modelos de recuento de contextos y en datos de corpus de distintos tamaños. No obstante, tanto el estado de la cuestión como los experimentos que realizamos destacaron una serie de retos para este tipo de modelos, que son reducir la escasez de datos del vector y dar cuenta de la polisemia nominal en las representaciones distribucionales de las palabras. En este contexto, los modelos de word embedding (WE) mantienen la “semántica” subyacente en las ocurrencias de un nombre en los datos de corpus asignándole un vector. Con esta elección, hemos sido capaces de superar el problema de la escasez de datos, como lo demuestra un valor-F general promedio de 0,91 para las clases semánticas de nombres de sentido único, a través de una combinación de la reducción de la dimensionalidad y de números reales. Además, las representaciones de WE obtuvieron un rendimiento superior en la gestión de las ocurrencias asimétricas de cada sentido de los nombres de tipo complejo polisémicos regulares en datos de corpus. Como resultado, hemos podido clasificar directamente esos nombres en su propia clase semántica con un valor-F global promedio de 0,85. La principal aportación de esta tesis consiste en una validación empírica de diferentes representaciones de distribución utilizadas para la clasificación semántica de nombres junto con una posterior expansión del trabajo anterior, lo que se traduce en recursos léxicos y conjuntos de datos innovadores que están disponibles de forma gratuita para su descarga y uso.
La información de clase semántica de los nombres es fundamental para una amplia variedad de tareas del procesamiento del lenguaje natural (PLN), como la traducción automática, la discriminación de referentes en tareas como la detección y el seguimiento de eventos, la búsqueda de respuestas, el reconocimiento y la clasificación de nombres de entidades, la construcción y ampliación automática de ontologías, la inferencia textual, etc. Una aproximación para resolver la construcción y el mantenimiento de los léxicos de gran cobertura que alimentan los sistemas de PNL, una tarea muy costosa y lenta, es la adquisición automática de información léxica, que consiste en la inducción de una clase semántica relacionada con una palabra en concreto a partir de datos de su distribución obtenidos de un corpus. Precisamente, por esta razón, se espera que la investigación actual sobre los métodos para la producción automática de léxicos de alta calidad, con gran cantidad de información y con anotación de clase como el trabajo que aquí presentamos, tenga un gran impacto en el rendimiento de la mayoría de las aplicaciones de PNL. En esta tesis, tratamos la adquisición automática de información léxica como un problema de clasificación. Con este propósito, adoptamos métodos de aprendizaje automático para generar un modelo que represente los datos de distribución vectorial que, basados en ejemplos conocidos, permitan hacer predicciones de otras palabras desconocidas. Las principales preguntas de investigación que planteamos en esta tesis son: (i) si los datos de corpus proporcionan suficiente información para construir representaciones de palabras de forma eficiente y que resulten en decisiones de clasificación precisas y sólidas, y (ii) si la adquisición automática puede gestionar, también, los nombres polisémicos. Para hacer frente a estos problemas, realizamos una serie de validaciones empíricas sobre nombres en inglés. Nuestros resultados confirman que la información obtenida a partir de la distribución de los datos de corpus es suficiente para adquirir automáticamente clases semánticas, como lo demuestra un valor-F global promedio de 0,80 aproximadamente utilizando varios modelos de recuento de contextos y en datos de corpus de distintos tamaños. No obstante, tanto el estado de la cuestión como los experimentos que realizamos destacaron una serie de retos para este tipo de modelos, que son reducir la escasez de datos del vector y dar cuenta de la polisemia nominal en las representaciones distribucionales de las palabras. En este contexto, los modelos de word embedding (WE) mantienen la “semántica” subyacente en las ocurrencias de un nombre en los datos de corpus asignándole un vector. Con esta elección, hemos sido capaces de superar el problema de la escasez de datos, como lo demuestra un valor-F general promedio de 0,91 para las clases semánticas de nombres de sentido único, a través de una combinación de la reducción de la dimensionalidad y de números reales. Además, las representaciones de WE obtuvieron un rendimiento superior en la gestión de las ocurrencias asimétricas de cada sentido de los nombres de tipo complejo polisémicos regulares en datos de corpus. Como resultado, hemos podido clasificar directamente esos nombres en su propia clase semántica con un valor-F global promedio de 0,85. La principal aportación de esta tesis consiste en una validación empírica de diferentes representaciones de distribución utilizadas para la clasificación semántica de nombres junto con una posterior expansión del trabajo anterior, lo que se traduce en recursos léxicos y conjuntos de datos innovadores que están disponibles de forma gratuita para su descarga y uso.
Lexical semantic class information for nouns is critical for a broad variety of Natural Language Processing (NLP) tasks including, but not limited to, machine translation, discrimination of referents in tasks such as event detection and tracking, question answering, named entity recognition and classification, automatic construction and extension of ontologies, textual inference, etc. One approach to solve the costly and time-consuming manual construction and maintenance of large-coverage lexica to feed NLP systems is the Automatic Acquisition of Lexical Information, which involves the induction of a semantic class related to a particular word from distributional data gathered within a corpus. This is precisely why current research on methods for the automatic production of high- quality information-rich class-annotated lexica, such as the work presented here, is expected to have a high impact on the performance of most NLP applications. In this thesis, we address the automatic acquisition of lexical information as a classification problem. For this reason, we adopt machine learning methods to generate a model representing vectorial distributional data which, grounded on known examples, allows for the predictions of other unknown words. The main research questions we investigate in this thesis are: (i) whether corpus data provides sufficient distributional information to build efficient word representations that result in accurate and robust classification decisions and (ii) whether automatic acquisition can handle also polysemous nouns. To tackle these problems, we conducted a number of empirical validations on English nouns. Our results confirmed that the distributional information obtained from corpus data is indeed sufficient to automatically acquire lexical semantic classes, demonstrated by an average overall F1-Score of almost 0.80 using diverse count-context models and on different sized corpus data. Nonetheless, both the State of the Art and the experiments we conducted highlighted a number of challenges of this type of model such as reducing vector sparsity and accounting for nominal polysemy in distributional word representations. In this context, Word Embeddings (WE) models maintain the “semantics” underlying the occurrences of a noun in corpus data by mapping it to a feature vector. With this choice, we were able to overcome the sparse data problem, demonstrated by an average overall F1-Score of 0.91 for single-sense lexical semantic noun classes, through a combination of reduced dimensionality and “real” numbers. In addition, the WE representations obtained a higher performance in handling the asymmetrical occurrences of each sense of regular polysemous complex-type nouns in corpus data. As a result, we were able to directly classify such nouns into their own lexical-semantic class with an average overall F1-Score of 0.85. The main contribution of this dissertation consists of an empirical validation of different distributional representations used for nominal lexical semantic classification along with a subsequent expansion of previous work, which results in novel lexical resources and data sets that have been made freely available for download and use.
APA, Harvard, Vancouver, ISO, and other styles
8

De, la Garza Bernardo. "Creating lexical models: do foreign language learning techniques affect lexical organization in fluent bilinguals?" Diss., Kansas State University, 2012. http://hdl.handle.net/2097/14127.

Full text
Abstract:
Doctor of Philosophy
Department of Psychology
Richard J. Harris
The use of different language learning methods for the purposes of acquiring foreign language vocabulary has long been explored but studies have often failed to take into account the potential effects on lexical processing. The current study examined the effectiveness of the Keyword, Context and Paired-Associate learning methods in acquiring foreign language vocabulary, but primarily focusing on the lexical and conceptual organization effects that each method may have on a foreign language learner. Three main theories/models (i.e., Word Association, Concept Mediated and Revised Asymmetrical Hierarchical) have been used to explain the organization of bilingual lexical, conceptual stores and connections between each store, but studies have not examined the addition of a third language (i.e., L3) and the potential connections created between new L3 and the two existing language stores. It was predicted that since low-proficiency bilinguals would create lexical models which heavily rely on translation equivalents, thus, the use of non-elaborative learning methods would assist in creating only lexical translation links, while more sophisticated elaborative methods would be successful in creating direct access to the conceptual meaning. The current study further explored the potential effects of language learning methods on comprehension ability, requiring the creation of situation models for comprehension. Finally, the present study explored the immediate and delayed effects of language learning methods on both vocabulary acquisition and comprehension ability. Results from the current study indicated that all learning methods were successful in creating and conceptual connections between the languages and the conceptual store, while Keyword learners had significantly better scores on certain trial types. Differences in terms in lexical and conceptual strength are suggested since differences in RTs and scores were found between some of the learning methods. Furthermore, in terms of comparisons across time, repeated testing learners attained better scores on all trial types in comparison to learners who were only tested at Time 2. Lastly, when assessing if lexical links could be created to a non-associated highly fluent second language known by the bilingual, results indicated that each language learning method successfully created such lexical connections, but these links were weaker in strength than those of the base language that was used during learning. Based on the current results, new models of lexical access are proposed which vary based on the use of language learning methods. The current findings also have strong implications and applications to the field of foreign language acquisition, primarily for bilingual language learners acquiring an L3.
APA, Harvard, Vancouver, ISO, and other styles
9

Rivière, Laura. "Etude de l'importance relative des contraintes linguistiques et extralinguistiques conduisant à la compréhension de l'ironie." Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0284.

Full text
Abstract:
Ce travail de thèse a eu pour vocation, en utilisant le cadre du modèle de Satisfaction de Contraintes, de déterminer, pour la première fois en français, le rôle joué par plusieurs types de contraintes (i.e., pragmatiques, linguistiques et socioculturelles) dans la compréhension des critiques et des compliments ironiques. Suite à une première étude dans laquelle nous avons utilisé une tâche auditive, nos résultats ont mis en évidence que l’incongruité entre le contexte et l’énoncé était un indice plus fort que la prosodie lors de la compréhension de critiques ironiques. En effet, nous avons montré que si tous les participants, lors de l’interprétation, s’appuyaient sur les informations contextuelles, seuls certains participants utilisaient également les indices prosodiques. Les résultats des deux études suivantes, composées de tâches écrites, ont confirmé le rôle majeur des contraintes pragmatiques (i.e., allusion à une attente déçue, tension négative et présence d’une victime) dans la compréhension de l’ironie, et notamment dans la compréhension des critiques ironiques. Nos résultats ont également mis en évidence la contribution, bien qu’à un niveau inférieur à celle des contraintes pragmatiques, de contraintes socioculturelles des participants dans la compréhension de l’ironie. Ils ont aussi confirmé l’asymétrie de l’ironie et montré que les contraintes pragmatiques contribuant à la compréhension des compliments ironiques seraient différentes de celles contribuant à la compréhension des critiques ironiques
The objective of this thesis was, using the framework of the Constraints Satisfaction model, to determine, for the first time in French, the role played by several types of constraints (i.e., pragmatic, linguistic and sociocultural) in the understanding of ironic criticisms and ironic praises.The results of a first experiment, in which we used a listening task, showed that the incongruity between the context and the utterance was a stronger cue than prosody in the understanding of ironic critics. Indeed, we showed that while all participants, in their interpretations, relied on contextual information, only some participants also used prosodic cues. The results of the two subsequent experiments, consisting of written tasks, confirmed the main role played by pragmatic constraints in irony understanding, and particularly in understanding of ironic criticisms. Our results also highlighted the contribution, while at a lower level than pragmatic constraints, of sociocultural constraints of the participants in the irony understanding. Our results also confirmed the asymmetry of irony and showed that the pragmatic constraints contributing to the understanding of ironic praises would be different from those contributing to the understanding of ironic criticism
APA, Harvard, Vancouver, ISO, and other styles
10

De, Nadai Patrick. "De l'image dictionnairique au modèle lexicographique : la systémique lexicale." Paris 8, 1992. http://www.theses.fr/1993PA080771.

Full text
Abstract:
Les dictionnaires de langue monolingues sont des ouvrages qui contiennent de multiples informations decrivant la langue dont ils traitent. Cette description etant fondee sur un corpus determine, les dictionnaires procurent une certaine "image" de cette langue. Pour pouvoir ameliorer la qualite des dictionnaires, il faudrait que les lexicographes puissent disposer d'un "modele", qui correspondrait a une description aussi objective que possible de la langue. Si la langue est concue comme un "systeme" de signes qui entretiennent des relations les uns avec les autres, ce modele devrait presenter toutes les relations (lexicales et syntaxiques) que la langue etablit. L'objet de notre travail est de proposer une methode pour la construction d'un tel modele, a partir des informations contenues dans un dictionnaire extensif. Apres avoir etabli ce qu'est un "dictionnaire de langue" et une "definition de mot", nous nous livrons a l'analyse pratique de notre corpus de definitions. Cette analyse nous permet de degager un certain nombre de relations lexicales, grace auxquelles nous esquissons une analyse linguistique du "prefixe" anti-
Monolingual language dictionaries contain a lot of informations describing the language they are dealing with. Since this description is based on a given corpus, dictionaries provide a certain 'image' of this language. In order to improve the quality of dictionaries, it would be necessary for lexicographers to have a 'model' providing a description of the language as objective as possible. If language is conceived of as consisting in a 'system' of relations (both lexical and syntactical), the model should present all relations established in the language. The purpose of our work is to propose a method so as to build up such a model, from the informations contained in an extensive dictionary. After having established what a 'language dictionary' and a 'word definition' are, we analyse the definitions of our corpus, in order to extract lexical relations. Then, with these extracted relations, we try to outline a linguistic analysis of the 'prefix' anti-
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Modèle lexical"

1

Singleton, David. Lexical processing and the "language module". Dublin: Centre for Language & Communication Studies, T.C.D., 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Methodological and analytic frontiers in lexical research. Amsterdam: John Benjamins Pub. Co., 2012.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Miezitis, Mara Anita. Generating lexical options by matching in a knowledge base. Toronto: Computer Systems Research Institute, University of Toronto, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Where lexicon and syntax meet. Berlin: M. de Gruyter, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ci hui yu yi de dong tai mo shi: Ci yi de can shu hua yan jiu = Dinamicheskie modeli v semantike leksiki : semanticheskie parametry leksiki = The dynamic models of lexical semantics : lexical semantic parameters. Haerbin: Heilongjiang ren min chu ban she, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Lenahan, James. Lenahan's locomotive lexicon: A book of HO scale motive power for the ferroequineologist [i.e. ferroequinologist]. 3rd ed. Manitou Springs, Colo. (PO Box 46, Manitou Springs 80829): J. Lenahan, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Kupcova, Oksana. The basics of the Latin language with medical terminology. ru: INFRA-M Academic Publishing LLC., 2020. http://dx.doi.org/10.12737/1058964.

Full text
Abstract:
The textbook on the discipline "Fundamentals of the Latin language with medical terminology" contains lexical and grammatical exercises, control and measurement exercises, a Glossary and appendices aimed at developing grammatical, lexical and terminological knowledge and skills, and mastering the basic word-forming models of chemical, pharmaceutical and clinical terminology to the extent necessary for further educational activities. The materials of the manual are suitable both for classroom work under the guidance of a teacher, and for independent work of students during extracurricular time. Meets the requirements of the Federal state educational standards of higher education of the latest generation. For first-year students on the basis of secondary General education and second-year students on the basis of basic General education of secondary medical professional educational organizations studying in the specialties "Nursing", "Medical care", "Midwifery", "Laboratory diagnostics". It can also be used for organizing and conducting classes in clubs or elective courses for students of the 10th and 11th grades of medical and biological-chemical profile in schools, lyceums, gymnasiums.
APA, Harvard, Vancouver, ISO, and other styles
8

Tallis, Raymond. Why the mind is not a computer: A pocket lexicon of neuromythology. Exeter, UK: Imprint Academic, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Francez, Nissim. Unification grammars. Cambridge: Cambridge University Press, 2012.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

NEO. Utrecht: Centraal Museum, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Modèle lexical"

1

Mitchell, R. J. "Lexical Analysis." In Modula-2 Applied, 198–205. London: Macmillan Education UK, 1991. http://dx.doi.org/10.1007/978-1-349-12439-8_16.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Boguraev, Branimir, and Beth Levin. "Models for Lexical Knowledge Bases." In Studies in Linguistics and Philosophy, 325–40. Dordrecht: Springer Netherlands, 1993. http://dx.doi.org/10.1007/978-94-011-1972-6_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Basnight-Brown, Dana M. "Models of Lexical Access and Bilingualism." In Foundations of Bilingual Memory, 85–107. New York, NY: Springer New York, 2014. http://dx.doi.org/10.1007/978-1-4614-9218-4_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Clark, Stephen. "Vector Space Models of Lexical Meaning." In The Handbook of Contemporary Semantic Theory, 493–522. Chichester, UK: John Wiley & Sons, Ltd, 2015. http://dx.doi.org/10.1002/9781118882139.ch16.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Eckle-Kohler, Judith, Iryna Gurevych, Silvana Hartmann, Michael Matuschek, and Christian M. Meyer. "UBY-LMF - Exploring the Boundaries of Language-Independent Lexicon Models." In LMF Lexical Markup Framework, 145–56. Hoboken, NJ USA: John Wiley & Sons, Inc., 2013. http://dx.doi.org/10.1002/9781118712696.ch10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Winther-Nielsen, Nicolai. "A Role-Lexical Module (RLM) for Biblical Hebrew." In Investigations of the Syntax–Semantics–Pragmatics Interface, 455–78. Amsterdam: John Benjamins Publishing Company, 2008. http://dx.doi.org/10.1075/slcs.105.31win.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Spinde, Timo, Felix Hamborg, and Bela Gipp. "Media Bias in German News Articles: A Combined Approach." In ECML PKDD 2020 Workshops, 581–90. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-65965-3_41.

Full text
Abstract:
AbstractSlanted news coverage, also called media bias, can heavily influence how news consumers interpret and react to the news. Models to identify and describe biases have been proposed across various scientific fields, focusing mostly on English media. In this paper, we propose a method for analyzing media bias in German media. We test different natural language processing techniques and combinations thereof. Specifically, we combine an IDF-based component, a specially created bias lexicon, and a linguistic lexicon. We also flexibly extend our lexica by the usage of word embeddings. We evaluate the system and methods in a survey (N = 46), comparing the bias words our system detected to human annotations. So far, the best component combination results in an F$$_{1}$$ 1 score of 0.31 of words that were identified as biased by our system and our study participants. The low performance shows that the analysis of media bias is still a difficult task, but using fewer resources, we achieved the same performance on the same task than recent research on English. We summarize the next steps in improving the resources and the overall results.
APA, Harvard, Vancouver, ISO, and other styles
8

Basili, Roberto, Danilo Croce, Cristina Giannone, and Diego De Cao. "Acquiring IE Patterns through Distributional Lexical Semantic Models." In Computational Linguistics and Intelligent Text Processing, 512–24. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-12116-6_44.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Croce, Danilo, Simone Filice, and Roberto Basili. "Distributional Models and Lexical Semantics in Convolution Kernels." In Computational Linguistics and Intelligent Text Processing, 336–48. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-28604-9_28.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Zavitsanos, Elias, George Tsatsaronis, Iraklis Varlamis, and Georgios Paliouras. "Scalable Semantic Annotation of Text Using Lexical and Web Resources." In Artificial Intelligence: Theories, Models and Applications, 287–96. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-642-12842-4_32.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Modèle lexical"

1

Cao, Hailong, and Tiejun Zhao. "Point Set Registration for Unsupervised Bilingual Lexicon Induction." In Twenty-Seventh International Joint Conference on Artificial Intelligence {IJCAI-18}. California: International Joint Conferences on Artificial Intelligence Organization, 2018. http://dx.doi.org/10.24963/ijcai.2018/555.

Full text
Abstract:
Inspired by the observation that word embeddings exhibit isomorphic structure across languages, we propose a novel method to induce a bilingual lexicon from only two sets of word embeddings, which are trained on monolingual source and target data respectively. This is achieved by formulating the task as point set registration which is a more general problem. We show that a transformation from the source to the target embedding space can be learned automatically without any form of cross-lingual supervision. By properly adapting a traditional point set registration model to make it be suitable for processing word embeddings, we achieved state-of-the-art performance on the unsupervised bilingual lexicon induction task. The point set registration problem has been well-studied and can be solved by many elegant models, we thus opened up a new opportunity to capture the universal lexical semantic structure across languages.
APA, Harvard, Vancouver, ISO, and other styles
2

Feldman, D. G., T. R. Sadekova, and K. V. Vorontsov. "COMBINING FACTS, SEMANTIC ROLES AND SENTIMENT LEXICON IN A GENERATIVE MODEL FOR OPINION MINING." In International Conference on Computational Linguistics and Intellectual Technologies "Dialogue". Russian State University for the Humanities, 2020. http://dx.doi.org/10.28995/2075-7182-2020-19-283-298.

Full text
Abstract:
Opinion mining is a popular task, that is applied, for example, to determine news polarisation and identify product review classes. Our task is unsupervised clusterization of opinionated texts, in particular news on political events. Many papers that tackle this issue use generative models based on lexical features. Our goal is to determine the entities defying an opinion amongst lexical, syntactic and semantic features as well as their compositions. More specifically, we test the hypothesis that an opinion is determined by the composition of the mentioned facts (SPO triples), the semantic roles of the words and the sentiment lexicon used in it. In this paper we formalise this task and prove that using a composition of the above features provides the best quality when clusterising opinionated texts. To test this hypothesis we have gathered and labelled two corpuses of news on political events and proposed a set of unsupervised algorithms for extracting the features.
APA, Harvard, Vancouver, ISO, and other styles
3

Saha, Swarnadeep, Malolan Chetlur, Tejas Indulal Dhamecha, W. M. Gayathri K. Wijayarathna, Red Mendoza, Paul Gagnon, Nabil Zary, and Shantanu Godbole. "Aligning Learning Outcomes to Learning Resources: A Lexico-Semantic Spatial Approach." In Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California: International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/718.

Full text
Abstract:
Aligning Learning Outcomes (LO) to relevant portions of Learning Resources (LR) is necessary to help students quickly navigate within the recommended learning material. In general, the problem can be viewed as finding the relevant sections of a document (LR) that is pertinent to a broad question (LO). In this paper, we introduce the novel problem of aligning LOs (LO is usually a sentence long text) to relevant pages of LRs (LRs are in the form of slide decks). We observe that the set of relevant pages can be composed of multiple chunks (a chunk is a contiguous set of pages) and the same page of an LR might be relevant to multiple LOs. To this end, we develop a novel Lexico-Semantic Spatial approach that captures the lexical, semantic, and spatial aspects of the task, and also alleviates the limited availability of training data. Our approach first identifies the relevancy of a page to an LO by using lexical and semantic features from each page independently. The spatial model at a later stage exploits the dependencies between the sequence of pages in the LR to further improve the alignment task. We empirically establish the importance of the lexical, semantic, and spatial models within the proposed approach. We show that, on average, a student can navigate to a relevant page from the first predicted page by about four clicks within a 38 page slide deck, as compared to two clicks by human experts.
APA, Harvard, Vancouver, ISO, and other styles
4

Zhou, Mengfei, Anette Frank, Annemarie Friedrich, and Alexis Palmer. "Semantically Enriched Models for Modal Sense Classification." In Proceedings of the First Workshop on Linking Computational Models of Lexical, Sentential and Discourse-level Semantics. Stroudsburg, PA, USA: Association for Computational Linguistics, 2015. http://dx.doi.org/10.18653/v1/w15-2705.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Li, Zhongyang, Xiao Ding, Ting Liu, J. Edward Hu, and Benjamin Van Durme. "Guided Generation of Cause and Effect." In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/502.

Full text
Abstract:
We present a conditional text generation framework that posits sentential expressions of possible causes and effects. This framework depends on two novel resources we develop in the course of this work: a very large-scale collection of English sentences expressing causal patterns (CausalBank); and a refinement over previous work on constructing large lexical causal knowledge graphs (Cause Effect Graph). Further, we extend prior work in lexically-constrained decoding to support disjunctive positive constraints. Human assessment confirms that our approach gives high-quality and diverse outputs. Finally, we use CausalBank to perform continued training of an encoder supporting a recent state-of-the-art model for causal reasoning, leading to a 3-point improvement on the COPA challenge set, with no change in model architecture.
APA, Harvard, Vancouver, ISO, and other styles
6

Klabunde, Ralf. "Lexical choice of modal expressions." In the Eleventh European Workshop. Morristown, NJ, USA: Association for Computational Linguistics, 2007. http://dx.doi.org/10.3115/1610163.1610176.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Cucerzan, Silviu, and David Yarowsky. "Augmented mixture models for lexical disambiguation." In the ACL-02 conference. Morristown, NJ, USA: Association for Computational Linguistics, 2002. http://dx.doi.org/10.3115/1118693.1118698.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Tsvetkov, Yulia, Waleed Ammar, and Chris Dyer. "Constraint-Based Models of Lexical Borrowing." In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA, USA: Association for Computational Linguistics, 2015. http://dx.doi.org/10.3115/v1/n15-1062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Peirsman, Yves, and Dirk Speelman. "Word space models of lexical variation." In the Workshop. Morristown, NJ, USA: Association for Computational Linguistics, 2009. http://dx.doi.org/10.3115/1705415.1705417.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Terra, Egidio, and Charles L. A. Clarke. "Fast computation of lexical affinity models." In the 20th international conference. Morristown, NJ, USA: Association for Computational Linguistics, 2004. http://dx.doi.org/10.3115/1220355.1220502.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Modèle lexical"

1

Hirayama, Yuji. A PROLOG Lexical Phrase Computer Assisted Language Learning Module. Portland State University Library, January 2000. http://dx.doi.org/10.15760/etd.7173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography