Literatura académica sobre el tema "TAL (Traitement Automatique des Langues)"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "TAL (Traitement Automatique des Langues)".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "TAL (Traitement Automatique des Langues)"

1

Poibeau, Thierry. "Le traitement automatique des langues : tendances et enjeux". Lalies 39 (2019): 7–65. http://dx.doi.org/10.4000/1231f.

Texto completo
Resumen
Le traitement automatique des langues (TAL) est un domaine de recherche pluridisciplinaire, à l’intersection de la linguistique et de l’informatique, qui vise à mettre au point des programmes informatiques pour l’analyse des langues par ordinateur. Ce domaine de recherche est apparu au début des années 1950, en même temps que la mise au point des premiers ordinateurs. Il s’est depuis largement diversifié et les applications de traitement automatique des langues se sont imposées dans la vie courante, que ce soit à travers les correcteurs orthographiques, les outils de traduction automatique ou la commande à la voix des téléphones portables ou des enceintes connectées. Au-delà de l’aspect parfois gadget des applications courantes, cet article essaie d’expliquer les difficultés de la tâche et les grandes évolutions du domaine ; il vise, en outre, à dresser un panorama des recherches en cours et des outils disponibles. Cet article est aussi l’occasion d’une réflexion sur la place de la linguistique dans le paysage actuel de la recherche en traitement automatique des langues.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Frath, Pierre. "Quelle sémantique pour le tal ?" Scolia 11, n.º 1 (1998): 39–68. http://dx.doi.org/10.3406/scoli.1998.976.

Texto completo
Resumen
Le traitement automatique des langues semble largement reposer sur une vision positiviste du sens, pour laquelle un sens complexe est composé de sens plus élémentaires agencés par des règles, des prédicats abstraits ou des mécanismes. Les sémantiques de ce type produisent des univers sémantiques clos entièrement codés, particulièrement intéressants pour certaines applications en TAL. C'est le cas de la sémantique générative, dont nous étudions ici un des exemples emblématiques, celui du verbe commencer. Nous examinons ensuite un grand nombre d’occurrences du verbe begin dans divers corpus. Les résultats de cet examen nous amènent ensuite à nous interroger sur la nécessité d'une sémantique de la performance pour le traitement automatique de corpus.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Zemni, Bahia, Farouk Bouhadiba y Mimouna Zitouni. "Recherche cognitive et traduction automatique en jurilinguistique". Texto Livre: Linguagem e Tecnologia 15 (18 de octubre de 2021): e27031. http://dx.doi.org/10.35699/1983-3652.2022.27031.

Texto completo
Resumen
De par ses caractéristiques morpho-phonologiques, morphosyntaxiques, lexicales et autres systèmes et sous-systèmes de son fonctionnement, la langue arabe représente un système de non-concaténation (ou non-enchaînement des morphèmes). Elle diffère dans ce sens des langues Indo-européennes – à systèmes de concaténation – et demeure pour ainsi dire, une langue assez complexe à gérer dans le domaine du Traitement Automatique des Langues(TAL). Ceci, surtout lorsqu’il s’agit de traduire automatiquement des faits de langue porteurs d’éléments culturels propres à cette langue. Les données examinées dans cet article sont révélatrices de hiatus quant à la traduction automatique de textes juridiques arabes vers d’autres langues telles que le français ou l’anglais. L’apparentement génétique différent des langues en question pose non seulement des problèmes d’ordre linguistique dans le passage d’une langue vers une autre, mais aussi et surtout que les textes juridiques en langue arabe sont porteurs de poids sémantiques, culturels, religieux et civilisationnels qui ne reflètent pas toujours les mêmes référents ou gestalt des langues cibles. Il en est conclu que l’intervention humaine dans ce processus de traduction est plus que nécessaire comme le révèle l’étude des cas de textes juridiques en Arabie Saoudite.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Jouitteau, Mélanie. "Guide de survie des langues minorisées à l’heure de l’intelligence artificielle : Appel aux communautés parlantes". Lapurdum 24 (2023): 199–217. http://dx.doi.org/10.4000/127u1.

Texto completo
Resumen
Cet article s’adresse à la fois aux chercheurs en sciences humaines et aux structures de politique linguistique des langues minorisées. Il comprend un résumé compréhensible de la chaîne de développement du numérique pour le Traitement Automatique des Langues (TAL), avec une attention particulière pour ces langues qui n’ont pas des corpus aussi vastes que le français ou l’anglais. Dans le contexte de la révolution de l’Intelligence Artificielle (IA), dont j’explique les enjeux pour ces les langues à corpus restreint, je liste les recommandations indispensables au développement de ressources pérennes à même d’assurer un développement durable, avec une liste des pièges et mécompréhensions les plus courantes. L’article prend le breton comme exemple illustratif d’une langue à corpus restreint démontrant des ressources et applications numériques émergentes. Ses conclusions s’appliquent largement à toutes les langues à corpus restreint dont le développement numérique est amorcé, mais encore insuffisant pour profiter directement des applications d’IA développées actuellement pour les langues à corpus massif.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Da Sylva, Lyne. "Nouveaux horizons en indexation automatique de monographies". Documentation et bibliothèques 48, n.º 4 (8 de mayo de 2015): 155–67. http://dx.doi.org/10.7202/1030353ar.

Texto completo
Resumen
Quel est l’état de la question en indexation automatique de monographies ? Bien que les premières tentatives d’indexation automatique datent du début des années 1960, elles n’ont toujours pas abouti à des systèmes satisfaisants du point de vue des indexeurs professionnels.Pourtant il y a lieu de s’interroger sur les possibilités actuelles d’indexation automatique, compte tenu du nombre croissant de documents numériques pour lesquels il serait intéressant de fournir un index comme celui qu’on trouve à la fin d’un livre (back-of-the-book index). En outre, les quinze dernières années ont vu des innovations importantes dans le domaine du traitement automatique des langues (TAL), qui pourraient avoir des applications avantageuses pour l’indexation automatique de monographies. Cet article propose de définir la problématique et d’identifier les nouvelles pistes de solutions à explorer afin de dépasser les performances des systèmes actuellement offerts pour l’indexation automatique de monographies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Shaffer, Ryan y Benjamin Shearn. "Performing Unsupervised Machine Learning on Intelligence: An Analysis of Colonial Kenya Reports". Études françaises de renseignement et de cyber N° 2, n.º 1 (4 de junio de 2024): 211–38. http://dx.doi.org/10.3917/efrc.232.0211.

Texto completo
Resumen
Cet article applique une classification « zero-shot » aux rapports de services de renseignement déclassifiés par le gouvernement kenyan et couvrant la période coloniale britannique qui a précédé la révolte des Mau Mau et l’état d’urgence de 1952. La classification « zero-shot » (catégorisant les documents sans exemples étiquetés des catégories) est devenue fonctionnelle avec l’arrivée des grands modèles de langage (LLM), une avancée récente dans le domaine du traitement automatique des langues (TAL). Cet article démontre comment un apprentissage automatique non supervisé peut être utilisé par les chercheurs et les praticiens du renseignement pour analyser des milliers de rapports de services de renseignement sans rapports étiquetés et données d’entraînement, ou sans la capacité d’entraîner des modèles traditionnels de classification de documents.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Estival, Dominique. "ELU, un environnement d’expérimentation pour la TA". Meta 37, n.º 4 (30 de septiembre de 2002): 693–708. http://dx.doi.org/10.7202/002711ar.

Texto completo
Resumen
Résumé ELU donne aux chercheurs en traitement automatique du langage (TAL) un environnement de génie linguistique basé sur l'unification, dont le formalisme théoriquement validé permet d'expérimenter différentes analyses et théories linguistiques pour les descriptions des langues, et il donne plus particulièrement aux chercheurs en traduction automatique (TA) la possibilité d'expérimenter différentes approches de la traduction. Le paradigme des grammaires d'unification est un formalisme attrayant pour le TAL parce que ses propriétés formelles sont claires et bien établies. Si l'optique théoriquement neutre de l'environnement rejoint des préoccupations que l'on retrouve chez certains chercheurs en linguistique théorique, ELU est principalement destiné à la construction de systèmes prototypes de TA. Non seulement ELU est basé sur l'unification, mais il exploite dans chacune de ses composantes la réversibilité des grammaires, celle des descriptions linguistiques monolingues, on peut en effet pratiquer la réversibilité des descriptions bilingues, dans la composante de transfert. Le formalisme adopté permet donc de tester l'hypothèse qu'un système de TA peut, et donc devrait peut-être, être bidirectionnel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Fuentes, Sandrine. "LA TRADUCTION DES NOMS DE PROFESSION DANS UN SYSTÈME DE DICTIONNAIRES ÉLECTRONIQUES COORDONNÉS (ES-FR)". Verbum 7, n.º 7 (20 de diciembre de 2016): 66. http://dx.doi.org/10.15388/verb.2016.7.10259.

Texto completo
Resumen
Dans cet article, nous nous attachons à la problématique posée par la traduction des noms de profes­sions de l’espagnol vers le français et ce, dans une perspective de Traitement Automatique des Langues (TAL). Malgré la proximité linguistique des deux langues mises en regard, des obstacles d’ordre géné­ral comme la polysémie ou le figement et d’autres plus spécifiques comme le haut degré de technicité des termes concernés ou encore la structure interne complexe des syntagmes terminologiques peuvent entraver le processus de traduction automatique. C’est pourquoi il est nécessaire de fournir au système des descriptions linguistiques exhaustives, minutieuses et formalisées. C’est ce que nous proposons dans le dictionnaire électronique DicPro, où chaque lemme est associé à des champs lexicographiques de différents types (morphologique, sémantique, syntaxique, etc.) et ce, conformément au modèle de microstructure des dictionnaires électroniques conçus au sein du LDI (Université Paris 13). Il convient de souligner que chaque entrée du dictionnaire correspond à une seule et unique unité lexicale et que les formes polysémiques sont donc automatiquement dédoublées. D’autre part, nous concevons le dic­tionnaire bilingue comme une paire de dictionnaires monolingues coordonnés (Blanco : 1999), c’est pourquoi les équivalents de traduction que nous offrons servent de pointeurs vers le module français, dans lequel les lemmes sont munis de leurs propres descriptions linguistiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Fuentes, Sandrine. "LA TRADUCTION DES NOMS DE PROFESSION DANS UN SYSTÈME DE DICTIONNAIRES ÉLECTRONIQUES COORDONNÉS (ES-FR)". Verbum 7, n.º 7 (22 de diciembre de 2016): 66. http://dx.doi.org/10.15388/verb.2016.7.10287.

Texto completo
Resumen
Dans cet article, nous nous attachons à la problématique posée par la traduction des noms de profes­sions de l’espagnol vers le français et ce, dans une perspective de Traitement Automatique des Langues (TAL). Malgré la proximité linguistique des deux langues mises en regard, des obstacles d’ordre géné­ral comme la polysémie ou le figement et d’autres plus spécifiques comme le haut degré de technicité des termes concernés ou encore la structure interne complexe des syntagmes terminologiques peuvent entraver le processus de traduction automatique. C’est pourquoi il est nécessaire de fournir au système des descriptions linguistiques exhaustives, minutieuses et formalisées. C’est ce que nous proposons dans le dictionnaire électronique DicPro, où chaque lemme est associé à des champs lexicographiques de différents types (morphologique, sémantique, syntaxique, etc.) et ce, conformément au modèle de microstructure des dictionnaires électroniques conçus au sein du LDI (Université Paris 13). Il convient de souligner que chaque entrée du dictionnaire correspond à une seule et unique unité lexicale et que les formes polysémiques sont donc automatiquement dédoublées. D’autre part, nous concevons le dic­tionnaire bilingue comme une paire de dictionnaires monolingues coordonnés (Blanco : 1999), c’est pourquoi les équivalents de traduction que nous offrons servent de pointeurs vers le module français, dans lequel les lemmes sont munis de leurs propres descriptions linguistiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

SON, Hyunjung. "Connecteurs dans le domaine du traitement automatiques des langues (TAL)". Societe d'Etudes Franco-Coreennes 81 (31 de agosto de 2017): 33–60. http://dx.doi.org/10.18812/refc.2017.81.33.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Tesis sobre el tema "TAL (Traitement Automatique des Langues)"

1

Tirilly, Pierre. "Traitement automatique des langues pour l'indexation d'images". Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00516422.

Texto completo
Resumen
Bien que s'inscrivant dans un cadre global de recherche d'information (RI) classique, l'indexation d'image ne tire que peu parti des nombreux travaux existants en RI textuelle et en traitement automatique des langues (TAL). Nous identifions deux niveaux auxquels de tels travaux peuvent s'intégrer aux systèmes d'indexation d'images. Le premier niveau est celui de la description du contenu visuel des images. Pour y intégrer des techniques de TAL, nous adoptons la description des images par mots visuels proposée par Sivic et Zisserman. Cette représentation soulève deux problématiques similaires aux problématiques classiques de la RI textuelle~: le choix des termes d'indexation les plus pertinents pour décrire les documents et la prise en compte des relations entre ces termes. Pour répondre à la première de ces problématiques nous proposons une étude des stop-lists et des pondérations dans le cadre de l'indexation d'images. Cette étude montre que, contrairement au cas des textes, il n'existe pas de pondération optimale pour tous types de requêtes, et que la pondération doit être choisie en fonction de la requête. Pour la seconde, nous utilisons des modèles de langues, outil classique du TAL que nous adaptons au cas des images, pour dépasser l'hypothèse d'indépendance des termes dans un cadre de classification d'images. Nos expérimentations montrent que prendre en compte des relations géométriques entre mots visuels permet d'améliorer les performances des systèmes. Le second niveau étudié est l'indexation sémantique des images : il est possible d'utiliser des méthodes de TAL sur des textes accompagnant les images pour obtenir des descriptions textuelles de celles-ci. Dans un premier temps, nous montrons que les descripteurs classiques d'images ne permettent pas d'obtenir des systèmes d'annotation d'images efficaces. Puis nous proposons une méthode d'annotation qui contourne cet écueil en se basant sur des descripteurs textuels et visuels de haut-niveau~: nous extrayons des textes des entités nommées, que nous mettons en relation avec des concepts visuels détectés dans les images afin d'annoter celles-ci. Nous validons notre approche sur un corpus réel et de grande taille composé d'articles de presse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Bourgeade, Tom. "Interprétabilité a priori et explicabilité a posteriori dans le traitement automatique des langues". Thesis, Toulouse 3, 2022. http://www.theses.fr/2022TOU30063.

Texto completo
Resumen
Avec l'avènement des architectures Transformer en Traitement Automatique des Langues il y a quelques années, nous avons observé des progrès sans précédents dans diverses tâches de classification ou de génération de textes. Cependant, l'explosion du nombre de paramètres et de la complexité de ces modèles "boîte noire" de l'état de l'art, rendent de plus en plus évident le besoin désormais urgent de transparence dans les approches d'apprentissage automatique. La capacité d'expliquer, d'interpréter et de comprendre les décisions algorithmiques deviendra primordiale à mesure que les modèles informatiques deviennent de plus en plus présents dans notre vie quotidienne. En utilisant les méthodes de l'IA eXplicable (XAI), nous pouvons par exemple diagnostiquer les biais dans des ensembles de données, des corrélations erronées qui peuvent au final entacher le processus d'apprentissage des modèles, les conduisant à apprendre des raccourcis indésirables, ce qui pourrait conduire à des décisions algorithmiques injustes, incompréhensibles, voire risquées. Ces modes d'échec de l'IA peuvent finalement éroder la confiance que les humains auraient pu placer dans des applications bénéfiques. Dans ce travail, nous explorons plus spécifiquement deux aspects majeurs de l'XAI, dans le contexte des tâches et des modèles de Traitement Automatique des Langues : dans la première partie, nous abordons le sujet de l'interprétabilité intrinsèque, qui englobe toutes les méthodes qui sont naturellement faciles à expliquer. En particulier, nous nous concentrons sur les représentations de plongement de mots, qui sont une composante essentielle de pratiquement toutes les architectures de TAL, permettant à ces modèles mathématiques de manipuler le langage humain d'une manière plus riche sur le plan sémantique. Malheureusement, la plupart des modèles qui génèrent ces représentations les produisent d'une manière qui n'est pas interprétable par les humains. Pour résoudre ce problème, nous expérimentons la construction et l'utilisation de modèles de plongement de mots interprétables, qui tentent de corriger ce problème, en utilisant des contraintes qui imposent l'interprétabilité de ces représentations. Nous utilisons ensuite ces modèles, dans une configuration nouvelle, simple mais efficace, pour tenter de détecter des corrélations lexicales, erronées ou non, dans certains ensembles de données populaires en TAL. Dans la deuxième partie, nous explorons les méthodes d'explicabilité post-hoc, qui peuvent cibler des modèles déjà entraînés, et tenter d'extraire diverses formes d'explications de leurs décisions. Ces méthodes peuvent aller du diagnostic des parties d'une entrée qui étaient les plus pertinentes pour une décision particulière, à la génération d'exemples adversariaux, qui sont soigneusement conçus pour aider à révéler les faiblesses d'un modèle. Nous explorons un nouveau type d'approche, en partie permis par les architectures Transformer récentes, très performantes mais opaques : au lieu d'utiliser une méthode distincte pour produire des explications des décisions d'un modèle, nous concevons et mettons au point une configuration qui apprend de manière jointe à exécuter sa tâche, tout en produisant des explications en langage naturel en forme libre de ses propres résultats. Nous évaluons notre approche sur un ensemble de données de grande taille annoté avec des explications humaines, et nous jugeons qualitativement certaines des explications générées par notre approche
With the advent of Transformer architectures in Natural Language Processing a few years ago, we have observed unprecedented progress in various text classification or generation tasks. However, the explosion in the number of parameters, and the complexity of these state-of-the-art blackbox models, is making ever more apparent the now urgent need for transparency in machine learning approaches. The ability to explain, interpret, and understand algorithmic decisions will become paramount as computer models start becoming more and more present in our everyday lives. Using eXplainable AI (XAI) methods, we can for example diagnose dataset biases, spurious correlations which can ultimately taint the training process of models, leading them to learn undesirable shortcuts, which could lead to unfair, incomprehensible, or even risky algorithmic decisions. These failure modes of AI, may ultimately erode the trust humans may have otherwise placed in beneficial applications. In this work, we more specifically explore two major aspects of XAI, in the context of Natural Language Processing tasks and models: in the first part, we approach the subject of intrinsic interpretability, which encompasses all methods which are inherently easy to produce explanations for. In particular, we focus on word embedding representations, which are an essential component of practically all NLP architectures, allowing these mathematical models to process human language in a more semantically-rich way. Unfortunately, many of the models which generate these representations, produce them in a way which is not interpretable by humans. To address this problem, we experiment with the construction and usage of Interpretable Word Embedding models, which attempt to correct this issue, by using constraints which enforce interpretability on these representations. We then make use of these, in a simple but effective novel setup, to attempt to detect lexical correlations, spurious or otherwise, in some popular NLP datasets. In the second part, we explore post-hoc explainability methods, which can target already trained models, and attempt to extract various forms of explanations of their decisions. These can range from diagnosing which parts of an input were the most relevant to a particular decision, to generating adversarial examples, which are carefully crafted to help reveal weaknesses in a model. We explore a novel type of approach, in parts allowed by the highly-performant but opaque recent Transformer architectures: instead of using a separate method to produce explanations of a model's decisions, we design and fine-tune an architecture which jointly learns to both perform its task, while also producing free-form Natural Language Explanations of its own outputs. We evaluate our approach on a large-scale dataset annotated with human explanations, and qualitatively judge some of our approach's machine-generated explanations
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Denoual, Etienne. "Méthodes en caractères pour le traitement automatique des langues". Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00107056.

Texto completo
Resumen
Le traitement automatique des langues fondé sur les données a récemment assimilé de nombreuses techniques et perspectives héritées du domaine de la reconnaissance de parole. Parmi celles-ci, les méthodes qui utilisent le mot comme unité de traitement sont difficilement transposables aux systèmes d'écriture sans séparateur orthographique, et ne sont donc pas multilingues.
Le présent travail promeut l'utilisation de méthodes travaillant au niveau du signal de l'écrit: le caractère, unité immédiatement accessible dans toute langue informatisée, permet de se passer de segmentation en mots, étape actuellement incontournable pour des langues comme le chinois ou le japonais.

Dans un premier temps, nous transposons et appliquons en caractères une méthode bien établie d'évaluation objective de la traduction automatique, BLEU.
Les résultats encourageants nous permettent dans un deuxième temps d'aborder d'autres tâches de traitement des données linguistiques. Tout d'abord, le filtrage de la grammaticalité; ensuite, la caractérisation de la similarité et de l'homogénéité des ressources linguistiques. Dans toutes ces tâches, le traitement en caractères obtient des résultats acceptables, et comparables à ceux obtenus en mots.
Dans un troisième temps, nous abordons des tâches de production de données linguistiques: le calcul analogique sur les chaines de caractères permet la production de paraphrases aussi bien que la traduction automatique.
Ce travail montre qu'on peut construire un système complet de traduction automatique ne nécessitant pas de segmentation, a fortiori pour traiter des langues sans séparateur orthographique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Moreau, Fabienne. "Revisiter le couplage traitement automatique des langues et recherche d'information". Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00524514.

Texto completo
Resumen
La principale difficulté des systèmes de recherche d'information (SRI) est d'établir une correspondance entre l'information recherchée par un utilisateur et celle contenue dans leur base documentaire. Pour y parvenir, ils tentent généralement un appariement des mots de la requête posée avec ceux représentant le contenu des documents. Un tel mécanisme, fondé sur une simple comparaison de chaînes de caractères, ne permet cependant pas de prendre en compte le fait qu'un même mot peut posséder plusieurs sens et qu'une même idée peut être formulée de différentes manières. Pour pallier ces difficultés, une solution assez naturelle est de se tourner vers le traitement automatique des langues (TAL) qui, en considérant les mots non comme des chaînes de caractères mais comme des entités linguistiques à part entière, doit offrir un appariement requête-document plus pertinent. Les résultats des nombreux travaux proposant d'enrichir la RI par des informations linguistiques sont toutefois souvent décevants, peu tranchés et contradictoires. Pour comprendre ces faibles résultats et savoir comment les améliorer, nous abordons le couplage TAL-RI sous des angles nouveaux. Contrairement aux autres études, nous choisissons d'exploiter pleinement la richesse de la langue en combinant plusieurs informations linguistiques appartenant aux niveaux morphologique, syntaxique et sémantique. Afin de tester l'intérêt de coupler ces informations, nous proposons une plate-forme intégrant en parallèle ces multiples indices ; elle conduit à montrer l'apport significatif et tranché de plusieurs de ces connaissances, et, via une analyse originale des corrélations qu'elles présentent, des cas de complémentarité intéressants. Grâce à une méthode d'apprentissage supervisé qui fusionne les listes de résultats fournis par chaque index linguistique et s'adapte automatiquement aux caractéristiques des requêtes, nous prouvons, par des résultats plus stables qu'habituellement, le gain effectif du couplage d'informations linguistiques multi-niveaux. Enfin, nous proposons une méthode novatrice d'acquisition par apprentissage non supervisé d'informations morphologiques qui permet d'accroître encore l'impact de ces connaissances efficaces sur les performances de notre SRI. Nous montrons ainsi qu'en construisant des outils plus souples et plus adaptés aux contraintes de la RI, l'apport du TAL dans ce domaine est réel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Bouamor, Houda. "Etude de la paraphrase sous-phrastique en traitement automatique des langues". Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00717702.

Texto completo
Resumen
La variabilité en langue est une source majeure de difficultés dans la plupart des applications du traitement automatique des langues. Elle se manifeste dans le fait qu'une même idée ou un même événement peut être exprimé avec des mots ou des groupes de mots différents ayant la même signification dans leur contexte respectif. Capturer automatiquement des équivalences sémantiques entre des unités de texte est une tâche complexe mais qui s'avère indispensable dans de nombreux contextes. L'acquisition a priori de listes d'équivalences met à disposition des ressources utiles pour, par exemple, améliorer le repérage d'une réponse à une question, autoriser des formulations différentes en évaluation de la traduction automatique, ou encore aider des auteurs à trouver des formulations plus adaptées. Dans cette thèse, nous proposons une étude détaillée de la tâche d'acquisition de paraphrases sous-phrastiques à partir de paires d'énoncés sémantiquement liés. Nous démontrons empiriquement que les corpus parallèles monolingues, bien qu'extrêmement rares, constituent le type de ressource le plus adapté pour ce genre d'étude. Nos expériences mettent en jeu cinq techniques d'acquisition, représentatives de différentes approches et connaissances, en anglais et en français. Afin d'améliorer la performance en acquisition, nous réalisons la combinaison des paraphrases produites par ces techniques par une validation reposant sur un classifieur automatique à maximum d'entropie bi-classe. Un résultat important de notre étude est l'identification de paraphrases qui défient actuellement les techniques étudiées, lesquelles sont classées et quantifiées en anglais et français. Nous examinons également dans cette thèse l'impact de la langue, du type du corpus et la comparabilité des paires des énoncés utilisés sur la tâche d'acquisition de paraphrases sous- phrastiques. Nous présentons le résultat d'une analyse de la performance des différentes méthodes testées en fonction des difficultés d'alignement des paires de paraphrases d'énoncés. Nous donnons, ensuite, un compte rendu descriptif et quantitatif des caractéristiques des paraphrases trouvées dans les différents types de corpus étudiés ainsi que celles qui défient les approches actuelles d'identification automatique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Le, Berre Guillaume. "Vers la mitigation des biais en traitement neuronal des langues". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0074.

Texto completo
Resumen
Il est de notoriété que les modèles d'apprentissage profond sont sensibles aux biais qui peuvent être présents dans les données utilisées pour l'apprentissage. Ces biais qui peuvent être définis comme de l'information inutile ou préjudiciable pour la tâche considérée, peuvent être de différentes natures: on peut par exemple trouver des biais dans les styles d'écriture utilisés, mais aussi des biais bien plus problématiques portant sur le sexe ou l'origine ethnique des individus. Ces biais peuvent provenir de différentes sources, comme des annotateurs ayant créé les bases de données, ou bien du processus d'annotation lui-même. Ma thèse a pour sujet l'étude de ces biais et, en particulier, s'organise autour de la mitigation des effets des biais sur l'apprentissage des modèles de Traitement Automatique des Langues (TAL). J'ai notamment beaucoup travaillé avec les modèles pré-entraînés comme BERT, RoBERTa ou UnifiedQA qui sont devenus incontournables ces dernières années dans tous les domaines du TAL et qui, malgré leur large pré-entraînement, sont très sensibles à ces problèmes de biais. Ma thèse s'organise en trois volets, chacun présentant une façon différente de gérer les biais présents dans les données. Le premier volet présente une méthode permettant d'utiliser les biais présents dans une base de données de résumé automatique afin d'augmenter la variabilité et la contrôlabilité des résumés générés. Puis, dans le deuxième volet, je m'intéresse à la génération automatique d'une base de données d'entraînement pour la tâche de question-réponse à choix multiples. L'intérêt d'une telle méthode de génération est qu'elle permet de ne pas faire appel à des annotateurs et donc d'éliminer les biais venant de ceux-ci dans les données. Finalement, je m'intéresse à l'entraînement d'un modèle multitâche pour la reconnaissance optique de texte. Je montre dans ce dernier volet qu'il est possible d'augmenter les performances de nos modèles en utilisant différents types de données (manuscrites et tapuscrites) lors de leur entraînement
It is well known that deep learning models are sensitive to biases that may be present in the data used for training. These biases, which can be defined as useless or detrimental information for the task in question, can be of different kinds: one can, for example, find biases in the writing styles used, but also much more problematic biases relating to the sex or ethnic origin of individuals. These biases can come from different sources, such as annotators who created the databases, or from the annotation process itself. My thesis deals with the study of these biases and, in particular, is organized around the mitigation of the effects of biases on the training of Natural Language Processing (NLP) models. In particular, I have worked a lot with pre-trained models such as BERT, RoBERTa or UnifiedQA which have become essential in recent years in all areas of NLP and which, despite their extensive pre-training, are very sensitive to these bias problems.My thesis is organized in three parts, each presenting a different way of managing the biases present in the data. The first part presents a method allowing to use the biases present in an automatic summary database in order to increase the variability and the controllability of the generated summaries. Then, in the second part, I am interested in the automatic generation of a training dataset for the multiple-choice question-answering task. The advantage of such a generation method is that it makes it possible not to call on annotators and therefore to eliminate the biases coming from them in the data. Finally, I am interested in training a multitasking model for optical text recognition. I show in this last part that it is possible to increase the performance of our models by using different types of data (handwritten and typed) during their training
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Filhol, Michael. "Modèle descriptif des signes pour un traitement automatique des langues des signes". Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00300591.

Texto completo
Resumen
Les approches formelles de représentation des signes des langues des signes sont majoritairement paramétriques et nous montrons en quoi celles-ci ne sont pas suffisantes dans l'optique d'une utilisation informatique. Les plus fortes raisons sont le caractère ni nécessaire ni suffisant de l'ensemble de paramètres traditionnellement utilisé, leur nature fixe alors qu'un signe est dynamique et évolue au cours du temps, et le fait que les descriptions ne rendent pas compte de l'adaptabilité des signes décrits à différents contextes, pourtant à l'origine de leur réutilisabilité et de la force de concision des langues des signes. Nous proposons Zebedee, un modèle de description en séquence d'unités temporelles décrivant chacune un ensemble de contraintes nécessaires et suffisantes, appliquées à un squelette. L'espace de signation est vu comme un espace euclidien dans lequel toute construction géométrique annexe est possible. Les dépendances entre éléments des descriptions ou sur des valeurs contextuelles sont non seulement possibles mais pertinentes, et reposent sur des considérations à la fois articulatoires, cognitives et sémantiques. Nous donnons ensuite deux processus complémentaires d'évaluation : en informatique où nous discutons l'implantation de Zebedee dans une plateforme d'animation de signeur virtuel et son utilisation pour la diffusion d'informations en gare, et en linguistique où nous décrivons l'avantage d'une base de données et les nouvelles possibilités de requêtes offertes au linguiste. En perspectives, nous citons plusieurs domaines informatiques où Zebedee sera utile et plusieurs questionnements linguistiques actuels auxquels il offre des pistes de réponse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

AZILI, ABRAK SAIDA. "Une architecture logicielle pour un systeme de traitement automatique de la langue : cas du systeme criss-tal". Grenoble 2, 1991. http://www.theses.fr/1991GRE29048.

Texto completo
Resumen
Ce travail est une contribution en vue de la definition et mise en oeuvre de l'architecture astal pour le systeme criss-tal, systeme de traitement automatique du francais ecrit et dont l'application priviligiee est l'indexation automatique. Astal est concue comme une structure d'accueil souple et ouverte autour d'un noyau : le systeme de gestion d'objets (sgo). Une maquette du noyau (sgo) est realisee grace au langage de programmation logique prolog-criss. Des specificites en terme d'assistance de l'utilisateur sont egalement proposees pour astral
This work amis at contributing to the definition and setting of astal architecture for the criss-tal system wich is automatic processinf system for writen french used specially for automatic indexing. Astral is designed as a flexible and open frame structure around a nucleus : the object management system (oms). A prototype of the nucleux (oms) is realised using the prolog-criss programming language. Specificisties in t'erms of user help are also proposed for astal
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Charnois, Thierry. "Accès à l'information : vers une hybridation fouille de données et traitement automatique des langues". Habilitation à diriger des recherches, Université de Caen, 2011. http://tel.archives-ouvertes.fr/tel-00657919.

Texto completo
Resumen
Ce mémoire porte sur mes travaux de recherche en traitement automatique des langues (TAL) et en fouille de données textuelles. Il présente comment ces travaux s'organisent autour de la problématique de l'accès à l'information dans les textes. Notre démarche s'appuie sur la prise en compte de l'aspect sémantique de la langue sous forme de modélisation linguistique et de ressources linguistiques pour le développement d'applications. La méthodologie de l'accès à l'information est donc ici vue comme un accès au sens à partir d'une modélisation linguistique relative à l'application visée plutôt qu'un accès aux formes de surface comme l'utilisent par exemple actuellement les méthodes prédominantes des moteurs de recherche. En retour, la formalisation du modèle linguistique et son expérimentation sur corpus visent à améliorer notre connaissance des phénomènes traités et permettre un retour qualitatif, c'est-à-dire explicatif, sur le modèle. L'intérêt pour les méthodes de fouille fondées sur les motifs et la volonté de les intégrer au TAL -- par exemple, pour acquérir automatiquement des ressources linguistiques et alimenter à moindre coût les systèmes de TAL -- procède de la même démarche. Une telle combinaison vise d'une part à repenser la manière dont les processus de TAL peuvent tirer bénéfice de méthodes de fouille spécifiquement adaptées au texte, et d'autre part à renforcer les processus de fouille, en fonction des spécificités de la donnée textuelle, par une prise en compte d'informations de nature linguistique visant notamment à sélectionner l'information la plus pertinente.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Beust, Pierre. "Pour une démarche centrée sur l'utilisateur dans les ENT. Apport au Traitement Automatique des Langues". Habilitation à diriger des recherches, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-01070522.

Texto completo
Resumen
Notre problématique de recherche est ancrée en Traitement Automatique des Langues (TAL). Au sein du TAL, nous nous intéressons à la conception centrée-utilisateur d'environnements où les ressources et les processus mobilisés sont avant tout construits autour et en fonction des attentes et capacités interprétatives de l'utilisateur. La conception centrée-utilisateur n'est pas une posture théorique mais c'est déjà une réalité dans des applications utilisées quotidiennement. C'est le cas des architectures Web 2.0 comme c'est également le cas des Environnements Numériques de Travail (ENT). Notre recherche vise à analyser, concevoir et expérimenter des applications centrées-utilisateur dans les ENT où les capacités interprétatives s'enrichissent des éléments d'interaction dans l'environnement. Ce faisant nous cherchons à faire enrichir le TAL d'interconnexions avec les Interactions Homme-Machine et les EIAH (Environnements Informatiques pour l'Apprentissage Humain). La problématique de l'interprétation est ici omniprésente et elle nous incite à tirer des ponts entre disciplines : entre l'informatique et la linguistique, plus précisément le courant de la sémantique interprétative et entre l'informatique et les sciences cognitives, plus précisément le courant de l'énaction. L'interprétation dans un environnement numérique n'est pas dissociable d'un couplage personne-système et de l'action de l'utilisateur dans cet environnement. Il en découle que nos objets d'étude sont principalement des usages et même des contournements d'usages vertueux par sérendipité. Les perspectives de recherche ouvertes s'orientent donc naturellement vers une mise en valeur de " l'agir interprétatif " dans les environnements numériques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Libros sobre el tema "TAL (Traitement Automatique des Langues)"

1

Bouillon, Pierrette. Traitement automatique des langues naturelles. Paris: Aupelf-Uref, 1998.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Namer, Fiammetta. Morphologie, lexique et traitement automatique des langues: L'analyseur DériF. Paris: Hermès science publications, 2009.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Biskri, Ismaïl y Adel Jebali. Traitement automatique des langues naturelles: De l'analyse à l'application. Paris: Hermès science publications, 2011.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Claude, Muller, Silberztein Max, Royauté Jean, Vitas Duško y Journées INTEX (5th : 2002 : Marseille, France), eds. INTEX pour la linguistique et le traitement automatique des langues. Besançon: Presses universitaires de Franche-Comté, 2004.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Degremont, Jean-François. Ethnométhodologie et innovation technologique: Le cas du traitement automatique des langues naturelles. Paris: Université de Paris 7, 1989.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Mauger, Serge. L'interprétation des messages énigmatiques: Essai de sémantique et de traitement automatique des langues. Lille: A.N.R.T. Université de Lille III, 1999.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Blache, Philippe. Les grammaires de propriétés: Des contraintes pour le traitement automatique des langues naturelles. Paris: Hermès science publications, 2001.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Lallich-Boidin, Geneviève. Recherche d'information et traitement de la langue: Fondements linguistiques et applications. Villeurbanne: Presses de l'Enssib, 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Lallich-Boidin, Geneviève. Recherche d'information et traitement de la langue: Fondements linguistiques et applications. Villeurbanne: Presses de l'ENSSIB, 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Powers, David M. W. Machine learning of natural language. London: Springer-Verlag, 1989.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Más fuentes

Capítulos de libros sobre el tema "TAL (Traitement Automatique des Langues)"

1

Sagot, Benoît. "Construction de ressources lexicales pour le traitement automatique des langues". En Lingvisticæ Investigationes Supplementa, 217–54. Amsterdam: John Benjamins Publishing Company, 2013. http://dx.doi.org/10.1075/lis.30.07sag.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Cifuentes, Natalia Soler, Aude Grezka y Jorge García Flores. "Phraséologie et noms de marque". En IVITRA Research in Linguistics and Literature, 1–19. Amsterdam: John Benjamins Publishing Company, 2024. http://dx.doi.org/10.1075/ivitra.43.01cif.

Texto completo
Resumen
Dans les médias, dans la rue, sur le net… Les marques sont omniprésentes et font partie de notre quotidien. Elles quittent le milieu marchand pour intégrer l’espace social et, à terme, elles s’insèrent dans notre lexique courant. L'objectif de notre étude est de bâtir une base de données franco-espagnole d’unités phraséologiques avec des noms de marque afin d’analyser et de comparer les référents culturels dans les deux langues, à la recherche d'équivalents. Nous montrerons les implications linguistiques et culturelles de ces unités phraséologiques marginales ainsi que la méthodologie utilisée pour extraire de manière semi-automatique ces expressions grâce aux technologies de traitement automatique du langage. Cette étude s’inscrit dans Phrasmark, un projet pluridisciplinaire alliant phraséologie et noms de marque.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Chaumartin, François-Régis y Pirmin Lemberger. "3. La représentation du sens". En Le traitement automatique des langues, 81–121. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0081.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Chaumartin, François-Régis y Pirmin Lemberger. "2. Les bases de la linguistique informatique". En Le traitement automatique des langues, 63–80. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0063.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Chaumartin, François-Régis y Pirmin Lemberger. "5. L’approche statistique". En Le traitement automatique des langues, 173–226. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0173.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Chaumartin, François-Régis y Pirmin Lemberger. "6. L’art difficile de la conversation artificielle". En Le traitement automatique des langues, 227–44. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0227.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Chaumartin, François-Régis y Pirmin Lemberger. "7. Les étapes d’un projet". En Le traitement automatique des langues, 245–84. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0245.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Chaumartin, François-Régis y Pirmin Lemberger. "8. Perspectives et problèmes ouverts". En Le traitement automatique des langues, 285–94. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0285.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Chaumartin, François-Régis y Pirmin Lemberger. "4. Les principales tâches du NLP". En Le traitement automatique des langues, 123–72. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0123.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Chaumartin, François-Régis y Pirmin Lemberger. "1. Les applications et usages du NLP". En Le traitement automatique des langues, 1–62. Dunod, 2020. http://dx.doi.org/10.3917/dunod.chaum.2020.01.0001.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Actas de conferencias sobre el tema "TAL (Traitement Automatique des Langues)"

1

Raynal, Céline, Vanessa Andreani, Dominique Vasseur, Zakarya Chami y Eric Hermann. "Apport du Traitement Automatique des Langues pour la catégorisation de retours d'expérience". En Congrès Lambda Mu 20 de Maîtrise des Risques et de Sûreté de Fonctionnement, 11-13 Octobre 2016, Saint Malo, France. IMdR, 2016. http://dx.doi.org/10.4267/2042/61744.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Andreani, V., E. Hermann, C. Raynal y E. Carayon. "Apport des outils de traitement automatique des langues pour l’analyse de textes procéduraux". En Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56074.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía