To see the other types of publications on this topic, follow the link: Évaluation de la traduction automatique.

Dissertations / Theses on the topic 'Évaluation de la traduction automatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Évaluation de la traduction automatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rémillard, Judith. "Utilité et utilisation de la traduction automatique dans l’environnement de traduction : une évaluation axée sur les traducteurs professionnels." Thesis, Université d'Ottawa / University of Ottawa, 2018. http://hdl.handle.net/10393/37784.

Full text
Abstract:
L’arrivée de la traduction automatique (TA) bouleverse les pratiques dans l’industrie de la traduction et soulève par le fait même des questions sur l’utilité et l’utilisation de cette technologie. Puisque de nombreuses études ont déjà porté sur son utilisation dans un contexte où elle est imposée aux traducteurs, nous avons choisi d’adopter la perspective toute particulière des traducteurs pour examiner son utilité et son utilisation volontaire dans l’environnement de traduction (ET). Notre recherche visait à répondre à trois grandes questions : les traducteurs utilisent-ils la TA dans leurs pratiques? Les traducteurs croient-ils que les données de sortie sont utiles et utilisables? Les traducteurs utilisent-ils concrètement ces données de sortie dans le processus de traduction? Pour répondre à ces questions, nous avons d’abord diffusé un sondage à grande échelle afin de mesurer l’utilisation de la TA en tant qu’outil, de recueillir des données sur le profil des répondants et d’évaluer leur perception d’utilité par rapport aux données de sortie et aux divers types de phénomènes que nous avions identifiés au préalable avec l’aide de deux traducteurs professionnels. Ensuite, nous avons réalisé une expérience avec d’autres traducteurs professionnels où nous leur avons demandé de procéder à la traduction de courts segments et avons examiné s’ils utilisaient ou non ces données de sortie pour produire leur traduction. Notre analyse était fondée sur le principe que, dans un contexte d’utilisation volontaire, l’utilisation d’une donnée de sortie permet d’induire une perception d’utilité et d’examiner, par le fait même, l’utilité de la TA. Dans l’ensemble, nous avons trouvé que la TA n’est habituellement pas utilisée de façon volontaire, que les perceptions des traducteurs sont peu favorables à une telle utilisation, que la perception des traducteurs quant à l’utilité des données de sortie est aussi plutôt négative, mais que les données de sortie semblent être beaucoup plus utiles et utilisables que ce que ne pourraient le croire les traducteurs, car ils les ont généralement utilisées dans le processus de traduction. Nous avons aussi examiné les facteurs déterminants de l’utilité et de l’utilisation de la TA et des données de sortie.
APA, Harvard, Vancouver, ISO, and other styles
2

Raybaud, Sylvain. "De l'utilisation de mesures de confiance en traduction automatique : évaluation, post-édition et application à la traduction de la parole." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0260/document.

Full text
Abstract:
Cette thèse de doctorat aborde les problématiques de l'estimation de confiance pour la traduction automatique, et de la traduction automatique statistique de la parole spontanée à grand vocabulaire. J'y propose une formalisation du problème d'estimation de confiance, et aborde expérimentalement le problème sous le paradigme de la classification et régression multivariée. Je propose une évaluation des performances des différentes méthodes évoquées, présente les résultats obtenus lors d'une campagne d'évaluation internationale et propose une application à la post-édition par des experts de documents traduits automatiquement. J'aborde ensuite le problème de la traduction automatique de la parole. Après avoir passé en revue les spécificités du medium oral et les défis particuliers qu'il soulève, je propose des méthodes originales pour y répondre, utilisant notamment les réseaux de confusion phonétiques, les mesures de confiances et des techniques de segmentation de la parole. Je montre finalement que le prototype propose rivalise avec des systèmes état de l'art à la conception plus classique
In this thesis I shall deal with the issues of confidence estimation for machine translation and statistical machine translation of large vocabulary spontaneous speech translation. I shall first formalize the problem of confidence estimation. I present experiments under the paradigm of multivariate classification and regression. I review the performances yielded by different techniques, present the results obtained during the WMT2012 internation evaluation campaign and give the details of an application to post edition of automatically translated documents. I then deal with the issue of speech translation. After going into the details of what makes it a very specific and particularly challenging problem, I present original methods to partially solve it, by using phonetic confusion networks, confidence estimation techniques and speech segmentation. I show that the prototype I developped yields performances comparable to state-of-the-art of more standard design
APA, Harvard, Vancouver, ISO, and other styles
3

Nikoulina, Vassilina. "Modèle de traduction statistique à fragments enrichi par la syntaxe." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00996317.

Full text
Abstract:
Les modèles de traduction automatique probabiliste traditionnel ignorent la structure syntaxique des phrases source et cible. Le choix des unités lexicales cible et de leur ordre est contrôlé uniquement par des statistiques de surface sur le corpus d'entraînement. La connaissance de la structure linguistique peut-être bénéfique, car elle fournit des informations génériques compensant la pauvreté des données directement observables. Nos travaux ont pour but d'étudier l'impact des informations syntaxiques sur un modèle de traduction probabiliste de base, fondé sur des fragments, dans le cadre d'un analyseur dépendanciel particulier, XIP, dont la performance est bien adaptée à nos besoins. Nous étudions d'abord l'intégration des informations syntaxiques dans un but de reclassement des traductions proposées par le modèle de base? Nous définissons un ensemble de traits mesurant la similarité entre les structures de dépendance source et cible, et des traits de cohérence linguistique (basés sur l'analyse cible). L'apprentissage automatique des poids de ces traits permet de détecter leurs importance. L'évaluation manuelle des différents modèles de reclassement nous a permis de montrer le potentiel de ces traits pour améliorer la qualité des traductions proposées par le modèle de base. Ensuite, nous avons proposé un modèle pour réduire la taille du graphe des hypothèses exploré par le modèle de base à l'aide de connaissances sur la structure syntaxique source. Nous avons également proposé une procédure de décomposition d'une phrase source initiale en sous-phrases pour simplifier la tâche de traduction. Les évaluations initiales de ces modèles se sont montrées prometteuses.
APA, Harvard, Vancouver, ISO, and other styles
4

Gouirand, Olivier. "Méthodologie de l'évaluation de la traduction assistée par ordinateur : application au traducteur professionnel en français-anglais et vice versa." Toulouse 2, 2005. http://www.theses.fr/2005TOU20069.

Full text
Abstract:
Cette recherche a pour objectif de jeter les bases d'une évaluation essentiellement linguistique de la traduction assistée par ordinateur, restreinte à l'usage que peuvent en faire les traducteurs professionnels indépendants sur les paires de langues français-anglais. Au-delà de la définition de la spécificité de ces derniers, jamais effectuée auparavant, ainsi que l'étude critique et systématique des nombreuses approches de l'évaluation, a été menée une expérience d'analyse de corpus ayant permis de confirmer l'étroite dépendance de la sémantique et de la syntaxe, celle-ci répondant à une distribution catégorielle proche de la loi sur les chiffres significatifs. Les invariants obtenus par voie statistique ont ensuite été rapprochés de primitives syntaxiques et conceptuelles d'inspiration continuiste et connexionniste pour former un système d'analyse dynamique de la qualité linguistique en traduction automatique dont la finalité ultime est de l'aider à dépasser la barrière du sens
This research aims at laying the foundations of an essentially linguistic evaluation of computer-aided translation limited to its use by independent translators on French-English language pairs. More than defining the specificities of the former - which had never been done before - and carrying out a critical and systematic study of the numerous approaches to evaluation, an experiment was conducted on corpora, confirming the tight dependency of semantics and syntax, the latter matching a categorial distribution close to the law on anomalous numbers. The invariants obtained in a statistical fashion were then compared to syntactic and conceptual primitives in the continuity and connexionist paradigm in view to forming a dynamic analysis system for linguistic quality in machine translation, the aim of which is helping it to break the semantic barrier
APA, Harvard, Vancouver, ISO, and other styles
5

Bawden, Rachel. "Going beyond the sentence : Contextual Machine Translation of Dialogue." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS524/document.

Full text
Abstract:
Les systèmes de traduction automatique (TA) ont fait des progrès considérables ces dernières années. La majorité d'entre eux reposent pourtant sur l'hypothèse que les phrases peuvent être traduites indépendamment les unes des autres. Ces modèles de traduction ne s'appuient que sur les informations contenues dans la phrase à traduire. Ils n'ont accès ni aux informations présentes dans les phrases environnantes ni aux informations que pourrait fournir le contexte dans lequel ces phrases ont été produites. La TA contextuelle a pour objectif de dépasser cette limitation en explorant différentes méthodes d'intégration du contexte extra-phrastique dans le processus de traduction. Les phrases environnantes (contexte linguistique) et le contexte de production des énoncés (contexte extra-linguistique) peuvent fournir des informations cruciales pour la traduction, notamment pour la prise en compte des phénomènes discursifs et des mécanismes référentiels. La prise en compte du contexte est toutefois un défi pour la traduction automatique. Évaluer la capacité de telles stratégies à prendre réellement en compte le contexte et à améliorer ainsi la qualité de la traduction est également un problème délicat, les métriques d'évaluation usuelles étant pour cela inadaptées voire trompeuses. Dans cette thèse, nous proposons plusieurs stratégies pour intégrer le contexte, tant linguistique qu'extra-linguistique, dans le processus de traduction. Nos expériences s'appuient sur des méthodes d'évaluation et des jeux de données que nous avons développés spécifiquement à cette fin. Nous explorons différents types de stratégies: les stratégies par pré-traitement, où l'on utilise le contexte pour désambiguïser les données fournies en entrée aux modèles ; les stratégies par post-traitement, où l'on utilise le contexte pour modifier la sortie d'un modèle non-contextuel, et les stratégies où l'on exploite le contexte pendant la traduction proprement dite. Nous nous penchons sur de multiples phénomènes contextuels, et notamment sur la traduction des pronoms anaphoriques, la désambiguïsation lexicale, la cohésion lexicale et l'adaptation à des informations extra-linguistiques telles que l'âge ou le genre du locuteur. Nos expériences, qui relèvent pour certaines de la TA statistique et pour d'autres de la TA neuronale, concernent principalement la traduction de l'anglais vers le français, avec un intérêt particulier pour la traduction de dialogues spontanés
While huge progress has been made in machine translation (MT) in recent years, the majority of MT systems still rely on the assumption that sentences can be translated in isolation. The result is that these MT models only have access to context within the current sentence; context from other sentences in the same text and information relevant to the scenario in which they are produced remain out of reach. The aim of contextual MT is to overcome this limitation by providing ways of integrating extra-sentential context into the translation process. Context, concerning the other sentences in the text (linguistic context) and the scenario in which the text is produced (extra-linguistic context), is important for a variety of cases, such as discourse-level and other referential phenomena. Successfully taking context into account in translation is challenging. Evaluating such strategies on their capacity to exploit context is also a challenge, standard evaluation metrics being inadequate and even misleading when it comes to assessing such improvement in contextual MT. In this thesis, we propose a range of strategies to integrate both extra-linguistic and linguistic context into the translation process. We accompany our experiments with specifically designed evaluation methods, including new test sets and corpora. Our contextual strategies include pre-processing strategies designed to disambiguate the data on which MT models are trained, post-processing strategies to integrate context by post-editing MT outputs and strategies in which context is exploited during translation proper. We cover a range of different context-dependent phenomena, including anaphoric pronoun translation, lexical disambiguation, lexical cohesion and adaptation to properties of the scenario such as speaker gender and age. Our experiments for both phrase-based statistical MT and neural MT are applied in particular to the translation of English to French and focus specifically on the translation of informal written dialogues
APA, Harvard, Vancouver, ISO, and other styles
6

Shah, Ritesh. "SUFT-1, un système pour aider à comprendre les tweets spontanés multilingues et à commutation de code en langues étrangères : expérimentation et évaluation sur les tweets indiens et japonais." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM062/document.

Full text
Abstract:
Alors que Twitter évolue vers un outil omniprésent de diffusion de l'information, la compréhension des tweets en langues étrangères devient un problème important et difficile. En raison de la nature intrinsèquement à commutation de code, discrète et bruitée des tweets, la traduction automatique (MT) à l'état de l'art n'est pas une option viable (Farzindar & Inkpen, 2015). En effet, au moins pour le hindi et le japonais, nous observons que le pourcentage de tweets « compréhensibles » passe de 80% pour les locuteurs natifs à moins de 30% pour les lecteurs monolingues cible (anglais ou français) utilisant Google Translate. Notre hypothèse de départ est qu'il devrait être possible de créer des outils génériques, permettant aux étrangers de comprendre au moins 70% des « tweets locaux », en utilisant une interface polyvalente de « lecture active » (LA, AR en anglais) tout en déterminant simultanément le pourcentage de tweets compréhensibles en-dessous duquel un tel système serait jugé inutile par les utilisateurs prévus.Nous avons donc spécifié un « SUFT » (système d'aide à la compréhension des tweets étrangers) générique, et mis en œuvre SUFT-1, un système interactif à mise en page multiple basé sur la LA, et facilement configurable en ajoutant des dictionnaires, des modules morphologiques et des plugins de TA. Il est capable d'accéder à plusieurs dictionnaires pour chaque langue source et fournit une interface d'évaluation. Pour les évaluations, nous introduisons une mesure liée à la tâche induisant un coût négligeable, et une méthodologie visant à permettre une « évaluation continue sur des données ouvertes », par opposition aux mesures classiques basées sur des jeux de test liés à des ensembles d'apprentissage fermés. Nous proposons de combiner le taux de compréhensibilité et le temps de décision de compréhensibilité comme une mesure de qualité à deux volets, subjectif et objectif, et de vérifier expérimentalement qu'une présentation de type lecture active, basée sur un dictionnaire, peut effectivement aider à comprendre les tweets mieux que les systèmes de TA disponibles.En plus de rassembler diverses ressources lexicales, nous avons construit une grande ressource de "formes de mots" apparaissant dans les tweets indiens, avec leurs analyses morphologiques (à savoir 163221 formes de mots hindi dérivées de 68788 lemmes et 72312 formes de mots marathi dérivées de 6026 lemmes) pour créer un analyseur morphologique multilingue spécialisé pour les tweets, capable de gérer des tweets à commutation de code, de calculer des traits unifiés, et de présenter un tweet en lui attachant un graphe de LA à partir duquel des lecteurs étrangers peuvent extraire intuitivement une signification plausible, s'il y en a une
As Twitter evolves into a ubiquitous information dissemination tool, understanding tweets in foreign languages becomes an important and difficult problem. Because of the inherent code-mixed, disfluent and noisy nature of tweets, state-of-the-art Machine Translation (MT) is not a viable option (Farzindar & Inkpen, 2015). Indeed, at least for Hindi and Japanese, we observe that the percentage of "understandable" tweets falls from 80% for natives to below 30% for target (English or French) monolingual readers using Google Translate. Our starting hypothesis is that it should be possible to build generic tools, which would enable foreigners to make sense of at least 70% of “native tweets”, using a versatile “active reading” (AR) interface, while simultaneously determining the percentage of understandable tweets under which such a system would be deemed useless by intended users.We have thus specified a generic "SUFT" (System for Helping Understand Tweets), and implemented SUFT-1, an interactive multi-layout system based on AR, and easily configurable by adding dictionaries, morphological modules, and MT plugins. It is capable of accessing multiple dictionaries for each source language and provides an evaluation interface. For evaluations, we introduce a task-related measure inducing a negligible cost, and a methodology aimed at enabling a « continuous evaluation on open data », as opposed to classical measures based on test sets related to closed learning sets. We propose to combine understandability ratio and understandability decision time as a two-pronged quality measure, one subjective and the other objective, and experimentally ascertain that a dictionary-based active reading presentation can indeed help understand tweets better than available MT systems.In addition to gathering various lexical resources, we constructed a large resource of "word-forms" appearing in Indian tweets with their morphological analyses (viz. 163221 Hindi word-forms from 68788 lemmas and 72312 Marathi word-forms from 6026 lemmas) for creating a multilingual morphological analyzer specialized to tweets, which can handle code-mixed tweets, compute unified features, and present a tweet with an attached AR graph from which foreign readers can intuitively extract a plausible meaning, if any
APA, Harvard, Vancouver, ISO, and other styles
7

Denoual, Etienne. "Méthodes en caractères pour le traitement automatique des langues." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00107056.

Full text
Abstract:
Le traitement automatique des langues fondé sur les données a récemment assimilé de nombreuses techniques et perspectives héritées du domaine de la reconnaissance de parole. Parmi celles-ci, les méthodes qui utilisent le mot comme unité de traitement sont difficilement transposables aux systèmes d'écriture sans séparateur orthographique, et ne sont donc pas multilingues.
Le présent travail promeut l'utilisation de méthodes travaillant au niveau du signal de l'écrit: le caractère, unité immédiatement accessible dans toute langue informatisée, permet de se passer de segmentation en mots, étape actuellement incontournable pour des langues comme le chinois ou le japonais.

Dans un premier temps, nous transposons et appliquons en caractères une méthode bien établie d'évaluation objective de la traduction automatique, BLEU.
Les résultats encourageants nous permettent dans un deuxième temps d'aborder d'autres tâches de traitement des données linguistiques. Tout d'abord, le filtrage de la grammaticalité; ensuite, la caractérisation de la similarité et de l'homogénéité des ressources linguistiques. Dans toutes ces tâches, le traitement en caractères obtient des résultats acceptables, et comparables à ceux obtenus en mots.
Dans un troisième temps, nous abordons des tâches de production de données linguistiques: le calcul analogique sur les chaines de caractères permet la production de paraphrases aussi bien que la traduction automatique.
Ce travail montre qu'on peut construire un système complet de traduction automatique ne nécessitant pas de segmentation, a fortiori pour traiter des langues sans séparateur orthographique.
APA, Harvard, Vancouver, ISO, and other styles
8

Ahmed, Assowe Houssein. "Construction et évaluation pour la TA d'un corpus journalistique bilingue : application au français-somali." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM019/document.

Full text
Abstract:
Dans le cadre des travaux en cours pour informatiser un grand nombre de langues « peu dotées », en particulier celles de l’espace francophone, nous avons créé un système de traduction automatique français-somali dédié à un sous-langage journalistique, permettant d’obtenir des traductions de qualité, à partir d’un corpus bilingue construit par post-édition des résultats de Google Translate (GT), à destination des populations somalophones et non francophones de la Corne de l’Afrique. Pour cela, nous avons constitué le tout premier corpus parallèle français-somali de qualité, comprenant à ce jour 98 912 mots (environ 400 pages standard) et 10 669 segments. Ce dernier constitue’est un corpus aligné, et de très bonne qualité, car nous l’avons construit en post-éditant les pré-traductions de GT, qui combine pour cela avec une combinaison de lason système de TA français-anglais et système de TA anglais-somali. Il Ce corpus a également fait l’objet d’une évaluation de la part depar 9 annotateurs bilingues qui ont donné une note score de qualité à chaque segment du corpus, et corrigé éventuellement notre post-édition. À partir de ce corpus, en croissance, nous avons construit plusieurs versions successives d’un système de Traduction Automatique à base de fragments (PBMT), MosesLIG-fr-so, qui s’est révélé meilleur que GoogleTranslate GT sur ce couple de langues et ce sous-langage, en termes de mesure BLEU et du temps de post-édition. Nous avons fait également une première expérience de traduction automatique neuronale français-somali en utilisant OpenNMT, de façon à améliorer les résultats de la TA sans aboutir à des temps de calcul prohibitifs, tant durant l’entraînement que durant le décodage.D’autre part, nous avons mis en place une iMAG (passerelle interactive d’accès multilingue) qui permet à des internautes somaliens non francophones du continent d’accéder en somali à l’édition en ligne du journal « La Nation de Djibouti ». Les segments (phrases ou titres) prétraduits automatiquement par notre un système de TA fr-so en ligne disponible peuvent être post-édités et notés (sur sur une échelle de 1 à 20) par les lecteurs eux-mêmes, de façon à améliorer le système par apprentissage incrémental, de la même façon que ce qui a été fait pour le système français-chinois (PBMT) créé par [Wang, 2015]
As part of ongoing work to computerize a large number of "poorly endowed" languages, especially those in the French-speaking world, we have created a French-Somali machine translation system dedicated to a journalistic sub-language, allowing to obtain quality translations from a bilingual body built by post-editing of GoogleTranslate results for the Somali and non-French speaking populations of the Horn of Africa. For this, we have created the very first quality French-Somali parallel corpus, comprising to date 98,912 words (about 400 standard pages) and 10,669 segments. The latter is an aligned corpus of very good quality, because we built in by post-editions editing pre-translations of produced by GT, which uses with a combination of the its French-English and English-Somali MT language pairs. It That corpus was also evaluated by 9 bilingual annotators who gave assigned a quality note score to each segment of the corpus and corrected our post-editing. From Using this growing body corpus as training corpusof work, we have built several successive versions of a MosesLIG-fr-so fragmented statistical Phrase-Based Automatic Machine Translation System (PBMT), which has proven to be better than GoogleTranslate on this language pair and this sub-language, in terms BLEU and of post-editing time. We also did used OpenNMT to build a first French-Somali neural automatic translationMT system and experiment it.in order to improve the results of TA without leading to prohibitive calculation times, both during training and during decoding.On the other hand, we have set up an iMAG (multilingual interactive access gateway) that allows non-French-speaking Somali surfers on the continent to access the online edition of the newspaper "La Nation de Djibouti" in Somali. The segments (sentences or titles), pre- automatically translated automatically by our any available fr-so MT system, can be post-edited and rated (out on a 1 to of 20scale) by the readers themselves, so as to improve the system by incremental learning, in the same way as the has been done before for the French-Chinese PBMT system. (PBMT) created by [Wang, 2015]
APA, Harvard, Vancouver, ISO, and other styles
9

Potet, Marion. "Vers l'intégration de post-éditions d'utilisateurs pour améliorer les systèmes de traduction automatiques probabilistes." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00995104.

Full text
Abstract:
Les technologies de traduction automatique existantes sont à présent vues comme une approche prometteuse pour aider à produire des traductions de façon efficace et à coût réduit. Cependant, l'état de l'art actuel ne permet pas encore une automatisation complète du processus et la coopération homme/machine reste indispensable pour produire des résultats de qualité. Une pratique usuelle consiste à post-éditer les résultats fournis par le système, c'est-à-dire effectuer une vérification manuelle et, si nécessaire, une correction des sorties erronées du système. Ce travail de post-édition effectué par les utilisateurs sur les résultats de traduction automatique constitue une source de données précieuses pour l'analyse et l'adaptation des systèmes. La problématique abordée dans nos travaux s'intéresse à développer une approche capable de tirer avantage de ces retro-actions (ou post-éditions) d'utilisateurs pour améliorer, en retour, les systèmes de traduction automatique. Les expérimentations menées visent à exploiter un corpus d'environ 10 000 hypothèses de traduction d'un système probabiliste de référence, post-éditées par des volontaires, par le biais d'une plateforme en ligne. Les résultats des premières expériences intégrant les post-éditions, dans le modèle de traduction d'une part, et par post-édition automatique statistique d'autre part, nous ont permis d'évaluer la complexité de la tâche. Une étude plus approfondie des systèmes de post-éditions statistique nous a permis d'évaluer l'utilisabilité de tels systèmes ainsi que les apports et limites de l'approche. Nous montrons aussi que les post-éditions collectées peuvent être utilisées avec succès pour estimer la confiance à accorder à un résultat de traduction automatique. Les résultats de nos travaux montrent la difficulté mais aussi le potentiel de l'utilisation de post-éditions d'hypothèses de traduction automatiques comme source d'information pour améliorer la qualité des systèmes probabilistes actuels.
APA, Harvard, Vancouver, ISO, and other styles
10

Negrichi, Khalil. "Approche intégrée pour l'analyse de risques et l'évaluation des performances : application aux services de stérilisation hospitalière." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI105/document.

Full text
Abstract:
Les services de stérilisation sont des lieux de production de soins caractérisés par une multitude d’activités et situations auxquelles ils sont confrontés. En outre, les services de stérilisation doivent assurer leurs missions dans un environnement caractérisé par la présence d’une variété de risques. Les risques présents dans ces milieux peuvent aller des pannes des équipements jusqu’aux contaminations et transmission des maladies nosocomiales. Ces services sont aussi tenus de garder un niveau de performances satisfaisant pour assurer la continuité des soins dans les blocs opératoires.Pour aider ces services dans leur quête d'un système performant, capable d’évoluer dans un environnement à haut niveau de risques, nous nous intéressons dans ce travail de recherche au développement d’une approche intégrée pour l’analyse de risques et l’évaluation des performances. Ce travail s’intègre dans un cadre collaboratif entre le laboratoire G-SCOP et le service de stérilisation du CHU de Grenoble, terrain d’étude choisi pour mettre en œuvre l’approche proposée.L'approche que nous proposons se déroule en plusieurs étapes: tout d’abord, suite à une comparaison entre les méthodes de gestion des risques, nous nous sommes orientés vers l’approche pilotée par modèle, dénommée FIS (Fonction Interaction Structure). En nous basant sur FIS, nous avons développé un modèle de risque dans ce service de stérilisation, décrivant à la fois les fonctions, les ressources permettant la réalisation de ces fonctions ainsi que les différents risques qui peuvent être rencontrés. Dans un deuxième temps, nous avons représenté le comportement dynamique du modèle de risques obtenu. Ce modèle dynamique permet de simuler le comportement du service de stérilisation et le voir évoluer dans les situations normales de fonctionnement et les situations de risques. Pour ce faire, nous avons introduit une nouvelle classe de réseau de Petri appelée réseau de Petri PTPS (Predicate-Transition, Prioritized, Synchronous) permettant de représenter et simuler le comportement dynamique du modèle FIS. Par la suite, nous avons automatisé le passage entre le modèle de risque et le modèle dynamique. Cette automatisation est effectuée par un ensemble d’algorithmes de traduction, capables de convertir automatiquement le modèle FIS et le modèle de simulation en réseau de Petri PTPS.Cette approche a donné lieu à un outil de modélisation et de simulation en mode dégradé, appelé SIM-RISK. Nous avons également montré l’utilité de cet outil sur des exemples inspirés des différents risques rencontrés dans le service de stérilisation
Sterilization services are vulnerable to risks, due to the contagious nature of their environment and to the degradation that risks can cause to their performances and to the safety of patients and staff. The risks in these facilities can range from equipment failure to the transmission of nosocomial infections and diseases. In this kind of high risk environment, these services are also required to maintain an adequate level of performance to ensure continuity of care in operating theaters.We focus in this research on the development of an integrated approach for risk analysis and performance assessment. This work is part of a collaborative work between the G-SCOP laboratory and the sterilization service of the University Hospital of Grenoble, which was the case study chosen to implement the proposed approach.The approach we propose is conducted in several steps: first, following a comparison of the risk analysis methods, we have chosen a model driven approach called FIS (Function Interaction Structure). Based on FIS, we have developed a risk model of Grenoble University Hospital sterilization service. This model describes the functions, the resources to achieve these functions as well as the various risks that may be encountered. Secondly, we introduced a new view to the FIS model dedicated to describe the dynamic behaviour of the resulting risk model.This dynamic model can simulate the behaviour of the sterilization service in normal situations of operations and risk situations.To do this, we have introduced a new Petri Net class called PTPS (Predicate-Transition, Prioritized, Synchronous) Petri Net to represent and simulate the dynamic behaviour of the FIS model. Subsequently, we automated the switching between the risk model and the dynamic model. This automation is performed by a set of translation algorithms capable of automatically converting the FIS model to a PTPS Petri Net simulation model .This approach resulted in a modelling and simulation tool in degraded mode called SIM-RISK. We also showed the usefulness of this tool by some examples based on different risks encountered in the sterilization service
APA, Harvard, Vancouver, ISO, and other styles
11

Wang, Lingxiao. "Outils et environnements pour l'amélioration incrémentale, la post-édition contributive et l'évaluation continue de systèmes de TA. Application à la TA français-chinois." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM057/document.

Full text
Abstract:
La thèse, effectuée dans le cadre d'une bourse CIFRE, et prolongeant un des aspects du projet ANR Traouiero, aborde d'abord la production, l'extension et l'amélioration de corpus multilingues par traduction automatique (TA) et post-édition contributive (PE). Des améliorations fonctionnelles et techniques ont été apportées aux logiciels SECTra et iMAG, et on a progressé vers une définition générique de la structure d'un corpus multilingue, multi-annoté et multimédia, pouvant contenir des documents classiques aussi bien que des pseudo-documents et des méta-segments. Cette partie a été validée par la création de bons corpus bilingues français-chinois, l'un d'eux résultant de la toute première application à la traduction littéraire.Une seconde partie, initialement motivée par un besoin industriel, a consisté à construire des systèmes de TA de type Moses, spécialisés à des sous-langages, en français↔chinois, et à étudier la façon de les améliorer dans le cadre d'un usage en continu avec possibilité de PE. Dans le cadre d'un projet interne sur le site du LIG et d'un projet (TABE-FC) en coopération avec l'université de Xiamen, on a pu démontrer l'intérêt de l'apprentissage incrémental en TA statistique, sous certaines conditions, grâce à une expérience qui s'est étalée sur toute la thèse.La troisième partie est consacrée à des contributions et mises à disposition de supports informatiques et de ressources. Les principales se placent dans le cadre du projet COST MUMIA de l'EU et résultent de l'exploitation de la collection CLEF-2011 de 1,5 M de brevets partiellement multilingues. De grosses mémoires de traductions en ont été extraites (17,5 M segments), 3 systèmes de TA en ont été tirés, et un site Web de support à la RI multilingue sur les brevets a été construit. On décrit aussi la réalisation en cours de JianDan-eval, une plate-forme de construction, déploiement et évaluation de systèmes de TA
The thesis, conducted as part of a CIFRE grant, and extending one of the aspects of the ANR project Traouiero, first addresses the production, extension and improvement of multilingual corpora by machine translation (MT) and contributory post-editing (PE). Functional and technical improvements have been made to the SECTra and iMAG software produced in previous PhD theses (P.C. Huynh, H.T. Nguyen), and progress has ben made toward a generic definition of the structure of a multilingual, annotated and multi-media corpus that may contain usual documents as well as pseudo-documents (such as Web pages) and meta-segments. This part has been validated by the creation of good French-Chinese bilingual corpora, one of them resulting from the first application to literary translation (a Jules Verne novel).A second part, initially motivated by an industrial need, has consisted in building MT systems of Moses type, specialized to sub-languages, for french↔chinese, and to study how to improve them in the context of a continuous use with the possibility of PE. As part of an internal project on the LIG website and of a project (TABE-FC) in cooperation with Xiamen University, it has been possible to demonstrate the value of incremental learning in statistical MT, under certain conditions, through an experiment that spread over the whole thesis.The third part of the thesis is devoted to contributing and making available computer tools and resources. The main ones are related to the COST project MUMIA of the EU and result from the exploitation of the CLEF-2011 collection of 1.5 million partially multilingual patents. Large translation memories have been extracted from it (17.5 million segments), 3 MT systems have been produced (de-fr, en-fr, fr-de), and a website of support for multilingual IR on patents has been constructed. One also describes the on-going implementation of JianDan-eval, a platform for building, deploying and evaluating MT systems
APA, Harvard, Vancouver, ISO, and other styles
12

Cennamo, Ilaria. "Enseigner la traduction humaine en s'inspirant de la traduction automatique." Thesis, Brest, 2015. http://www.theses.fr/2015BRES0021/document.

Full text
Abstract:
Notre projet de recherche concerne l’étude de l’interaction homme-machine (H-M) en situation d’enseignement/apprentissage de la traduction de l’italien au français.Notre thèse est centrée notamment sur l’analyse de l’utilité pédagogique issue de l’intégration d’un traducteur automatique basé sur des règles dans un contexte d’apprentissage de la traduction de niveau Master, auprès de l’université de Gênes.Existerait-il une possibilité d’interaction entre la pensée traductionnelle humaine et la pensée traductionnelle machine qui puisse s’avérer efficace dans un contexte de pédagogie de la traduction ?Notre projet de recherche vise à répondre à cette question à travers la mise en place d’une expérimentation pédagogique qui s’appuie sur l’interaction entre l’apprenti traducteur humain et le système Apertium.L’hypothèse émise est qu’une telle interaction entre l’apprenti humain et notre prototype de traducteur automatique puisse favoriser la réflexion méta-traductionnelle chez l’apprenti humain, en encourageant sa prise de conscience des nombreux facteurs impliqués dans l’activité traduisante, et en contribuant à son apprentissage de la traduction au niveau de la systématisation de ses connaissances traductionnelles
Our project aims at studying human-machine (H-M) interaction in the context of Italian to French translation teaching and learning, at a master degree level in translation and interpretation. More precisely, our focus is on the pedagogical usefulness of such a H-M interaction having been put in place thanks to the integration of a rule-based machine translator, namely the system Apertium , in a prototypical version.Can this interaction between machine translation and human translation strategies represent a useful pedagogical tool for translation training? Our hypothesis is that H-M interaction taking place between human translation learners and our machine translation prototype can encourage learners’ meta-translational reflection. This process would help them in becoming aware of all the factors implied in translating, and would allow the systematisation of their translation knowledge
APA, Harvard, Vancouver, ISO, and other styles
13

Dragović-Drouet, Mila. "Évaluation de la qualité des traductions éditoriales." Paris 3, 2003. http://www.theses.fr/2003PA030049.

Full text
Abstract:
L'étude de l'évaluation de la qualité des traductions, en tant qu'appréciation non docimologique des propriétés constitutives et non mesurables de textes issus de la pratique professionnelle de la traduction dans le champ éditorial, est située dans le champ de la traductologie, discipline sui generis revendiquant son appartenance aux sciences du langage. L'étude est fondée sur les acquis de la théorie interprétative de la traduction, considérant la traduction et son évaluation comme parties intégrantes d'un acte de communication où sont pris en compte les rôles, les compétences et les objectifs de tous les protagonistes. Vu que les traductions publiées se situent dans le champ éditorial aux côtés d'ouvrages autochtones, les modalités et les critères de leur évaluation sont observés sachant qu'il s'agit de textes non-autochtones, mais qui doivent répondre aux exigences d'un fonctionnement autonome. Un corpus de textes traduits évalués sert à démontrer que pour apprécier la qualité d'une traduction éditoriale, sans être obligé de maîtriser le savoir-faire de la traduction, il faut disposer d'un savoir sur la traduction et sur les compétences du traducteur
The present thesis aims to define quality assessment criteria for professionally translated published works, based on the interpretive theory of translation (Paris school). The theoretical assumption is that the translation process and the assessment of its results must be viewed holistically as part of a single communicative act encompassing the roles, competences and objectives of all those involved. The revising and the reviewing of published translated works are observed in the light of the fact that published translations stand alongside "native language" works and must therefore be able to stand alone as texts in their own right, the reference to the original being inevitable only in fine. A corpus of translated works is assessed and used to demonstrate that the effective quality assessment of published translations requires at least some knowledge of the translation process and of the translator's specific skills
APA, Harvard, Vancouver, ISO, and other styles
14

EDIGHOFFER, KLING VERONIQUE. "Approche linguistique et informatique de la traduction automatique. Elaboration d'un programme de traduction automatique du francais vers l'italien : traductor 98." Université Marc Bloch (Strasbourg) (1971-2008), 1998. http://www.theses.fr/1998STR20072.

Full text
Abstract:
Cette these s'articule en deux parties. La premiere partie propose un etat de l'art sur la traduction automatique. Celle-ci est tout d'abord situee dans son contexte historique et actuel. Puis la traduction automatique est presentee comme une recherche interdisciplinaire coordonnant les recherches de plusieurs disciplines specifiques du traitement automatique des langues naturelles. Enfin, un certain nombre de principes organisationnels constitutifs des systemes de traduction automatique sont exposes, ainsi que des methodes d'evaluation. La deuxieme partie de cette these concerne l'elaboration d'un programme de traduction automatique du francais vers l'italien : traductor 98. Elle presente une approche combinant traduction mot a mot amelioree et correction automatique, approche basee sur une analyse contrastive du francais et de l'italien.
APA, Harvard, Vancouver, ISO, and other styles
15

Kuroda, Kyoko. "Traduction automatique : divergences de traduction entre le japonais et le français." Besançon, 2006. http://www.theses.fr/2006BESA1004.

Full text
Abstract:
Des phrases obtenues à l'issue de traduction montrent des divergences variées et importantes surtout quand il s'agit de langues éloignées comme le japonais et le français. Le but du présent travail est de mettre en évidence la divergence de traduction de ces langues et d'appliquer ce qui en sera dégagé à un système de transfert. Pour ce faire nous nous intéressons particulièrement à leur disparité qui s'observe au niveau de la structure prédicat-arguments. Nous y avons entre autres recensé des changements de catégorie prédicative, changement de voix, une diversification de la distribution actancielle et différentes formes du prédicat actualisé. Ces disparités sont souvent, d'après nous, corrélées et ont des souches communes. Elles peuvent s'expliquer par ce que Pottier appelle statuts événementiels du prédicat, c'est-à-dire que selon que le procès à exprimer est au statif ou à l'évolutif, la façon de le représenter devient différente. Cette différenciation dépend largement du lexique dont chaque langue dispose et des contraintes syntactico-sémantiques que chaque langue impose à son lexique. Nous avons ainsi essayé de dégager des facteurs qui sont à la fois corrélés entre les faits divergents et communs à nos deux langues. Nous les avons par la suite inscrits dans la description de chaque item lexical, en considérant qu'ils permettent au système de transfert de déclencher des opérations qui neutralisent la disparité. Après avoir présenté la formalisation de ces descriptions lexicales qui sont basées sur la grammaire de l'unification, nous montrons le processus de transfert que le système mène à l'aide des indications des facteurs communs
Sentences obtained by translation show varied and important syntactic discrepancies. This is true especially when the sentences are in distant languages such as Japanese and French. This work described here explores the issue of translation divergence of these particular languages in order to apply the results of this investigation to our transfer system. With this intention we are interested in the discrepancy observed at the level of verbal argument structures. We put special focus on changes of lexical category, changes of voice, diversification of the actancial distribution and various forms of actualized predicate. These disparities often are correlated with each other and have common origins. For example they can be explained by what Pottier calls ‘event statutes' of the predicate. That is, according to whether the event to be expressed is one of state or evolution, the way of representing the event is different. Furthermore, this differentiation largely depends on the lexicon of each language and also on the syntactico-semantic constraints which each language imposes on its lexicon. We have thus endeavored to extract factors which, on the one hand, are correlated between the diverging facts and, on the other hand, are common to our two languages. We have included these factors in the lexical description, in considering that they thus enable the transfer system to apply operations which neutralize the disparity. Having formalized these lexical descriptions which are based on unification grammar, we show how the transfer system uses the common factors in order to neutralize the discrepancy
APA, Harvard, Vancouver, ISO, and other styles
16

Kanelliadou, Polyxène. "Procédures de levée d'ambiguïté en traduction automatique." Paris 13, 2002. http://www.theses.fr/2002PA131007.

Full text
Abstract:
Cette recherche a pour objet une étude systématique des problèmes que pose l'ambigui͏̈té au traitement automatique et, en particulier, à la traduction automatique. La recherche porte essentiellement sur le grec dans la perspective d'une traduction vers le français. Des ambigui͏̈tés qu'on rencontre en français comme langue-source sont également décrites et classifiées. Des procédures de levée de chaque type d'ambigui͏̈té sont enregistrées : une telle description pose les bases nécessaires au développement d'un outil informatique qui attribuera les propriétés morphosyntaxiques précises aux mots d'un texte électronique avant la procédure du traitement syntaxique. La recherche est riche en exemples tirés des textes de la Commission des Communautés Européennes qui sont actuellement utilisés comme corpus dans le système de traduction automatique de SYSTRAN. . .
APA, Harvard, Vancouver, ISO, and other styles
17

Abdul, Rauf Sadaf. "Sélection de corpus en traduction automatique statistique." Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00732984.

Full text
Abstract:
Dans notre monde de communications au niveau international, la traduction automatique est devenue une technologie clef incontournable. Plusieurs approches existent, mais depuis quelques années la dite traduction automatique statistique est considérée comme la plus prometteuse. Dans cette approche, toutes les connaissances sont extraites automatiquement à partir d'exemples de traductions, appelés textes parallèles, et des données monolingues en langue cible. La traduction automatique statistique est un processus guidé par les données. Ceci est communément avancé comme un grand avantage des approches statistiques puisque l'intervention d'être humains bilingues n'est pas nécessaire, mais peut se retourner en un problème lorsque ces données nécessaires au développement du système ne sont pas disponibles, de taille insuffisante ou dont le genre ne convient pas. Les recherches présentées dans cette thèse sont une tentative pour surmonter un des obstacles au déploiement massif de systèmes de traduction automatique statistique : le manque de corpus parallèles. Un corpus parallèle est une collection de phrases en langues source et cible qui sont alignées au niveau de la phrase. La plupart des corpus parallèles existants ont été produits par des traducteurs professionnels. Ceci est une tâche coûteuse, en termes d'argent, de ressources humaines et de temps. Dans la première partie de cette thèse, nous avons travaillé sur l'utilisation de corpus comparables pour améliorer les systèmes de traduction statistique. Un corpus comparable est une collection de données en plusieurs langues, collectées indépendamment, mais qui contiennent souvent des parties qui sont des traductions mutuelles. La taille et la qualité des contenus parallèles peuvent variées considérablement d'un corpus comparable à un autre, en fonction de divers facteurs, notamment la méthode de construction du corpus. Dans tous les cas, il n'est pas aisé d'identifier automatiquement des parties parallèles. Dans le cadre de cette thèse, nous avons développé une telle approche qui est entièrement basée sur des outils librement disponibles. L'idée principale de notre approche est l'utilisation d'un système de traduction automatique statistique pour traduire toutes les phrases en langue source du corpus comparable. Chacune de ces traductions est ensuite utilisée en tant que requête afin de trouver des phrases potentiellement parallèles. Cette recherche est effectuée à l'aide d'un outil de recherche d'information. En deuxième étape, les phrases obtenues sont comparées aux traductions automatiques afin de déterminer si elles sont effectivement parallèles à la phrase correspondante en langue source. Plusieurs critères ont été évalués tels que le taux d'erreur de mots ou le "translation edit rate (TER)". Nous avons effectué une analyse expérimentale très détaillée afin de démontrer l'intérêt de notre approche. Les corpus comparables utilisés se situent dans le domaine des actualités, plus précisément, des dépêches d'actualités des agences de presse telles que "Agence France Press (AFP)", "Associate press" ou "Xinua News". Ces agences publient quotidiennement des actualités en plusieurs langues. Nous avons pu extraire des textes parallèles à partir de grandes collections de plus de trois cent millions de mots pour les paires de langues français/anglais et arabe/anglais. Ces textes parallèles ont permis d'améliorer significativement nos systèmes de traduction statistique. Nous présentons également une comparaison théorique du modèle développé dans cette thèse avec une autre approche présentée dans la littérature. Diverses extensions sont également étudiées : l'extraction automatique de mots inconnus et la création d'un dictionnaire, la détection et suppression 1 d'informations supplémentaires, etc. Dans la deuxième partie de cette thèse, nous avons examiné la possibilité d'utiliser des données monolingues afin d'améliorer le modèle de traduction d'un système statistique...
APA, Harvard, Vancouver, ISO, and other styles
18

Hewson, Lance. "Les paramètres de la traduction." Montpellier 3, 1987. http://www.theses.fr/1987MON30012.

Full text
Abstract:
Cette these se propose d'examiner les parametres de la traduction. Elle explore a la fois l'operation traduisante dans toute sa complexite, et le statut et l'importance du texte traduit. Apres une etude des theories les plus recentes en traductologie, ainsi que des pratiques de la traduction, nous examinons les parametres du texte de depart td). Le role du commanditaire de la traduction est mis en valeur, dont depend le choix du td, ainsi que son appartenance a une langue-culture donnee. Le texte lui-meme est considere dans l'optique de sa situation de production, mise en oeuvre par un producteur de discours travaillant dans des conditions particulieres et a l'interieur d'un systeme culturel de reference. La partie centrale de la these est consacree a l'operation traduisante. Apres un examen de l'emprise des structures du td, nous explorons l'importance et l'influence sur le traducteur de l'ensemble des textes qui existent deja en traduction, que nous nommons le "deja-traduit. Cela nous amene a prendre en consideration l'activite creatrice en traduction, ou le traducteur est appele a explorer le potentiel et les limites de la langue d'arrivee dans le cadre de ce que nous appelons le "possible-du-traduire". Le texte d'arrivee est l'objet de notre quatrieme partie. Nous nous interrogeons sur sa nature et sur son statut, ainsi que sur l'importance de l'instance receptrice. Nous considerons les images vehiculees par les textes d'arrivee dans notre societe, avec une etude des traductions d'une nouvelle de f. Kafka en trois langues. Nous etudions les possibilites offertes par la critique de la traduction, en explorant son statut epistemologique et ses pratiques. Dans notre cinquieme partie, enfin, nous explorons les perspectives de cette recherche, notamment en didactique de la traduction
The subject of our thesis is the parameters of translation. We consider both translation as an activity in all its complexity, and the status and importance of the translated text. After exploring recent translation theories and practices, we examine the parameters of the source language text (slt). The role played by the person ordering the translation (and choosing the slt) is underlined, as is the importance of his own linguistic background. The text itself is considered from the point of view of its genesis (its production situation, i. E. Being produced by a writer writing in particular conditions and within a cultural system of reference). The central part of the thesis deals with the translation operation. After a consideration of the influence exercised by slt structures, we look at the way in which the translator comes under the sway of texts which have already been translated -"le deja-traduit". We then look at crative activity in translation, where the translator explores the potential and the limits of the target language -"le possible-du-traduire" in our terminology. In part four, we examine the target language text (tlt). We consider the nature and status of the tlt together with the importance of the receiver of the tlt. We look at the different images of the tlt in our society and explore the translations of a kafka short story in three languages. We then turn our attention to translation criticism, with a consideration both of its epistemological status and its practices. In our fifth part, we look at the future of research in translation studies, and in particular at applications for translation teaching
APA, Harvard, Vancouver, ISO, and other styles
19

Lin, Hsiang-I. "Vers une traduction automatique des expressions figées françaises en chinois : la traduction canonique." Besançon, 2004. http://www.theses.fr/2004BESA1023.

Full text
Abstract:
Les expressions figees, qui reviennent si souvent dans la presse, dans les textes litteraires et dans le discours quotidien, donnent souvent du fil a retordre aux apprenants de la langue mais aussi aux traducteurs. Les resultats rendus par les systemes de traduction automatique (ta) n'en restent pas moins frustrants, surtout quand il s'agit de traduire une expression figee française en chinois. Peut-on alors realiser un systeme de TA capable de reconnaitre correctement le sens d'une expression figee française, et de la traduire en chinois d'une maniere intelligible ? Apres avoir fait le tour d'horizon des expressions figees, de la traduction (humaine), et de la TA, nous avons degage les problemes inherents a ces domaines : la nature polysemique des expressions figees françaises ; le principe de fidelite en traduction : la fidelite au sens ; la reconnaissance du sens de l'expression française, et la generation d'une traduction sensee en chinois - par la machine : la formalisation de tous les aspects linguistiques et traductionnels est donc imperative. Nous avons constate que le sens occupe une place centrale dans les domaines concernes, et que le sens est sous-jacent aux formes tangibles. Le sens d'une expression figee peut non seulement etre cerne par la forme qu'elle presente, mais il peut aussi prendre une valeur unique par rapport aux co-textes de l'expression. Ainsi, nous avons etabli une approche canonique basee sur les aspects semantiques et formels des expressions figees françaises et de leurs traductions en chinois, avant d'elaborer le systeme trace (traduction canonique des expressions), capable de traduire correctement une expression figee française en chinois
Fixed expressions are frequently used in the media, in the literature and in daily conversations. Thus, they often perplex learners of a new language, but also translators. Moreover, existing machine translation systems give frustrating results for fixed expression entries, especially when it comes to translating french fixed expressions into chinese. Would it be possible to create a machine translation system that is able to recognize the right sense of a french fixed expression and then to translate it into chinese in an intelligible way ? After studying fixed expressions, (human) translation and machine translation, we find out the principal problems that are inherents in the related areas : the polysemic nature of french fixed expressions ; the principle of fidelity in translation: fidelity to the sense ; the recognization of the right sense of a french fixed expression, and the output of an intelligible chinese translation - by a machine : the formalization of all linguistic and translating respects is therefore indispensable. These problems show that the sense is the essential element in the related areas, and that the sense underlies concrete forms. The sense of a fixed expression may not only be determined by the form that the expression takes, but also be outlined by its co-textes. Based on these findings, We suggest the canonical approach on the bassis of semantic and formal respects of french fixed expressions and their chinese translations. With this approach, We establish the trace system (canonical translation of expressions) which is able to translate correctly a french fixed expression into chinese
APA, Harvard, Vancouver, ISO, and other styles
20

Guilbault, Isabelle. "Les dictionnaires dans les systèmes de traduction automatique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape9/PQDD_0001/MQ45222.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Douib, Ameur. "Algorithmes bio-inspirés pour la traduction automatique statistique." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0005/document.

Full text
Abstract:
Différentes composantes des systèmes de traduction automatique statistique sont considérées comme des problèmes d'optimisations. En effet, l'apprentissage du modèle de traduction, le décodage et l'optimisation des poids de la fonction log-linéaire sont trois importants problèmes d'optimisation. Savoir définir les bons algorithmes pour les résoudre est l'une des tâches les plus importantes afin de mettre en place un système de traduction performant. Plusieurs algorithmes d'optimisation sont proposés pour traiter les problèmes d'optimisation du décodeur. Ils sont combinés pour résoudre, d'une part, le problème de décodage qui produit une traduction dans la langue cible d'une phrase source, d'autre part, le problème d'optimisation des poids des scores combinés dans la fonction log-linéaire pour d'évaluation des hypothèses de traduction au cours du décodage. Le système de traduction statistique de référence est basé sur un algorithme de recherche en faisceau pour le décodage, et un algorithme de recherche linéaire pour l'optimisation des poids associés aux scores. Nous proposons un nouveau système de traduction avec un décodeur entièrement basé sur les algorithmes génétiques. Les algorithmes génétiques sont des algorithmes d'optimisation bio-inspirés qui simulent le processus de l'évolution naturelle des espèces. Ils permettent de manipuler un ensemble de solutions à travers plusieurs itérations pour converger vers des solutions optimales. Ce travail, nous permet d'étudier l'efficacité des algorithmes génétiques pour la traduction automatique statistique. L'originalité de notre proposition est de proposer deux algorithmes : un algorithme génétique, appelé GAMaT, comme décodeur pour un système de traduction statistique à base de segments, et un algorithme génétique, appelé GAWO, pour l'optimisation des poids de la fonction log-linéaire afin de l'utiliser comme fonction fitness pour GAMaT. Nous proposons également, une approche neuronale pour définir une nouvelle fonction fitness pour GAMaT. Cette approche consiste à utiliser un réseau de neurones pour l'apprentissage d'une fonction qui combine plusieurs scores, évaluant différents aspects d'une hypothèse de traduction, combinés auparavant dans la fonction log-linéaire, et qui prédit le score BLEU de cette hypothèse de traduction. Ce travail, nous a permis de proposer un nouveau système de traduction automatique statistique ayant un décodeur entièrement basé sur des algorithmes génétiques
Different components of statistical machine translation systems are considered as optimization problems. Indeed, the learning of the translation model, the decoding and the optimization of the weights of the log-linear function are three important optimization problems. Knowing how to define the right algorithms to solve them is one of the most important tasks in order to build an efficient translation system. Several optimization algorithms are proposed to deal with decoder optimization problems. They are combined to solve, on the one hand, the decoding problem that produces a translation in the target language for each source sentence, on the other hand, to solve the problem of optimizing the weights of the combined scores in the log-linear function to fix the translation evaluation function during the decoding. The reference system in statistical translation is based on a beam-search algorithm for the decoding, and a line search algorithm for optimizing the weights associated to the scores. We propose a new statistical translation system with a decoder entirely based on genetic algorithms. Genetic algorithms are bio-inspired optimization algorithms that simulate the natural process of evolution of species. They allow to handle a set of solutions through several iterations to converge towards optimal solutions. This work allows us to study the efficiency of the genetic algorithms for machine translation. The originality of our work is the proposition of two algorithms: a genetic algorithm, called GAMaT, as a decoder for a phrase-based machine translation system, and a second genetic algorithm, called GAWO, for optimizing the weights of the log-linear function in order to use it as a fitness function for GAMaT. We propose also, a neuronal approach to define a new fitness function for GAMaT. This approach consists in using a neural network to learn a function that combines several scores, which evaluate different aspects of a translation hypothesis, previously combined in the log-linear function, and that predicts the BLEU score of this translation hypothesis. This work allowed us to propose a new machine translation system with a decoder entirely based on genetic algorithms
APA, Harvard, Vancouver, ISO, and other styles
22

Gasquet, Olivier. "Déduction automatique en logique multi-modale par traduction." Toulouse 3, 1994. http://www.theses.fr/1994TOU30078.

Full text
Abstract:
Les logiques modales (normales et non-normales) jouent un role essentiel pour la formalisation logique du raisonnement sur des notions intensionnelles telles que le savoir, les croyances, le temps, les intentions, les actions, etc. ; et ce, surtout sous leur forme multi-modale qui permet d'automatiser le raisonnement sur differents concepts au sein du meme systeme logique: temps et savoir, savoir de plusieurs agents, action et temps ces concepts etant naturellement appeles a se cotoyer dans le cadre, par exemple, d'un univers multi-agents. Dans une premiere partie, nous menons une etude de la semantique de ces logiques, plus particulierement la semantique dite des mondes possibles, et apres un examen des resultats connus de caracterisation (adequation et completude), nous etablissons de nouveaux resultats pour les logiques multi-modales monotones (non-normales), et pour des logiques multi-modales normales predicatives avec formules de barcan. Nous donnons un resultat d'adequation et de completude pour une grande famille de ces logiques. Nous demontrons, a l'oppose, un nouveau resultat d'incompletude par une methode originale. Cette etude semantique est motivee, en dehors des aspects fondamentaux, par le besoin de disposer de logiques a la fois completes et adequates par rapport a une semantique calculatoirement interessante (comme celle des mondes possibles), ceci afin de pouvoir utiliser la methode de deduction automatique qui s'est revelee la plus fructueuse et la plus generale pour ce type de logique: la methode par traduction, car elle est basee sur la semantique. Elle constitue la matiere de la deuxieme partie. Dans cette deuxieme partie, nous dressons un etat de l'art, permettant de situer la problematique ; puis nous detaillons notre propre contribution qui porte sur trois points: les deux premiers concernant des ameliorations que nous apportons a la methode initiale, et le dernier concerne l'application de la methode par traduction aux logiques non-normales par l'intermediaire d'une traduction prealable des logiques non-normales dans des logiques normales, permettant ainsi l'utilisation des travaux realises pour ces dernieres
APA, Harvard, Vancouver, ISO, and other styles
23

Déchelotte, Daniel. "Traduction automatique de la parole par méthodes statistiques." Paris 11, 2007. http://www.theses.fr/2007PA112244.

Full text
Abstract:
Cette thèse porte sur la traduction de la parole reconnue automatiquement. La tâche retenue est la traduction des discours des députés européens aux sessions plénières du parlement européen, entre l'anglais et l'espagnol. Cette thèse repose sur deux systèmes de traduction statistique. Le premier a été entièrement développé au cours de cette thèse et met en œuvre le modèle IBM-4. Le second système emploie Moses, un décodeur libre par groupes de mots à l'état de l'art. Nous envisageons aussi une collaboration entre les deux décodeurs. Le modèle quadrigramme neuronal s'avère très performant dans les deux sens de traduction. Les systèmes de traduction mis en oeuvre dans cette thèse furent très compétitifs à l'évaluation TC-Star de février 2007. Nous proposons un algorithme inspiré de celui du Perceptron pour modifier de façon discriminante les scores de la table de traduction en observant les erreurs de traduction sur un ensemble de développement. Concernant l'interaction entre reconnaissance de la parole et traduction, nous mesurerons l'impact du taux de mots erronés de la reconnaissance sur les performances de la traduction, et évaluons séparément les impacts respectifs du modèle de langage source et du modèle acoustique. Nous menons également des expériences prenant en compte l'ambiguïté de la sortie de la reconnaissance automatique, c'est-à-dire les mots entre lesquels la reconnaissance « hésite ». Nous décrivons ensuite plusieurs traitements spécifiques à la parole qui interviennent après la reconnaissance et avant la traduction. Enfin, nous modifions le système de reconnaissance de manière à améliorer les performances de traduction de la parole
The subject of this thesis is automatic speech translation. The task is the translation of the European Parliamentary Plenary Sessions proceedings, between English and Spanish. Two statistical translation systems are used. The first one has been entirely developed during this thesis and relies on the IBM-4 model. The second system employs Moses, an open-source, state-of-the-art phrase-based translation decoder. A collaboration between the two decoders is envisaged. The neural-network language model proves extremely useful in both translation directions. The systems described in this thesis obtained top rankings at the last TC-Star evaluation of February 2007. An algorithm inspired from the Perceptron is proposed to modify the phrase-table scores in a discriminative manner, based on errors observed on a development corpus. With respect to the interaction between speech recognition and translation, we measure the impact of the speech recognition word error rate on translation performances, and evaluate separately the respective impact of the source language model and the acoustic model. We also run experiments to take into account the ambiguity of the speech recognition output, i. E. The words between which the speech recognizer "hesitates". We then present several speech-specific processings, occurring after the recognition and before the translation. Eventually, we modify the speech recognition system so as to improve the overall speech translation performance
APA, Harvard, Vancouver, ISO, and other styles
24

Do, Quoc khanh. "Apprentissage discriminant des modèles continus en traduction automatique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS071/document.

Full text
Abstract:
Durant ces dernières années, les architectures de réseaux de neurones (RN) ont été appliquées avec succès à de nombreuses applications en Traitement Automatique de Langues (TAL), comme par exemple en Reconnaissance Automatique de la Parole (RAP) ainsi qu'en Traduction Automatique (TA).Pour la tâche de modélisation statique de la langue, ces modèles considèrent les unités linguistiques (c'est-à-dire des mots et des segments) à travers leurs projections dans un espace continu (multi-dimensionnel), et la distribution de probabilité à estimer est une fonction de ces projections.Ainsi connus sous le nom de "modèles continus" (MC), la particularité de ces derniers se trouve dans l'exploitation de la représentation continue qui peut être considérée comme une solution au problème de données creuses rencontré lors de l'utilisation des modèles discrets conventionnels.Dans le cadre de la TA, ces techniques ont été appliquées dans les modèles de langue neuronaux (MLN) utilisés dans les systèmes de TA, et dans les modèles continus de traduction (MCT).L'utilisation de ces modèles se sont traduit par d'importantes et significatives améliorations des performances des systèmes de TA. Ils sont néanmoins très coûteux lors des phrases d'apprentissage et d'inférence, notamment pour les systèmes ayant un grand vocabulaire.Afin de surmonter ce problème, l'architecture SOUL (pour "Structured Output Layer" en anglais) et l'algorithme NCE (pour "Noise Contrastive Estimation", ou l'estimation contrastive bruitée) ont été proposés: le premier modifie la structure standard de la couche de sortie, alors que le second cherche à approximer l'estimation du maximum de vraisemblance (MV) par une méthode d’échantillonnage.Toutes ces approches partagent le même critère d'estimation qui est la log-vraisemblance; pourtant son utilisation mène à une incohérence entre la fonction objectif définie pour l'estimation des modèles, et la manière dont ces modèles seront utilisés dans les systèmes de TA.Cette dissertation vise à concevoir de nouvelles procédures d'entraînement des MC, afin de surmonter ces problèmes.Les contributions principales se trouvent dans l'investigation et l'évaluation des méthodes d'entraînement efficaces pour MC qui visent à: (i) réduire le temps total de l'entraînement, et (ii) améliorer l'efficacité de ces modèles lors de leur utilisation dans les systèmes de TA.D'un côté, le coût d'entraînement et d'inférence peut être réduit (en utilisant l'architecture SOUL ou l'algorithme NCE), ou la convergence peut être accélérée.La dissertation présente une analyse empirique de ces approches pour des tâches de traduction automatique à grande échelle.D'un autre côté, nous proposons un cadre d'apprentissage discriminant qui optimise la performance du système entier ayant incorporé un modèle continu.Les résultats expérimentaux montrent que ce cadre d'entraînement est efficace pour l'apprentissage ainsi que pour l'adaptation des MC au sein des systèmes de TA, ce qui ouvre de nouvelles perspectives prometteuses
Over the past few years, neural network (NN) architectures have been successfully applied to many Natural Language Processing (NLP) applications, such as Automatic Speech Recognition (ASR) and Statistical Machine Translation (SMT).For the language modeling task, these models consider linguistic units (i.e words and phrases) through their projections into a continuous (multi-dimensional) space, and the estimated distribution is a function of these projections. Also qualified continuous-space models (CSMs), their peculiarity hence lies in this exploitation of a continuous representation that can be seen as an attempt to address the sparsity issue of the conventional discrete models. In the context of SMT, these echniques have been applied on neural network-based language models (NNLMs) included in SMT systems, and oncontinuous-space translation models (CSTMs). These models have led to significant and consistent gains in the SMT performance, but are also considered as very expensive in training and inference, especially for systems involving large vocabularies. To overcome this issue, Structured Output Layer (SOUL) and Noise Contrastive Estimation (NCE) have been proposed; the former modifies the standard structure on vocabulary words, while the latter approximates the maximum-likelihood estimation (MLE) by a sampling method. All these approaches share the same estimation criterion which is the MLE ; however using this procedure results in an inconsistency between theobjective function defined for parameter stimation and the way models are used in the SMT application. The work presented in this dissertation aims to design new performance-oriented and global training procedures for CSMs to overcome these issues. The main contributions lie in the investigation and evaluation of efficient training methods for (large-vocabulary) CSMs which aim~:(a) to reduce the total training cost, and (b) to improve the efficiency of these models when used within the SMT application. On the one hand, the training and inference cost can be reduced (using the SOUL structure or the NCE algorithm), or by reducing the number of iterations via a faster convergence. This thesis provides an empirical analysis of these solutions on different large-scale SMT tasks. On the other hand, we propose a discriminative training framework which optimizes the performance of the whole system containing the CSM as a component model. The experimental results show that this framework is efficient to both train and adapt CSM within SMT systems, opening promising research perspectives
APA, Harvard, Vancouver, ISO, and other styles
25

Afli, Haithem. "La Traduction automatique statistique dans un contexte multimodal." Thesis, Le Mans, 2014. http://www.theses.fr/2014LEMA1012/document.

Full text
Abstract:
Les performances des systèmes de traduction automatique statistique dépendent de la disponibilité de textes parallèles bilingues, appelés aussi bitextes. Cependant, les textes parallèles librement disponibles sont aussi des ressources rares : la taille est souvent limitée, la couverture linguistique insuffisante ou le domaine des textes n’est pas approprié. Il y a relativement peu de paires de langues pour lesquelles des corpus parallèles de tailles raisonnables sont disponibles pour certains domaines. L’une des façons pour pallier au manque de données parallèles est d’exploiter les corpus comparables qui sont plus abondants. Les travaux précédents dans ce domaine n’ont été appliqués que pour la modalité texte. La question que nous nous sommes posée durant cette thèse est de savoir si un corpus comparable multimodal permet d’apporter des solutions au manque de données parallèles dans le domaine de la traduction automatique.Dans cette thèse, nous avons étudié comment utiliser des ressources provenant de différentes modalités (texte ou parole) pour le développement d’un système de traduction automatique statistique. Une première partie des contributions consisteà proposer une technique pour l’extraction des données parallèles à partir d’un corpus comparable multimodal (audio et texte). Les enregistrements sont transcrits avec un système de reconnaissance automatique de la parole et traduits avec unsystème de traduction automatique. Ces traductions sont ensuite utilisées comme requêtes d’un système de recherche d’information pour sélectionner des phrases parallèles sans erreur et générer un bitexte. Dans la deuxième partie des contributions, nous visons l’amélioration de notre méthode en exploitant les entités sous-phrastiques créant ainsi une extension à notre système en vue de générer des segments parallèles. Nous améliorons aussi le module de filtrage. Enfin, nous présentons plusieurs manières d’aborder l’adaptation des systèmes de traduction avec les données extraites.Nos expériences ont été menées sur les données des sites web TED et Euronews qui montrent la faisabilité de nos approches
The performance of Statistical Machine Translation Systems statistics depends on the availability of bilingual parallel texts, also known as bitexts. However, freely available parallel texts are also a sparse resource : the size is often limited, languistic coverage insufficient or the domain of texts is not appropriate. There are relatively few pairs of languages for which parallel corpora sizes are available for some domains. One way to overcome the lack of parallel data is to exploit comparable corpus that are more abundant. Previous work in this area have been applied for the text modality. The question we asked in this thesis is : can comparable multimodal corpus allows us to make solutions to the lack of parallel data in machine translation? In this thesis, we studied how to use resources from different modalities (text or speech) for the development of a Statistical machine translation System. The first part of the contributions is to provide a method for extracting parallel data from a comparable multimodal corpus (text and audio). The audio data are transcribed with an automatic speech recognition system and translated with a machine translation system. These translations are then used as queries to select parallel sentences and generate a bitext. In the second part of the contribution, we aim to improve our method to exploit the sub-sentential entities creating an extension of our system to generate parallel segments. We also improve the filtering module. Finally, we présent several approaches to adapt translation systems with the extracted data. Our experiments were conducted on data from the TED and Euronews web sites which show the feasibility of our approaches
APA, Harvard, Vancouver, ISO, and other styles
26

Kraif, Olivier. "Constitution et exploitation de bi-textes pour l'Aide à la traduction." Nice, 2001. http://www.theses.fr/2001NICE2018.

Full text
Abstract:
La présente étude est centrée sur les problèmes liés à la constitution des corpus bi-textuels et à leur exploitation pour l'aide à la traduction. D'abord, nous distinguons la traduction en tant qu'activité de communication du simple transcodage, impliquant le transfert des unités et des structures d'une langue vers une autre. Ainsi nous montrons que la traduction est une affaire d'interprétation. Nous examinons les problèmes découlant des divergences entre les organisations lexicales et grammaticales des deux langues, et montrons qu'il est difficile d'aboutir à des systèmes de transformation généraux dès lors qu'on intégre les phénomènes idiomatiques. Nous en tirons la notion d'unité de traduction, cristallisant différents types de phénomènes contrastifs. La deuxième partie est consacrée à l'alignement phrastique, visant à la constitution automatique de bi-textes. Nous développons les techniques les plus répandues et les mieux éprouvées, tant du point de vue des indices que des algorithmes. Par un travail empirique, nous montrons comment articuler ces techniques de façon optimale sur la base d'une heuristique simple. Enfin nous abordons les problèmes de l'alignement au niveau lexical. Nous montrons que le critère de compositionnalité traductionnelle au niveau des mots ne permet pas d'extraire des couples cohérents, tant du point de vue de la segmentation qu'au niveau de l'équivalence des segments appariés. Nous introduisons le concept de correspondance lexicale, désignant l'appariement d'unités prédéfinies au niveau contrastif, et dont le transfert est considéré comme facultatif. Nous montrons empiriquement comment ces correspondances peuvent être extraites à partir d'indices adaptés et d'algorithmes simples. Les bi-textes apparaissent comme des gisements d'informations contrastives, dont les outils d'observation statistique permettent d'extraire les régularités, les équivalences générales émergeant à travers la masse des traductions particulières.
APA, Harvard, Vancouver, ISO, and other styles
27

Severini, Alfiero. "Mise au point d'un système de traduction automatique italien-français." Paris 13, 2001. http://www.theses.fr/2001PA131007.

Full text
Abstract:
Nous présentons dans ce travail, qui a une connotation méthodologique et qui est orienté vers lápplication, les résultats d'une étude et d'une activité de développement qui se sont concrétisés dans la mise au point d'un système de traduction automatique italien-français. Dans la première des trois parties, dans lesquelles s'articule ce travail, nous décrivons les différentes composantes d'un système de traduction automatique Systran ainsi que les étapes successives qui nous ont permit d'aboutir à partir des ressources disponibles, à un système de traduction italien-français opérationnel. Nous décrivons également le processus de création et l'élargissement du lexique de base. Dans la deuxième partie, nous illustrons, avec beaucoup de détails et d'exemples, les activités de développement linguistique et les interventions effectuées aux différents niveaux du système qui, graduellement, ont permis d'améliorer la qualité et de stabiliser le système dans son ensemble. Dans la troisième partie, nous évaluons le travail accompli et jetons un regard critique sur ce couple de langues ainsi que sur le système Systran en général et sur ses réelles limites. En guise de conclusion, nous avançons quelques propositions pour élargir la couverture sémantique du lexique et pour améliorer le traitement des expressions figées et des expressions idiomatiques.
APA, Harvard, Vancouver, ISO, and other styles
28

Haddaine, Mihoubi Houria. "Une approche déclarative de traduction d'ontologies." Grenoble 3, 2000. http://www.theses.fr/2000GRE39044.

Full text
Abstract:
La traduction d'une ontologie d'un langage source vers un langage cible est un processus nécessaire aussi bien pour la conception d'une nouvelle ontologie à partir d'ontologies existantes que pour l'utilisation d'une ontologie par différents systèmes à base de connaissances. L'approche habituelle de traduction utilise un traducteur pour chaque paire de langages source et cible, ce qui nécessite plusieurs outils de traduction. Nous proposons une approche de traduction basée sur un unique traducteur quelques soient les langages source et cible, pourvu que les ontologies de représentation de ces langages lui soient fournies comme paramètres d'entrée. . .
APA, Harvard, Vancouver, ISO, and other styles
29

Lavecchia, Caroline. "Les Triggers Inter-langues pour la Traduction Automatique Statistique." Phd thesis, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00545463.

Full text
Abstract:
Les recherches menées dans le cadre de mon doctorat concernent le domaine de la Traduction Automatique (TA), ou comment traduire d'une langue source vers une langue cible sans aucune intervention humaine. Mes travaux se sont plus particulièrement concentrés sur l'approche statistique de la TA qui consiste à utiliser différents modèles probabilistes appris sur des quantités importantes de corpus parallèles alignés afin de trouver la traduction la plus vraisemblable d'une phrase source. Deux problèmes étroitement liés à l'approche statistique de la TA sont abordés dans ce manuscrit : la collecte de corpus parallèles et l'estimation de modèles de traduction à partir de ces corpus. Un système de TA statistique extrait la connaissance dont il a besoin pour produire des traductions à partir de corpus parallèles dans lesquels chaque phrase source est associée à sa traduction dans la langue cible. De nombreux travaux utilisent comme corpus parallèle les actes du Parlement Européen disponibles gratuitement en différentes langues. De tels corpus ne sont pas adéquats pour la traduction de parole spontanée, c'est pourquoi j'ai décidé de construire des corpus parallèles à partir de sous-titres de films afin de construire un système de traduction plus réaliste. Les sous-titres sont des données complexes, ils ne peuvent constituer un corpus parallèle aligné dans leur état brut. Ils nécessitent une phase de pré-traitement et d'alignement. J'ai pour cela proposé une méthode originale basée sur la Programmation Dynamique qui aligne automatiquement les sous-titres. J'ai ainsi constitué une ressource importante et riche pour l'apprentissage des systèmes de TA statistique. La TA statistique repose sur l'utilisation de plusieurs modèles statistiques comme le modèle d'alignement, la table de traduction ou encore le modèle de distortion. La table de traduction est le modèle le plus indispensable à un système de TA statisque pour calculer la traduction la plus vraisemblable d'une phrase source. En effet, celle-ci donne les probabilités de traduction entre les couples de mots sources et cibles. Il existe différentes méthodes permettant l'estimation de ces tables de traduction. Elles ont habituellement recours à un alignement des mots obtenu automatiquement sur les corpus parallèles. Cette tâche d'alignement est une étape longue et fastidieuse qui fait appel à des algorithmes complexes. Le coeur de mon travail a été de repenser le problème et d'explorer de nouvelles pistes pour estimer les tables de traduction de mots et de séquences de mots, totalement différentes des méthodes état-de-l'art. J'ai proposé une approche originale basée sur le concept de triggers inter-langues qui ne nécessite aucun alignement des mots au sein des corpus parallèles. Les triggers inter-langues permettent de mettre en évidence des unités fortement corrélés en se basant sur l'Information Mutuelle. Dans notre cas les unités sont des séquences de mots sources et cibles. L'idée derrière ce concept est que si une séquence de mots sources est fortement corrélée à une séquence de mots cibles en termes d'IM, alors nous pouvons supposer que la présence de la première dans une phrase source déclenchera la présence de la seconde dans sa traduction et vice versa. J'ai proposé d'utiliser les triggers inter-langues sur les corpus parallèles dans le but de trouver les traductions possibles de séquences de mots et ainsi constituer une table de traduction. L'Information Mutuelle est une mesure de co-occurence qui se calcule simplement en un seul passage sur le corpus parallèle. Pour sélectionner les triggers interlangues, nous supposons que deux séquences sources et cibles co-occurent si elles apparaissent dans une même paire de phrases du corpus parallèle. De ce fait, ma méthode ne requiert qu'un alignement au niveau des phrases et non au niveau des mots au sein du corpus parallèle. L'utilisation des triggers inter-langues pour estimer une table de traduction rend mon approche moins complexe mais tout aussi efficace que les approches existantes. Dans un contexte de traduction mot-à-mot, la table de traduction obtenue grâce aux triggers inter-langues conduit à des traductions automatiques de meilleur qualité, en termes de score BLEU, que celles produites avec une table de traduction de mots estimée selon le modèle 3 d'IBM. Dans un contexte de traduction par groupe de mots, la table de traduction basée sur les triggers inter-langues amènent à des traductions automatiques dont le score BLEU est supérieur à 34 et proche de celui des traductions automatiques produites par une table de traduction de séquences estimées à partir de l'alignement des mots suivant les approches état-de-l'art. Mots-clés: Traduction Automatique Statistique, Triggers Inter-langues, Traduction Automatique à base de séquences
APA, Harvard, Vancouver, ISO, and other styles
30

Rubino, Raphaël. "Traduction automatique statistique et adaptation à un domaine spécialisé." Phd thesis, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00879945.

Full text
Abstract:
Nous avons observé depuis plusieurs années l'émergence des approches statistiques pour la traduction automatique. Cependant, l'efficacité des modèles construits est soumise aux variabilités inhérentes au langage naturel. Des études ont montré la présence de vocabulaires spécifique et général composant les corpus de textes de domaines spécialisés. Cette particularité peut être prise en charge par des ressources terminologiques comme les lexiques bilingues.Toutefois, nous pensons que si le vocabulaire est différent entre des textes spécialisés ou génériques, le contenu sémantique et la structure syntaxique peuvent aussi varier. Dans nos travaux,nous considérons la tâche d'adaptation aux domaines spécialisés pour la traduction automatique statistique selon deux axes majeurs : l'acquisition de lexiques bilingues et l'édition a posteriori de traductions issues de systèmes automatiques. Nous évaluons l'efficacité des approches proposées dans un contexte spécialisé : le domaine médical. Nos résultats sont comparés aux travaux précédents concernant cette tâche. De manière générale, la qualité des traductions issues de systèmes automatiques pour le domaine médical est améliorée par nos propositions. Des évaluations en oracle tendent à montrer qu'il existe une marge de progression importante
APA, Harvard, Vancouver, ISO, and other styles
31

Loginova, Clouet Elizaveta. "Traitement automatique des termes composés : segmentation, traduction et variation." Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=f9a1d95c-ba61-4322-96a9-ffda96d82504.

Full text
Abstract:
Le nombre de termes spécialisés croît constamment dans les documents, à un rythme difficile à suivre pour les organismes de normalisation de la terminologie. Les méthodes de construction des lexiques terminologiques bilingues à partir de corpus de textes proposent des solutions. Notre thèse s’inscrit dans cette problématique : la construction de lexiques bilingues à partir de corpus comparables. Les termes composés (les termes contenant plusieurs radicaux, mais un seul mot graphique) constituent un défi pour les applications du traitement automatique des langues. Étant donné leur forme graphique, ils sont souvent traités comme des termes simples, ce qui empêche de capturer leur complexité sémantique. Notre participation à une évaluation d’extraction automatique de termes a permis de vérifier notre hypothèse : les termes composés nécessitent un traitement particulier dans un contexte multilingue. Nous avons proposé une méthode de reconnaissance et de segmentation des termes composés, combinant des caractéristiques dépendantes et indépendantes de la langue. Elle permet d’obtenir des résultats comparables à ceux des méthodes de l’état de l’art, tout en étant validée sur un échantillon de familles de langues varié (germanique, slave, romane) et adaptable au domaine de spécialité (vérifiée sur deux domaines : l’énergie éolienne et le cancer du sein). Nous avons exploité les segmentations produites pour la traduction compositionnelle des termes et pour la détection des variantes syntagmatiques des termes composés dans les textes spécialisés. Ces deux expériences illustrent l’utilité de la segmentation pour la construction des lexiques terminologiques bilingues
The number of specialized terms continuously grows in the documents, at a pace which is difficult to follow for the terminology standardization organizations. The methods of bilingual term lexicon construction from the text corpora provide solutions. Our thesis falls into this topic: bilingual lexicon acquisition from comparable corpora. Compound terms (terms containing several roots, but a single graphical unit) are challenging for natural language processing applications. Given their graphical form, they are often handled in the same manner as single word terms, which prevents from apprehending their semantic complexity. Our involvement in an automatical terminology extraction evaluation allowed us to check our hypothesis: compound terms need a particular processing in a multilingual context. We proposed a method for compound terms recognition and splitting, which combines language-independent and language-specific features. It allowed us to obtain results comparable with those of state-of-the-art methods, while validating on a sample of languages from several families (germanic, slavic, romance languages), and adapting the method to specialized domains (tested on two domains: wind energy and breast cancer). We used the produced segmentations for compositional translation of compound terms, and for their multi-word variant recognition in the specialized texts. These two experiments illustrate that compound splitting is beneficial for the bilingual term lexicon acquisition task
APA, Harvard, Vancouver, ISO, and other styles
32

Dymetman, Marc. "Transformations de grammaires logiques et réversibilité en traduction automatique." Grenoble 1, 1992. http://www.theses.fr/1992GRE10097.

Full text
Abstract:
L'objet de ce travail est de décrire des conditions et des techniques permettant de transformer des grammaires logiques en des programmes d'analyse et de génération: - directement exécutables par l'interpréteur standard de Prolog; - corrects, c'est-à-dire dénotationnellement équivalents à la grammaire logique qu'ils implémentent, et complets, c'est-à-dire tels que toutes les solutions soient énumérées par retour-arrière et que le programme termine. Dans une première partie, l'accent porte sur l'utilisation bidirectionnelle (analyse et génération) d'une même grammaire dans le cadre de la traduction automatique. Nous commençons par décrire une réalisation concrète de la réversibilité dans le contexte du système de traduction CRITTER. Puis nous cherchons à éclaircir le statut théorique de certains problèmes rencontrés en pratique, et proposons une définition formelle du concept même de réversibilité. Sur cette base nous présentons un prototype de grammaire réversible plus satisfaisant des points de vue linguistique et algorithmique. Dans une seconde partie, nous étudions en détail un problème particulier important apparu dans la première partie, celui de l'élimination de la récursion gauche dans une grammaire à clauses définies (DCG). Nous proposons une solution générale à ce problème: la forme normale de Greibach généralisée (GGNF). Ce résultat, qui semble être le premier énoncé de forme normale pour les grammaires logiques (ou plus généralement d'unification), est une extension au cas des DCGs de la forme normale de Greibach classique des grammaires hors-contexte. La transformation est basée sur une généralisation des concepts mathématiques de série formelle et de système algébrique introduits par M. Schützenberger dans l'étude des grammaires régulières et hors-contexte. Cette généralisation a l'intérêt de faire apparaître clairement l'origine algébrique de la souplesse transformationnelle des grammaires logiques, et laisse plus généralement entrevoir les développements intéressants dans l'étude mathématique de la programmation logique
APA, Harvard, Vancouver, ISO, and other styles
33

Marie, Benjamin. "Exploitation d’informations riches pour guider la traduction automatique statistique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS066/document.

Full text
Abstract:
S'il est indéniable que de nos jours la traduction automatique (TA) facilite la communication entre langues, et plus encore depuis les récents progrès des systèmes de TA statistiques, ses résultats sont encore loin du niveau de qualité des traductions obtenues avec des traducteurs humains.Ce constat résulte en partie du mode de fonctionnement d'un système de TA statistique, très contraint sur la nature des modèles qu'il peut utiliser pour construire et évaluer de nombreuses hypothèses de traduction partielles avant de parvenir à une hypothèse de traduction complète. Il existe cependant des types de modèles, que nous qualifions de « complexes », qui sont appris à partir d'informations riches. Si un enjeu pour les développeurs de systèmes de TA consiste à les intégrer lors de la construction initiale des hypothèses de traduction, cela n'est pas toujours possible, car elles peuvent notamment nécessiter des hypothèses complètes ou impliquer un coût de calcul très important. En conséquence, de tels modèles complexes sont typiquement uniquement utilisés en TA pour effectuer le reclassement de listes de meilleures hypothèses complètes. Bien que ceci permette dans les faits de tirer profit d'une meilleure modélisation de certains aspects des traductions, cette approche reste par nature limitée : en effet, les listes d'hypothèses reclassées ne représentent qu'une infime partie de l'espace de recherche du décodeur, contiennent des hypothèses peu diversifiées, et ont été obtenues à l'aide de modèles dont la nature peut être très différente des modèles complexes utilisés en reclassement.Nous formulons donc l'hypothèse que de telles listes d'hypothèses de traduction sont mal adaptées afin de faire s'exprimer au mieux les modèles complexes utilisés. Les travaux que nous présentons dans cette thèse ont pour objectif de permettre une meilleure exploitation d'informations riches pour l'amélioration des traductions obtenues à l'aide de systèmes de TA statistique.Notre première contribution s'articule autour d'un système de réécriture guidé par des informations riches. Des réécritures successives, appliquées aux meilleures hypothèses de traduction obtenues avec un système de reclassement ayant accès aux mêmes informations riches, permettent à notre système d'améliorer la qualité de la traduction.L'originalité de notre seconde contribution consiste à faire une construction de listes d'hypothèses par passes multiples qui exploitent des informations dérivées de l'évaluation des hypothèses de traduction produites antérieurement à l'aide de notre ensemble d'informations riches. Notre système produit ainsi des listes d'hypothèses plus diversifiées et de meilleure qualité, qui s'avèrent donc plus intéressantes pour un reclassement fondé sur des informations riches. De surcroît, notre système de réécriture précédent permet d'améliorer les hypothèses produites par cette deuxième approche à passes multiples.Notre troisième contribution repose sur la simulation d'un type d'information idéalisé parfait qui permet de déterminer quelles parties d'une hypothèse de traduction sont correctes. Cette idéalisation nous permet d'apporter une indication de la meilleure performance atteignable avec les approches introduites précédemment si les informations riches disponibles décrivaient parfaitement ce qui constitue une bonne traduction. Cette approche est en outre présentée sous la forme d'une traduction interactive, baptisée « pré-post-édition », qui serait réduite à sa forme la plus simple : un système de TA statistique produit sa meilleure hypothèse de traduction, puis un humain apporte la connaissance des parties qui sont correctes, et cette information est exploitée au cours d'une nouvelle recherche pour identifier une meilleure traduction
Although communication between languages has without question been made easier thanks to Machine Translation (MT), especially given the recent advances in statistical MT systems, the quality of the translations produced by MT systems is still well below the translation quality that can be obtained through human translation. This gap is partly due to the way in which statistical MT systems operate; the types of models that can be used are limited because of the need to construct and evaluate a great number of partial hypotheses to produce a complete translation hypothesis. While more “complex” models learnt from richer information do exist, in practice, their integration into the system is not always possible, would necessitate a complete hypothesis to be computed or would be too computationally expensive. Such features are therefore typically used in a reranking step applied to the list of the best complete hypotheses produced by the MT system.Using these features in a reranking framework does often provide a better modelization of certain aspects of the translation. However, this approach is inherently limited: reranked hypothesis lists represent only a small portion of the decoder's search space, tend to contain hypotheses that vary little between each other and which were obtained with features that may be very different from the complex features to be used during reranking.In this work, we put forward the hypothesis that such translation hypothesis lists are poorly adapted for exploiting the full potential of complex features. The aim of this thesis is to establish new and better methods of exploiting such features to improve translations produced by statistical MT systems.Our first contribution is a rewriting system guided by complex features. Sequences of rewriting operations, applied to hypotheses obtained by a reranking framework that uses the same features, allow us to obtain a substantial improvement in translation quality.The originality of our second contribution lies in the construction of hypothesis lists with a multi-pass decoding that exploits information derived from the evaluation of previously translated hypotheses, using a set of complex features. Our system is therefore capable of producing more diverse hypothesis lists, which are globally of a better quality and which are better adapted to a reranking step with complex features. What is more, our forementioned rewriting system enables us to further improve the hypotheses produced with our multi-pass decoding approach.Our third contribution is based on the simulation of an ideal information type, designed to perfectly identify the correct fragments of a translation hypothesis. This perfect information gives us an indication of the best attainable performance with the systems described in our first two contributions, in the case where the complex features are able to modelize the translation perfectly. Through this approach, we also introduce a novel form of interactive translation, coined "pre-post-editing", under a very simplified form: a statistical MT system produces its best translation hypothesis, then a human indicates which fragments of the hypothesis are correct, and this new information is then used during a new decoding pass to find a new best translation
APA, Harvard, Vancouver, ISO, and other styles
34

Ben, Larbi Sara. "La traduction de la métaphore en poésie : ses difficultés et son évaluation." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0218.

Full text
Abstract:
Nous entreprenons la traduction de la métaphore procédant à l’analyse d’un corpus à trois codes linguistiques l’anglais, l’arabe et le français, différents par leur système et leur usage linguistique. Dans quelle mesure la métaphore a-t-elle été traduite sans être défigurée ? Nous avons analysé la métaphore dans une étude comparée de l’anglais au français du poète Thomas Stearns Eliot vers Pierre Leyris dans La Terre vaine, Mercredi des cendres, et de l’arabe au français du poète Mahmoud Darwich vers le traducteur Elias Sanbar dans Pourquoi as-tu laissé le cheval à sa solitude ? Ne t’excuse pas et Comme des Fleurs d’amandier ou plus loin. Toutefois, notre thèse s’articule autour de trois parties : la première repense la métaphore en évaluant ses définitions en langue, en grammaire traditionnelle, en rhétorique et en définissant ses caractéristiques en linguistique, la deuxième, afin de pallier les difficultés de traduire la métaphore en poésie, nous avons posé le postulat de reclasser les six types de métaphores en deux : commune et particulière, la troisième aboutit aux stratégies. Traduire la métaphore est interrogé à l’aune de la linguistique contrastive et de traduction: l’échantillon, composé de 30 obstacles, montre que les traducteurs Leyris et Sanbar partagent les mêmes problèmes : l’ordre lexico-sémantique, le lexique inapproprié ou la création d’une nouvelle unité lexicale et l’approche de traduction de la métaphore prouve que les traducteurs recourent à trois stratégies : la traduction par un même référent, par un différent référent et la conversion. Lançons la question cruciale : la métaphore commune traduisible de l’anglais au français serait-elle modélisable ?
We undertake to study the metaphor translation carrying out corpora in three linguistics codes: English, Arabic and French different by their system and their linguistic use. To what extent the metaphor has it been translated without being disfigured? We analyse in a comparative study the metaphors translated from English into French of the poet Thomas Stearns Eliot by Pierre Leyris in The Waste Land, Ash Wednesday, and Ariel Poems putting the verse in the standard English. We also study Mahmoud Darwich metaphors translated From Arabic into French by Elias Sanbar in three poetry books: Why do you let the horse to loneliness? Don’t apologize and as an almond tree flowers or farther. However, our thesis is divided into three chapters: firstly, we rethink the metaphor by evaluating its definitions in language, traditional grammar, rhetoric and it redefines the metaphor features linguistically. Secondly, in order to solve the difficulties metaphor translation in poetry, we postulate reclassifying six metaphor rhetoric variations in two sets: common metaphor and particular one. Thirdly, it postulates many kinds of metaphor translation strategies. Translate the metaphor can be asked in the contrastive linguistic and traductological perspective explaining the translator difficulties. The sample, composed of 30 difficulties, shows that the translators Leyris and Sanbar share the same problems: the lexicon and semantic order, the lexicon inappropriate or the creation of a new lexical unit and the translation approach of the metaphor proves that the translators highlight three strategies: the translation by the same reference, the different reference and the conversion. In order to achieve the results, we ask this following question: common metaphor translation from English into French, would it be modeled?
APA, Harvard, Vancouver, ISO, and other styles
35

Schwarzl, Anja. "The (im)possibilities of machine translation /." Frankfurt am Main ; Berlin ; Paris [etc.] : P. Lang, 2001. http://catalogue.bnf.fr/ark:/12148/cb38934029b.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Circe, Karine. "Traduction automatique, mémoire de traduction ou traduction humaine? Proposition d'une approche pour déterminer la meilleure méthode à adopter, selon le texte." Thesis, University of Ottawa (Canada), 2005. http://hdl.handle.net/10393/26876.

Full text
Abstract:
Over the past several years, there has been such an enormous increase in the demand for translation services that translators have been struggling to keep up with it. This situation makes the use of computer translation tools ever more attractive. But once these programs have been installed, how can translators decide which one to use? Or whether it is worth the trouble of using them at all? The objective of this thesis is to answer these questions by proposing and testing an approach to predict which translation method---machine translation, translation memories or human translation---will be the best for a given text type. In this case "best" means the method that allows a translator to produce a "client-ready" translation as quickly as possible. After a review of the characteristics that, according to various authors, determine that a text is more suitable for a particular translation method, three different text types were analyzed and translated (from English to French) using the three methods listed above in order to establish the correlations between the characteristics of the texts and the method that gave the best results for each text. This data was used to develop a checklist of guidelines and to assign values to their various elements (e.g., the optimal number of words per sentence, the maximum number of sentences in the passive voice). Two pilot tests were then performed to verify the validity of two sets of values for predicting the best method on two new text types. After these texts were translated and the predictions verified, the values were adjusted and a final test was performed. The results of the final test support the conclusion that the approach proposed in this thesis can indeed help text allocators and translators choose the best method to use.
APA, Harvard, Vancouver, ISO, and other styles
37

Hadj, salah Marwa. "Désambiguïsation lexicale de l'arabe pour et par la traduction automatique." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM089/document.

Full text
Abstract:
Nous abordons dans cette thèse une étude sur la tâche de la désambiguïsation lexicale qui est une tâche centrale pour le traitement automatique des langues, et qui peut améliorer plusieurs applications telles que la traduction automatique ou l'extraction d'informations. Les recherches en désambiguïsation lexicale concernent principalement l'anglais, car la majorité des autres langues manque d'une référence lexicale standard pour l'annotation des corpus, et manque aussi de corpus annotés en sens pour l'évaluation, et plus important pour la construction des systèmes de désambiguïsation lexicale. En anglais, la base de données lexicale wordnet est une norme de-facto de longue date utilisée dans la plupart des corpus annotés et dans la plupart des campagnes d'évaluation.Notre contribution porte sur plusieurs axes: dans un premier temps, nous présentons une méthode pour la création automatique de corpus annotés en sens pour n'importe quelle langue, en tirant parti de la grande quantité de corpus anglais annotés en sens wordnet, et en utilisant un système de traduction automatique. Cette méthode est appliquée sur la langue arabe et est évaluée sur le seul corpus arabe, qui à notre connaissance, soit annoté manuellement en sens wordnet: l'OntoNotes 5.0 arabe que nous avons enrichi semi-automatiquement. Son évaluation est réalisée grâce à la mise en œuvre de deux systèmes supervisés (SVM, LSTM) qui sont entraînés sur les corpus produits avec notre méthode.Grâce ce travail, nous proposons ainsi une base de référence solide pour l'évaluation des futurs systèmes de désambiguïsation lexicale de l’arabe, en plus des corpus arabes annotés en sens que nous fournissons en tant que ressource librement disponible.Dans un second temps, nous proposons une évaluation in vivo de notre système de désambiguïsation de l’arabe en mesurant sa contribution à la performance de la tâche de traduction automatique
This thesis concerns a study of Word Sense Disambiguation (WSD), which is a central task in natural language processing and that can improve applications such as machine translation or information extraction. Researches in word sense disambiguation predominantly concern the English language, because the majority of other languages lacks a standard lexical reference for the annotation of corpora, and also lacks sense annotated corpora for the evaluation, and more importantly for the construction of word sense disambiguation systems. In English, the lexical database wordnet is a long-standing de-facto standard used in most sense annotated corpora and in most WSD evaluation campaigns.Our contribution to this thesis focuses on several areas:first of all, we present a method for the automatic creation of sense annotated corpora for any language, by taking advantage of the large amount of wordnet sense annotated English corpora, and by using a machine translation system. This method is applied on Arabic and is evaluated, to our knowledge, on the only Arabic manually sense annotated corpus with wordnet: the Arabic OntoNotes 5.0, which we have semi-automatically enriched.Its evaluation is performed thanks to an implementation of two supervised word sense disambiguation systems that are trained on the corpora produced using our method. We hence propose a solid baseline for the evaluation of future Arabic word sense disambiguation systems, in addition to sense annotated Arabic corpora that we provide as a freely available resource.Secondly, we propose an in vivo evaluation of our Arabic word sense disambiguation system by measuring its contribution to the performance of the machine translation task
APA, Harvard, Vancouver, ISO, and other styles
38

Vial, Loïc. "Modèles neuronaux joints de désambiguïsation lexicale et de traduction automatique." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM032.

Full text
Abstract:
La désambiguïsation lexicale (DL) et la traduction automatique (TA) sont deux tâches centrales parmi les plus anciennes du traitement automatique des langues (TAL). Bien qu'ayant une origine commune, la DL ayant été conçue initialement comme un problème fondamental à résoudre pour la TA, les deux tâches ont par la suite évolué très indépendamment. En effet, d'un côté, la TA a su s'affranchir d'une désambiguïsation explicite des termes grâce à des modèles statistiques et neuronaux entraînés sur de grandes quantités de corpus parallèles, et de l'autre, la DL, qui est confrontée à certaines limitations comme le manque de ressources unifiées et un champs d'application encore restreint, reste un défi majeur pour permettre une meilleure compréhension de la langue en général.Aujourd'hui, dans un contexte où les méthodes à base de réseaux de neurones et les représentations vectorielles des mots prennent de plus en plus d'ampleur dans la recherche en TAL, les nouvelles architectures neuronales et les nouveaux modèles de langue pré-entraînés offrent non seulement de nouvelles possibilités pour développer des systèmes de DL et de TA plus performants, mais aussi une opportunité de réunir les deux tâches à travers des modèles neuronaux joints, permettant de faciliter l'étude de leurs interactions.Dans cette thèse, nos contributions porteront dans un premier temps sur l'amélioration des systèmes de DL, par l'unification des données nécessaires à leur mise en oeuvre, la conception de nouvelles architectures neuronales et le développement d'approches originales pour l'amélioration de la couverture et des performances de ces systèmes. Ensuite, nous développerons et comparerons différentes approches pour l'intégration de nos systèmes de DL état de l'art et des modèles de langue, dans des systèmes de TA, pour l'amélioration générale de leur performance. Enfin, nous présenterons une nouvelle architecture pour l'apprentissage d'un modèle neuronal joint pour la DL et la TA, s'appuyant sur nos meilleurs systèmes neuronaux pour l'une et l'autre tâche
Word Sense Disambiguation (WSD) and Machine Translation (MT) are two central and among the oldest tasks of Natural Language Processing (NLP). Although they share a common origin, WSD being initially conceived as a fundamental problem to be solved for MT, the two tasks have subsequently evolved very independently of each other. Indeed, on the one hand, MT has been able to overcome the explicit disambiguation of terms thanks to statistical and neural models trained on large amounts of parallel corpora, and on the other hand, WSD, which faces some limitations such as the lack of unified resources and a restricted scope of applications, remains a major challenge to allow a better understanding of the language in general.Today, in a context in which neural networks and word embeddings are becoming more and more important in NLP research, the recent neural architectures and the new pre-trained language models offer not only some new possibilities for developing more efficient WSD and MT systems, but also an opportunity to bring the two tasks together through joint neural models, which facilitate the study of their interactions.In this thesis, our contributions will initially focus on the improvement of WSD systems by unifying the ressources that are necessary for their implementation, constructing new neural architectures and developing original approaches to improve the coverage and the performance of these systems. Then, we will develop and compare different approaches for the integration of our state of the art WSD systems and language models into MT systems for the overall improvement of their performance. Finally, we will present a new architecture that allows to train a joint model for both WSD and MT, based on our best neural systems
APA, Harvard, Vancouver, ISO, and other styles
39

Pétry, Jean-Luc. "Le prénom "il" en traduction assistée par ordinateur étude théorique /." Metz : Université Metz, 2008. ftp://ftp.scd.univ-metz.fr/pub/Theses/1996/Petry.Jean_Luc.LMZ969.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Lavigne, Pierre-Étienne. "L’utilisation de la traduction automatique en contexte professionnel : étude de cas concernant les perceptions de la traduction automatique ainsi que son utilisation en contexte professionnel." Thesis, Université d'Ottawa / University of Ottawa, 2017. http://hdl.handle.net/10393/36592.

Full text
Abstract:
Résumé : La demande croissante du marché de la traduction n'est pas aisée à combler, ce qui pousse un certain nombre de traducteurs et de fournisseurs de services de traduction à chercher des outils d'aide à la traduction pouvant complémenter ou remplacer ceux liés aux mémoires de traduction (MT) (Lewis 1997 : 256; O'Brien 2002 : 99, 105-106; Saint-André 2015 : 1-8). Certains se sont tournés vers la traduction automatique (TA), qui paraît permettre certains gains de productivité lorsqu'elle est utilisée en combinaison avec un outil de MT (Guerberof 2009; Lewis 1997 : 256; O'Brien 2002 : 99, 105-106). Toutefois, la question de l’utilisation de la TA par des traducteurs en contexte organisationnel réel semble avoir été peu étudiée. La présente étude, menée en collaboration avec l’équipe de traduction des Instituts de recherche en santé du Canada (IRSC), a visé à évaluer si la combinaison d’outils de MT avec des outils de TA peut véritablement rehausser la productivité des traducteurs dans ce type de contexte. Pour ce faire, une analyse des perceptions des traducteurs en rapport aux outils de MT et de TA et une expérience dans le cadre de laquelle des textes ont été traduits à l’aide d’une MT seule ou à l’aide d’une MT et d’un système de TA ont été effectuées. Les données des deux volets de la recherche ont ensuite été analysées pour évaluer les perceptions des participants en rapport aux outils de MT et de TA, déterminer si l’utilisation d’outils de MT et de TA permettait d’atteindre des seuils de productivité plus élevés que l’utilisation d’outils de MT seuls, et vérifier si les perceptions des participants en rapport aux outils utilisés avaient influencé les seuils de productivité atteints. L’étude contribue ainsi à approfondir les connaissances en rapport à l’utilité de la TA en contexte organisationnel réel et en rapport aux perceptions des traducteurs quant aux outils d’aide à la traduction que constituent les MT et la TA.
APA, Harvard, Vancouver, ISO, and other styles
41

Gahbiche-Braham, Souhir. "Amélioration des systèmes de traduction par analyse linguistique et thématique : Application à la traduction depuis l'arabe." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00878887.

Full text
Abstract:
La traduction automatique des documents est considérée comme l'une des tâches les plus difficiles en traitement automatique des langues et de la parole. Les particularités linguistiques de certaines langues, comme la langue arabe, rendent la tâche de traduction automatique plus difficile. Notre objectif dans cette thèse est d'améliorer les systèmes de traduction de l'arabe vers le français et vers l'anglais. Nous proposons donc une étude détaillée sur ces systèmes. Les principales recherches portent à la fois sur la construction de corpus parallèles, le prétraitement de l'arabe et sur l'adaptation des modèles de traduction et de langue.Tout d'abord, un corpus comparable journalistique a été exploré pour en extraire automatiquement un corpus parallèle. Ensuite, différentes approches d'adaptation du modèle de traduction sont exploitées, soit en utilisant le corpus parallèle extrait automatiquement soit en utilisant un corpus parallèle construit automatiquement.Nous démontrons que l'adaptation des données du système de traduction permet d'améliorer la traduction. Un texte en arabe doit être prétraité avant de le traduire et ceci à cause du caractère agglutinatif de la langue arabe. Nous présentons notre outil de segmentation de l'arabe, SAPA (Segmentor and Part-of-speech tagger for Arabic), indépendant de toute ressource externe et permettant de réduire les temps de calcul. Cet outil permet de prédire simultanément l'étiquette morpho-syntaxique ainsi que les proclitiques (conjonctions, prépositions, etc.) pour chaque mot, ensuite de séparer les proclitiques du lemme (ou mot de base). Nous décrivons également dans cette thèse notre outil de détection des entités nommées, NERAr (Named Entity Recognition for Arabic), et nous examions l'impact de l'intégration de la détection des entités nommées dans la tâche de prétraitement et la pré-traduction de ces entités nommées en utilisant des dictionnaires bilingues. Nous présentons par la suite plusieurs méthodes pour l'adaptation thématique des modèles de traduction et de langue expérimentées sur une application réelle contenant un corpus constitué d'un ensemble de phrases multicatégoriques.Ces expériences ouvrent des perspectives importantes de recherche comme par exemple la combinaison de plusieurs systèmes lors de la traduction pour l'adaptation thématique. Il serait également intéressant d'effectuer une adaptation temporelle des modèles de traduction et de langue. Finalement, les systèmes de traduction améliorés arabe-français et arabe-anglais sont intégrés dans une plateforme d'analyse multimédia et montrent une amélioration des performances par rapport aux systèmes de traduction de base.
APA, Harvard, Vancouver, ISO, and other styles
42

Saint-André, Louise. "Quelle formation donner aux traducteurs-postéditeurs de demain?" Thesis, Université d'Ottawa / University of Ottawa, 2014. http://hdl.handle.net/10393/31881.

Full text
Abstract:
Certains affirment qu’à l’avenir, un nombre croissant de traducteurs postéditeront des textes issus de la traduction automatique plutôt que de traduire. Cette étude examine le bagage à inculquer aux futurs traducteurs-postéditeurs pour mieux les outiller. Un sondage mené en ligne auprès de postéditeurs du Canada et d’ailleurs montre que les compétences traductionnelles et rédactionnelles sont les plus utiles en PÉ, suivies des compétences en correction et d’aspects profession¬nels; les connais¬sances spécialisées et les compétences en informatique arrivent aux derniers rangs. Le sondage montre de plus que si les compétences traductionnel¬les et rédactionnel¬les sont généralement acquises pendant la formation universitaire en traduction, ce n’est pas le cas des compétences en correction, et encore moins des aspects professionnels : deux éléments à intégrer en priorité à la formation des traducteurs-postéditeurs pour la bonifier. La thèse propose deux formules susceptibles de favoriser l’intégration des éléments prioritaires pour mieux préparer les traducteurs-postéditeurs de demain.
APA, Harvard, Vancouver, ISO, and other styles
43

Ignat, Camelia Rousselot François. "Improving statistical alignment and translation using highly multilingual corpora." Strasbourg : Université de Strasbourg, 2009. http://eprints-scd-ulp.u-strasbg.fr:8080/1147/01/IGNAT_Camelia_2009.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Anchaleenukoon, Sunant. "Etude contrastive des systemes predicatifs francais et thai en vue de la traduction automatique." Paris 3, 1993. http://www.theses.fr/1993PA030135.

Full text
Abstract:
Les systemes predicatifs francais et thai sont analyses en termes de logique et de semantique parce que ces langues sont tres eloignees au niveau syntaxique. Pour neutraliser les differences de classes syntaxiques pour la meme classe semantique, nous utilisons la notion d'unite lexicale, qui joue un role important en tao. Dans les systemes de tao, construits selon la methodologie de b. Vauquois, une structure multiniveau est une arborescence dontles noeuds sont pourvus d'etiquettes complexes contenant, outre une unite lexicale pour les noeuds a contenu lexical, des informations permettant d'interpreter la structure a plusieurs niveaux. Par ordre de "profondeur", on utilise en tao les niveaux syntaxique et syntagmatique, syntaxique fonctionnel, et logico-semantique. L'analyse generale que nous avons effectuee montre que la langue francaise et la langue thai ont les memes types de concepts. Il s'agit du proces, de l'etat et de l'entite, qui sont les types derivationnels, des predicats. Les resultats de notre analyse detaillee des predicats francais et thai montrent qu'il existe de grandes ressemblances entre les systemes predicatifs de deux langues. Ces deux systemes ne presentent en fait que peu de differences menant a des problemes difficiles pour la tao. D'une part, il y a peu de differences en ce qui concerne les restrictions semantiques en francais et en thai. D'autre part, les differences de temps, de modes, et d'ordre des mots entre le francais et le thai ne posent en principe pas de probleme pour la tao, parce qu'on peut en decrire les. .
The predicative systems of french and thai are analyzed with a view to machine translation. This analysis is carried out in terms of logic and semantics, as these two languages are quite different at the syntactic level. We then use the notion of lexical units. The lexical units concerning the predicative system play a very important role in machine translation. They allow to neutralize the differences of the syntactic classes for the same semantic class. According to the method of prof. B. Vauquois, multilevel structures are used in mt systems to represent the analysis of units of translation. A multilevel structure is a tree structure where the nodes bear complex labels contraining the necessary informations to interpret each level selected. These levels are presented by the hierarchy of their "deep structure". The general analysis allow us to observe that the french and thai languages have the same kinds of concepts : process, state and entity, which constitute the derivative types of the predicates. The result of this analysis shows that the greater part of the predicative system in french and thai is quite the same. We found that there will be very few difficult points in french-thai machine translation caused by differences in the predicative systems. On the one hand, there are very few differences concerning semantic restrictions on arguments of. .
APA, Harvard, Vancouver, ISO, and other styles
45

Anchaleenukoon, Sunant. "Étude contrastive des systèmes prédicatifs français et thai en vue de la traduction automatique." Paris 3, 1993. http://www.theses.fr/2003PA03A135.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Blain, Frédéric. "Modèles de traduction évolutifs." Thesis, Le Mans, 2013. http://www.theses.fr/2013LEMA1034/document.

Full text
Abstract:
Bien que la recherche ait fait progresser la traduction automatique depuis plusieurs années, la sortie d’un système automatisé ne peut être généralement publiée sans avoir été révisée humainement au préalable, et corrigée le cas échéant. Forts de ce constat, nous avons voulu exploiter ces retours utilisateurs issus du processus de révision pour adapter notre système statistique dans le temps, au moyen d’une approche incrémentale.Dans le cadre de cette thèse Cifre-Défense, nous nous sommes donc intéressés à la postédition, un des champs de recherche les plus actifs du moment, et qui plus est très utilisé dans l’industrie de la traduction et de la localisation.L’intégration de retours utilisateurs n’est toutefois pas une tâche aussi évidente qu’il n’y paraît. D’une part, il faut être capable d’identifier l’information qui sera utile au système, parmi l’ensemble des modifications apportées par l’utilisateur. Pour répondre à cette problématique, nous avons introduit une nouvelle notion (les « Actions de Post-Édition »), et proposé une méthodologie d’analyse permettant l’identification automatique de cette information à partir de données post-éditées. D’autre part, concernant l’intégration continue des retours utilisateurs nous avons développé un algorithme d’adaptation incrémentale pour un système de traduction statistique, lequel obtient des performances supérieures à la procédure standard. Ceci est d’autant plus intéressant que le développement et l’optimisation d’un tel système de traduction estune tâche très coûteuse en ressources computationnelles, nécessitant parfois jusqu’à plusieurs jours de calcul.Conduits conjointement au sein de l’entreprise SYSTRAN et du LIUM, les travaux de recherche de cette thèse s’inscrivent dans le cadre du projet ANR COSMAT 1. En partenariat avec l’INRIA, ce projet avait pour objectif de fournir à la communauté scientifique un service collaboratif de traduction automatique de contenus scientifiques. Outre les problématiques liéesà ce type de contenu (adaptation au domaine, reconnaissance d’entités scientifiques, etc.), c’est l’aspect collaboratif de ce service avec la possibilité donnée aux utilisateurs de réviser les traductions qui donne un cadre applicatif à nos travaux de recherche
Although machine translation research achieved big progress for several years, the output of an automated system cannot be published without prior revision by human annotators. Based on this fact, we wanted to exploit the user feedbacks from the review process in order to incrementally adapt our statistical system over time.As part of this thesis, we are therefore interested in the post-editing, one of the most active fields of research, and what is more widely used in the translation and localization industry.However, the integration of user feedbacks is not an obvious task. On the one hand, we must be able to identify the information that will be useful for the system, among all changes made by the user. To address this problem, we introduced a new concept (the “Post-Editing Actions”), and proposed an analysis methodology for automatic identification of this information from post-edited data. On the other hand, for the continuous integration of user feedbacks, we havedeveloped an algorithm for incremental adaptation of a statistical machine translation system, which gets higher performance than the standard procedure. This is even more interesting as both development and optimization of this type of translation system has a very computational cost, sometimes requiring several days of computing.Conducted jointly with SYSTRAN and LIUM, the research work of this thesis is part of the French Government Research Agency project COSMAT 2. This project aimed to provide a collaborative machine translation service for scientific content to the scientific community. The collaborative aspect of this service with the possibility for users to review the translations givesan application framework for our research
APA, Harvard, Vancouver, ISO, and other styles
47

Nakamura, Delloye Yayoi. "Alignement automatique de textes parallèles français - japonais." Paris 7, 2007. http://www.theses.fr/2007PA070054.

Full text
Abstract:
L'alignement automatique consiste à trouver une correspondance entre des unités de textes parallèles. Nous nous intéressons plus particulièrement à la réalisation d'un système qui procède à l'alignement au niveau des propositions, unités profitables dans beaucoup d'applications. La présente thèse est constituée de deux types de travaux : les travaux introducteurs et ceux constituant le noyau central. Ce dernier s'articule autour de la notion de proposition syntaxique. Les travaux introducteurs comprennent l'étude des généralités sur l'alignement ainsi que des travaux consacrés à l'alignement des phrases. Ces travaux ont conduit à la réalisation d'un système d'alignement des phrases adapté au traitement des textes français et japonais. Le noyau de la thèse est composé de deux types de travaux, études linguistiques et réalisations informatiques. Les études linguistiques se divisent elles-mêmes en deux sujets : la proposition en français et la proposition en japonais. Le but de nos études sur la proposition française est de définir une grammaire pour la détection des propositions. Pour cet effet, nous avons cherché à définir une typologie des propositions, basée sur des critères uniquement formels. Dans les études sur le japonais, nous définissons d'abord la phrase japonaise sur la base de l'opposition thème-rhème. Nous tentons ensuite d'élucider la notion de proposition. Les réalisations informatiques comportent trois tâches composant ensemble au final l'opération d'alignement des propositions, incarnées par trois systèmes informatiques distincts : deux détecteurs de propositions (un pour le français et un pour le japonais), ainsi qu'un système d'alignement des propositions
Automatic alignment aims to match elements of parallel texts. We are interested especially in the implementation of a System which carries out alignment at the clause level. Clause is a beneficial linguistic unit for many applications. This thesis consists of two types of works: the introductory works and those that constitute the thesis core. It is structured around the concept of syntactic clause. The introductory works include an overview of alignment and studies on sentence alignment. These works resulted in the creation of a sentence alignment System adapted to French and Japanese text processing. The thesis core consists of two types of works: linguistic studies and implementations. The linguistic studies are themselves divided into two topics: French clause and Japanese clause. The goal of our French clause studies is to define a grammar for clause identification. For this purpose, we attempted to define a typological classification of clauses, based on formal criteria only. In Japanese studies, we first define the Japanese sentence on the basis of the theme-rheme structure. We then try to elucidate the notion of clause. Implementation works consist of three tasks which finally constitute the clause alignment processing. These tasks are carried out by three separate tools: two clauses identification Systems (one for French texts and one for Japanese texts) and a clause alignment System
APA, Harvard, Vancouver, ISO, and other styles
48

Dahmani, Halima. "Contribution à la généralisation de la traduction noir braille." Paris 11, 1988. http://www.theses.fr/1988PA112029.

Full text
Abstract:
La conception d'un outil de généralisation de la traduction noir-braille doit se baser sur une bonne séparation entre l'aspect informatique et l'aspect application braille. Le premier est réalisé par un moteur d'automate et le second par des bases de traduction qui se présentent sous forme de règles directement modifiables par des spécialistes du braille non informaticiens. L'écriture d'un traducteur réversible pour le braille abrégé et le braille sténo : la réversibilité du traducteur repose sur l'écriture d'une base de règles réversibles. Le traducteur réversible braille abrégé mis au point permet de traduire un texte du noir sur le braille abrégé et inversement en utilisant la même base de traduction, les parties gauche et droite des règles étant permutées.
APA, Harvard, Vancouver, ISO, and other styles
49

Fränne, Ellen. "Google Traduction et le texte idéologique : dans quelle mesure une traduction automatique transmet-elle le contenu idéologique d'un texte?" Thesis, Linnéuniversitetet, Institutionen för språk (SPR), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-64460.

Full text
Abstract:
Automatic translations, or machine translations, get more and more advanced and common. This paper aims to examine how well Google Traduction works for translating an ideological text. To what extent can a computer program interpret such a text, and render the meaning of complex thoughts and ideas into another language ? In order to study this, UNESCOS World Report Investing in Cultural Diversity and Intercultural Dialogue has been translated from french to swedish, first automatically and then manually. Focusing on denotations, connotations, grammar and style, the two versions have been analysed and compared. The conclusion drawn is that while Google Traduction impresses by its speed and possibilites, editing the automatically translated text in order to correctly transmit the mening and the message of the text to the target language reader, would probably be a more time-consuming process than writing a direct translation manually.
APA, Harvard, Vancouver, ISO, and other styles
50

Lab, Frédérique. "Linguistique contrastive et traduction automatique, une étude de cas : les traductions anglaises du présent français." Paris 7, 1991. http://www.theses.fr/1991PA070041.

Full text
Abstract:
Apres une breve introduction a la traduction automatique et quelques definitions relatives a ce domaine, l'auteur etudie plus particulierementles problemes du traitement du temps et de l'aspect dans certains systemes de t. A. Existants. Un chapitre entier, d'approche critique, est consacre au projet europeen eurotra. La partie principale de la these consiste en un examen attentif des traductions du present francais francais en anglais : 1) quelles sont les possibilites de traduction du present (etude de corpus)? 2) que faut-il prendre en compte pour deduire la valeur du present et donc le traduire (interpretation referentielle, statut du proces, determination nominale, aspect lexical), 3) quelles regles peut-on etablir pour la traduction automatique des formes verbales au present?
After a brief introduction to machine translation, with a few definitions relating to this domain, the author studies the treatment of time and aspect in some of the existing m. T. Systems. A whole section is devoted to the european pr0ject "eurotra", with a critical approach. The main partof the thesis consists of a thorough examination of the translations of the french "present" tense into english : 1) what are the various possible translations (study of a corpus)? 2) what has to be taken into account in order to infer the value of the present and hence translate it (referential interpretation, status of the process, noun determination, lexical aspect), 3) what are the rules that can be drawn for the automatic translation of these verbal forms?
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography