To see the other types of publications on this topic, follow the link: Anglais (langue) – Informatique.

Dissertations / Theses on the topic 'Anglais (langue) – Informatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 25 dissertations / theses for your research on the topic 'Anglais (langue) – Informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bründl, Monika Elisabeth. "Lexikalische Dynamik : Kognitiv-linguistische Untersuchungen am englischen Computerwortschatz /." Tübingen : M. Niemeyer, 2001. http://catalogue.bnf.fr/ark:/12148/cb39918274d.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Labrosse, Pierre. "L'aspect en anglais de l'informatique." Paris 4, 1999. http://www.theses.fr/1999PA040150.

Full text
Abstract:
Cette recherche linguistique sur douze articles de recherche en informatique écrits en anglais se développe à partir de leur organisation rhétorique établie selon les principes de l'analyse textuelle. L'analyse statistique de ce corpus que nous avons lemmatisé permet de vérifier que les proportions des temps grammaticaux varient suivant la fonction rhétorique de la proposition ou ils figurent, mais infirme en partie l'hypothèse couramment admise en lansad selon laquelle les indices temporels ne jouent aucun rôle dans cette variation. Lorsque ces indices ne permettent pas de différencier les temps grammaticaux dans les propositions mentionnant des recherches précédentes, notre étude démontre que l'emploi du present perfect, du prétérit ou du présent ne reflète pas la pertinence de l'expérience mentionnée mais l'articulation rhétorique du texte. La conjonction des approches linguistique et rhétorique prouve aussi que l'aspect verbal va de pair avec le nombre, le fonctionnement, la détermination et la référence du sujet et du COD, ainsi qu'avec la présence et la référence des circonstants, l'apparition de marques de commentaire et le choix de la diathèse. Cette interdépendance se retrouve dans les propositions décrivant des appareils où l'obtention des informations de l'illustration, ainsi que dans celles commentant une illustration ou discutant de théorie. L'analyse de passages à un même temps révèle parfois une structure en abyme entre son organisation rhétorique et la valeur en langue du temps utilisé, de même que l'examen d'extraits mêlant plusieurs temps montre que les mouvements de condensation / déploiement de la périphrase du present perfect mis au jour par la théorie de la réélaboration, en accord avec d'autres sciences humaines, se répercutent à des niveaux supérieurs de la construction du texte.
APA, Harvard, Vancouver, ISO, and other styles
3

Memet, Monique. "Anglais de spécialité dans le domaine du génie électrique : aspects sociolinguistiques et applications didactiques résultant du traitement informatique des données." Bordeaux 2, 1994. http://www.theses.fr/1994BOR21010.

Full text
Abstract:
Les travaux sont situés à l'intérieur d'un parcours : celui d'un praticien d'anglais de spécialité dans le domaine du génie électrique. Tout enseignant de langue de spécialité devrait pouvoir naviguer dans le domaine de ses apprenants avec un minimum de connaissances scientifiques et techniques. Des repères dans ce sens sont fournis dans la première partie : définition du génie électrique, bref historique des avancées de la science dans le domaine de l'électronique et panorama du développement de l'informatique. Une application pratique créée à l'aide d'une base de données est proposée. La collecte des matériaux de la spécialité est utilisée comme outil de connaissance du terrain des apprenants. La deuxième partie présente le terrain d’enseignement à partir duquel l’anglais de spécialité dans le domaine du génie électrique est étudié : un département Génie Electrique et Informatique Industrielle d’un Institut Universitaire de Technologie. Le profil des apprenants est défini, ainsi que leurs attitudes vis-à-vis des documents utilisés en cours. Les données ont été recueillies à l’aide d’un questionnaire soumis aux apprenants et à un groupe d’autochtones suivant un cursus parallèle aux Etats-Unis. Les types de documents provenant des entreprises sont présentés. L'analyse du discours de la spécialité fait l'objet de la troisième partie. Le corpus découle de la nature des travaux des apprenants en IUT : il est constitué d'extraits de notices en anglais, insérés dans des rapports de stage rédigés par les apprenants. Le cadre théorique de l'analyse – fondé sur l'approche sociolinguistique du discours – puis la composition du corpus et ses caractéristiques sont présentés, ainsi que les normes et les recommandations des fabricants. L'analyse vise à fournir des outils pour dissocier les aspects qui relèvent respectivement de la discipline, des éléments visuels et de la langue. L'analyse linguistique porte essentiellement sur le discours de la première page des notices de composants. La dernière partie définit les outils de didactisation pour une approche communicative ; il s'agit d'une application des analyses et de la collecte d'informations auprès des utilisateurs français et autochtones. Des fiches pratiques et diverses activités visant à réduire les réticences et les difficultés des apprenants face à la documentation technique utilisée sont proposées. En conclusion, la possibilité de transfert de la démarche concernant l'enseignement de l'anglais de spécialité est envisagée pour d'autres disciplines que celle du génie électrique. Figure en annexe une organisation structurée et dynamique des documents de la langue de spécialité, en particulier de fichiers pour les périodiques de langues de spécialité, et de documents authentiques dans le domaine du génie électrique.
APA, Harvard, Vancouver, ISO, and other styles
4

Blanvillain, Odile. "Représentation formelle de l'emploi de should en anglais contemporain, en vue d'un traitement automatique." Paris 7, 1993. http://www.theses.fr/1993PA070074.

Full text
Abstract:
Cette these a pour but de proposer une representation formelle (metalinguistique) des differents emplois de should, en anglais contemporain, dans le cadre de la theorie des operations enonciatives, et de voir ce que cette etude peut apporter a un eventuel traitement automatique du modal en contexte. Elle se donne egalement pour tache de faire ressortir le statut particulier de should par rapport a d'autres modaux ou pseudo-modaux, tels que shall, must ou ought to, par exemple, et de comprendre le jeu que permet should sur les valeurs de modalite ii et iv, dans le cas de ses emplois "ambigus". Il en ressort que la difference entre should et shall, must ou ought to est essentiellement qualitative. Par ailleurs, les differentes anbiguites possibles dans l'interpretation de should s'expliquent, cas par cas, par les caracteristiques specifiques de son fonctionnement ( valuation positive, fonctionnement particulier de la source deontique, etc). En ce qui concerne l'apport pour un eventuel traitement automatique, la mise en evidence de ces caracteristiques est feconde dans le cadre d'un travail de comprehension automatique de texte. Mais du point de vue de l'analyse syntaxique, cette etude montre, au contraire, qu'il est extremement difficile de determiner automatiquement la valeur de ce modal
The aim of this thesis is to propose a formal (metalinguistic) representation of the different uses of should, in modern english, within an utterercentered approach, and to examine how this study can contribute to a possible automatic processing of the modal, in context. Its aim is also to bring out the particular status of should in comparison with shall, must or ought to, for example, and to understand the interplay of epistemic and root modalities that allows should, in its "ambiguous" uses. It appears that the difference between should and shall, must or ought to is essentially qualitative. Besides, the different possible ambiguities in the interpretation of should can be explained, in each case, by the specific characteristics of its fonctioning (positive valuation, particularities of its deontic origin, etc. . ) concerning the contribution to a possible automatic processing, the bringing out of these characteristics can be of importance within a work of automatic comprehension of texts. But, on the syntactic point of view, on the contrary, it appears extremely difficult to determine automatically the value of the modal
APA, Harvard, Vancouver, ISO, and other styles
5

Baldo, Sabrina. "Représentation des valeurs sémantiques de l'auxiliaire modal would en anglais : étude linguistique et système d'exploration contextuelle en vue du traitement informatique de sa traduction automatique en français." Paris 4, 2000. http://www.theses.fr/2000PA040221.

Full text
Abstract:
Le sujet de mon doctorat « représentation des valeurs sémantiques de l'auxiliaire modal would en anglais : étude linguistique et système d'exploration contextuelle en vue du traitement informatique de sa traduction automatique en français » se situe à la charnière de diverses disciplines : - la linguistique théorique avec l'analyse du modal would et de sa traduction en français ; - la linguistique appliquée à l'informatique avec la méthode d'exploration contextuelle ; - la traduction automatique unilatérale : de l'anglais vers le français. Ce travail s'articule en deux parties : d'abord une description linguistique où les valeurs sémantiques de would sont étudiées (translatif, hypothétique, volitif et autres). Cette première partie fait le bilan sur la polysémie des traductions possibles de would en français ainsi que sur sa valeur invariante. Ensuite, une partie de mise en application de l'exploration contextuelle pour la traduction automatique de would. La méthodologie de l'exploration contextuelle intègre linguistique, formalisation / informatique et aspects cognitifs du langage. Elle a été élaborée en plusieurs étapes : le repérage des indices linguistiques pertinents pour chaque valeur sémantique de would à partir de l'étude empirique d'un corpus, l'élaboration de plus de cent règles heuristiques et l'organisation hiérarchisée de l'ensemble sous la forme d'un système à base de connaissances. L'objectif de cette étude est de permettre la création d'un système expert apte à déduire la valeur sémantique de n'importe quelle occurrence du modal would en vue de sa traduction automatique.
APA, Harvard, Vancouver, ISO, and other styles
6

Kübler, Natalie. "L'automatisation de la correction d'erreurs syntaxique : application aux verbes de transfert en anglais pour francophones." Paris 7, 1995. http://www.theses.fr/1995PA070007.

Full text
Abstract:
L'automatisation de la correction d'erreurs syntaxiques représente un problème complexe que nous avons abordé de différentes manières. Travailler sur les erreurs implique tout d'abord une bonne représentation des structures syntaxiques correctes d'une langue, afin d'avoir un cadre de référence pour les erreurs. Nous décrivons les verbes de transfert, i. E. Verbes qui expriment un échange entre deux personnes, dans le cadre théorique et méthodologique du lexique-grammaire. Cette description, mise en correspondance avec une typologie d'erreur établie sur la base d'un corpus, nous permet de comparer les verbes du français et de l'anglais et d'établir une description structurée des erreurs que commettent les francophones en anglais. La détection des erreurs suppose ensuite le traitement automatique du texte, il est donc nécessaire de choisir, parmi les méthodes existant actuellement, une méthode d'analyse et une approche vis-à-vis des erreurs à reconnaitre. Deux voies s'offrent pour aborder le problème de la détection d'erreurs : l'analyse complète de la phrase et le repérage des structures incorrectes dans les résultats de l'analyse. La première méthode implique l'utilisation d'un analyseur de phrases correctes capable de reconnaître une erreur de structure, ce qui représente deux problèmes à résoudre : l'analyse syntaxique en général et la détection d'erreurs. Nous avons opté pour la seconde solution qui permet de ne rechercher que les erreurs sans faire une analyse complète de la phrase. Ce choix implique que toutes les erreurs possibles soient décrites, ce qui n'est possible que si l'on a déjà une description des structures correctes. Le mécanisme utilisé se base sur une variation des automates finis. Il est ainsi possible de détecter des erreurs avec de bons résultats lorsque l'on dispose d'une description linguistique détaillée
Correcting syntactic errors is a complex problem. Organizing the linguistic data represents the first important step, especially in the field of second-language error correction. The errors that native speakers fo french make in english must be taken into account when structuring this information. It is also necessary to have a wellformed description of the correct syntactic structures of a language in order to compare them with incorrect structures. Therefore, we describe the syntactic structures of transfer verbs - i. E. Verbs that express the transfer of an object or of words between to persons - in the theoretical and methodological frame of the lexicon-grammar. This description is compared with a typology of errors and with the corresponding structures of the french transfer verbs, which enables us to have a well-formed description of the incorrect structures produced by french-speakers in english. The specific mecanism used to detect the errors is based on a variation of finite state automata. This mecanism does not analyses whole sentences but is based on island processing. Looking for the specific incorrect structures that have previously been described
APA, Harvard, Vancouver, ISO, and other styles
7

Depierre, Amélie. "La Composition en anglais scientifique : application au domaine de la physico-chimie." Littoral, 2001. http://www.theses.fr/2001DUNK0070.

Full text
Abstract:
Issue d'expériences et d'interrogations pédagogiques, cette recherche a pour double objectif d'une part de faire la synthèse des travaux existants en matière de composés et autres groupes nominaux complexes en anglais, et d'autre part d'appliquer les acquis théoriques afin de venir en aide aux étudiants et chercheurs francophones qui ont besoin de communiquer (comprendre et s'exprimer) en anglais. Après un tour d'horizon des critères de définition et de distinction des composés, puis des investigations en corpus, une nouvelle classification morphologique des composés binaires a été effectuée, suivie de l'examen des relations sémantiques entre les éléments, et d'une extension aux composés à plus de deux lexèmes. Une attention particulière a été accordée aux composés néo-classiques et aux sigles, spécialement abondants dans le domaine scientifique, ainsi qu'au contraste entre trois structures concurrentes : N₂ N₁, N₂'s N₁ et N₁ of N₂, qui constituent une source non-négligeable d'erreurs d'encodage chez les francophones. Finalement, un glossaire électronique des termes du domaine assortis d'exemples de phrases attestées, est proposé au format Excel, un des objectifs post-thèse étant d'étendre ce glossaire et de le mettre au format HTML, afin de le rendre plus accessible, car c'est un outil flexible et exportable à d'autres domaines
This study stems from teaching experience and comes as a response to students' questions and errors. It has two main objectives : on the one hand a critical review of existing research on compounds and other complex nominals in English, and on the other hand the application of the theoretical data available in order to help French-speaking students and researchers, who need to communicate (understand, speak and write) in English, namely in the domain of physico-chemical sciences. After a survey of the characteristics of compounds, and an investigation of axamples taken from several corpora, a new morphological classification of binominal compounds is suggested, then the semantic relations between their elements are pointed out. The results are extended to longer nominals, with a particular attention paid to words built from Greek and Latin bases, and acronyms, which abound in the field of sciences. These competing structures : N₂ N₁, N₂'s N₁ and N₁ of N₂ are contrasted, as they are a major source of error among French speakers, especially at the encoding stage. Lastly, an electronic glossary in Excel format including some of the terms of the domain, together with examples of attested sentences, has been developed. One of the future objectives is to transfer the glossary in HTML format in order to make it more available for use in various domains
APA, Harvard, Vancouver, ISO, and other styles
8

Zumstein, Franck. "Variation accentuelle, variation phonétique : étude systématique fondée sur des corpus lexico-phonétiques informatisés anglais." Poitiers, 2007. http://www.theses.fr/2007POIT5025.

Full text
Abstract:
Dans ce travail, nous abordons le problème de la variation accentuelle du lexique de l'anglais contemporain, tel qu'il se manifeste dans le mot "controversy" (schéma accentuel /1000/ ou /0100/), par exemple. Notre corpus de référence est une version électronique du "Longman Pronunciation Dictionary" de John Wells, dont la version papier fut publiée en 1990. Suite au traitement informatique du corpus, nous avons mené des analyses linguistiques dans le cadre de travaux de Lionel Guierre sur l'accentuation lexicale de l'anglais. Afin de déterminer le caractère archaïque ou [sic. ] émergent des variantes en jeu, nous avons également repris les enregistrements dictionnairiques de plusieurs lexicographes anglais des XVIIIè et XIXè siècles. Au terme de notre étude, nous avons pu dégager des constantes touchant aux facteurs déterminants de la variation et faire apparaître la directionnalité de la variation examinée. Parmi ces constantes, nous avons pu constater le rôle important de la sémantique lexicale
In this piece of work is examined word-stress variation in contemporary English, such as in the word "controversy" (stressed /1000/ or /0100/). Our linguistic analyses are based on automatic data retrieval from a computer-readable version of John Well's "Longman Pronunciation Dictionary" published in 1990. Eighteenth and nineteenth century English dictionaries are also consulted so as to determine whether variants are old stressings or new patterns. The results of this study, which is a follow-up of Lionel Guierre's work on word stress in English, highlight the direction of the change of the alternating stress patterns and show that regular criteria, notably the meaning of words, account for such variations
APA, Harvard, Vancouver, ISO, and other styles
9

Boughedaoui, Mourad. "Anglais spécialisé de l'informatique : contribution à l'étude de la complexification des noms composés par chaînage." Bordeaux 2, 1995. http://www.theses.fr/1995BOR2A001.

Full text
Abstract:
Ce travail présente une étude du processus de complexification des noms composés en chaines (NCC) à travers les niveaux de langue d'un corpus de textes informatiques écrits. Ce processus est caractérisé par l'existence de différents niveaux d'imbrications des éléments constitutifs au sein des NCC. Ces niveaux sont identifiés dans notre étude par une segmentation formelle fondée sur le repérage de paires collocationnelles dans le contexte linguistique des NCC. Cette approche a permis de souligner le rôle des collocations dans la structuration binaire des NCC ainsi que dans la formation des adjectifs composés. Afin d'établir une quelconque dépendance entre le phénomène de complexification et les quatre niveaux de langue étudiés, une analyse statistique de la fréquence et de la complexité des NCC a été effectuée. Une typologie des NCC étudiés a été dressée en vue de mettre en évidence les rapports complexes résultant de la riche combinatoire des diverses catégories syntaxiques a l'intérieur des NCC. La dernière partie est réservée a l'étude des retombées pédagogiques
This work presents a study of the complexification process of string compound nouns (SCNS) through different registers of a corpus of computer science written texts. This process is characterized by the existence of various overlapping levels of the component parts within SCNS. In this study, these levels are identified using a formal segmentation based essentially on the location of collocational sequences in the linguistic environment of SCNS. This approach made it possible to highlight the active role of collocations in the binary structuring of SCNS as well as in the formation of compound adjectives. In order to establish any inter-relationship between the complexification phenomenon and the four registers studied, a statistical analysis of the frequencies and complexities of SCNS has been carried out. An SCN typology has been drawn up so as to put forward the complex relationship resulting from the multiple potential combinations of the various syntactic categories featuring in SCNS. The last section lays special emphasis on the pedagogic implications
APA, Harvard, Vancouver, ISO, and other styles
10

Lutrand-Pezant, Brigitte. "Les propositions complétives en that en anglais contemporain." Paris 4, 2003. http://www.theses.fr/2003PA040212.

Full text
Abstract:
Ce travail, basé sur un corpus informatisé de plus de 7 000 énoncés, s'articule en trois parties : d'abord, une présentation de l'état des connaissances des linguistes sur les complétives en that, puis une description des formes rencontrées dans le corpus ainsi que des statistiques et enfin une analyse de leurs contextes d'occurrences. Le choix de that ou Ø, notamment, fait l'objet d'une étude détaillée. Le comportement de ces propositions est examiné dans les œuvres littéraires du XIXe et du XXe siècle et dans les articles de presse et articles scientifiques. Des comparaisons entre l'anglais oral et l'anglais écrit ont été proposées lorsque cela s'est révélé nécessaire. Cette recherche a également essayé de montrer les spécificités de l'anglais d'Afrique du Sud, d'Irlande, de Grande-Bretagne et des Etats-Unis en ce qui concerne ces propositions
This study, based on a computer-based corpus of over 7 000 examples, falls into three parts : first a presentation of the linguistic knowledge so far on the subject of that clauses, then a description of the forms present in the corpus together with statistics and third an analysis of their lexical and syntactic environments. The issue of the choice between that and Ø has been carefully examined. The behaviour of these clauses has been studied through literary texts of the 19th and 20th centuries as well as in journalistic and scientific writings. Oral English has been compared to written English when necessary. This research did also try to show the characteristics of South African, Irish, British and American English regarding these clauses
APA, Harvard, Vancouver, ISO, and other styles
11

Resche, Catherine. "La bourse des valeurs : Terminologie comparée du français et de l'anglais." Rouen, 1986. http://www.theses.fr/1986ROUEL017.

Full text
Abstract:
Ce travail de terminologie comparée a pour but l'établissement d'un fichier informatisé devant entrer dans le cadre d'une banque de données terminologiques. L'auteur s'attache à étudier la langue de la bourse des valeurs à travers la presse contemporaine spécialisée, afin de la "rendre" telle qu'elle est dans la réalité. L'ouvrage est composé de deux parties: la première partie est consacrée à la théorie et la deuxième est constituée par le fichier à proprement parler (deux mille entrées en tout, avec définitions et contextes, d'où on a tiré ici les lettres "a" en français et "s" en anglais, à titre d'exemple et pour des raisons pratiques). Dans la partie théorique, l'auteur, après avoir défini la terminologie comparée en l'opposant à d'autres disciplines (linguistique, lexicologie, traduction. . . ), analyse les problèmes que pose le passage d'une langue dans l'autre, en soulignant les différences entre les civilisations et les systèmes français, britannique et américain, puis elle expose la méthode. Un rappel des réformes récentes lui permet d'insister sur les créations qu'elles ont entraînées et d'analyser leur évolution dans la langue. Cette langue de la bourse est plus complexe qu'il n'y paraît; en dehors des termes techniques, dont la nature et la formation sont examinées, elle s'enrichit d'images et d'adages qui sont également étudiés. Un questionnaire-enquête effectué auprès des spécialistes permet de répondre à certaines questions concernant la synonymie, la siglaison, les emprunts interlangues, etc. . . Le problème de la normalisation est naturellement soulevé par le constat de la polysémie de certains termes; enfin, le choix du fichier informatisé est justifié par l'exposé des avantages présentés par la formule d'une banque de données terminologiques et par les exigences de rigueur et de logique auxquelles l'informatisation oblige à se plier et qui garantissent la fiabilité du "produit fini"
The aim of the author here is to study the terminology of the stock exchange through the contemporary press abd compare the french, british and american terms so as to establish equivalents which will later be computerized as part of a data bank. The study is composed of two parts: the first one concentrates on theory and the second one consists of "index cards" -two thousands of them with definitions and contexts, among which those starting with the letter "a" in french and the letter "s" in english have been chosen to appear here as an illustration of the whole. In the first part, the author tries to define comparative terminology by opposing it to other sciences (linguistics, lexicology, translation techniques. . . ). She analyses the problem raised by switching from one language to the other, underlining the differences that exist between the french, british and american civilisations and systems, and she explains her method. A brief review of the recent reforms helps her to illustrate the terms that have just been coined and comment upon their evolution in the language. The terminology of the stock exchange is more complex than it seems; apart from the technical terms, whose nature and formation are examined, it is also composed of images and adages which are worth stuying. A questionnaire sent to specialists throws some light on questions concerning synonyms, acronyms, terms borrowed from another language, etc. . . The issue of standardization is also raised by the observation of polysemic terms; finally the choice of the computerized formula is justified by the analysis of the advantages offered by a data bank and by the demands upon logic this system implies thus guaranteeing the accuracy of the whole
APA, Harvard, Vancouver, ISO, and other styles
12

Ganeval-Béciri, Hélène. "La néologie dans le domaine microinformatique professionnel en français et en anglais : création lexicale et explicitation de contexte." Paris 7, 1999. http://www.theses.fr/1999PA070108.

Full text
Abstract:
Cette étude lexicologique est centrée sur la communication spécialistes-utilisateurs dans le domaine microinformatique professionnel. A partir d'un ensemble de néologismes spécialisés, relevés en contexte dans la presse informatique française et anglosaxonne, et réunis sous forme de bases de données, on opère une analyse des particularités de la création lexicale, ainsi que des procédés de transmission du sens, en français et en anglais, dans les discours techniques intermédiaires (communication entre locuteurs de compétences différentes). Une étude comparative des procédés de création lexicale dans les discours généralistes et spécialisés montre dans ces derniers, à la fois certaines particularités des choix opérés (réutilisation massive du fonds spécialisé existant, abondance des composés syntagmatiques et des néologismes sémantiques, influence attendue de l'anglais sur la structure des créations françaises), et un fonctionnement d'ensemble identique à celui des discours généralistes, notamment en ce qui concerne l'importance des variantes lexicales. La fréquence des homonymes et synonymes relevés amène à une remise en question de l'exigence de bi-univocité du terme technique. L'étude des stratégies de transmission de la compétence lexico-cognitive dans les discours techniques intermédiaires fait apparaitre - le rôle central des contextes explicitants, qui ne comprennent pas seulement des définitions proprement dites, mais incluent l'apport non négligeable des indices isotopiques et situationnels - l'intégration au texte des énoncés définitoires, dont la forme et le contenu sont adaptés au type de texte et au lectorat cible - l'absence de définitions abstraites et générales, remplacées par des séquences informatives d'ordre essentiellement fonctionnel, centrées sur les objets et non sur les dénominations. On constate enfin une convergence des choix néologiques et définitoires, qui ont pour objectif une transparence optimale des créations lexicales et des discours où elles apparaissent. Cette transparence facilite l'appropriation par le lecteur d'un réseau notionnel, à des fins essentiellement pratiques. La communication ainsi établie entre spécialistes et utilisateurs est assurée grâce à un ensemble de procédés qui font partie intégrante du système linguistique.
APA, Harvard, Vancouver, ISO, and other styles
13

Joulia, Danielle. "Faciliter la lecture-compréhension de documentations informatiques en anglais : de l'analyse à l'expérimentation didactique assistée par ordinateur." Thesis, Toulouse 2, 2011. http://www.theses.fr/2011TOU20102.

Full text
Abstract:
L'anglais constitue un passage obligé dans les études d'informatique, notamment la compréhension écrite de documentations, compétence première à développer chez les étudiants d'un DUT Informatique, faibles en anglais et peu motivés par une matière considérée comme mineure dans leur cursus scientifique. Notre recherche s'articule autour de solutions didactiques susceptibles de les rendre opérationnels en anglais en situation de lecture professionnelle. Nous avons privilégié une approche ascendante, inspirée par le terrain et descendante, à partir des fondements théoriques relatifs aux compétences langagières visées. Dans la première partie, qui expose le cadre théorique de la recherche, nous explicitons les termes de notre problématique (anglais de spécialité, lecture, compréhension, TICE) qui nous permirent de construire notre objet de recherche. Nous définissons ainsi l'anglais de spécialité, en tant qu'objet d'enseignement/ apprentissage et objet linguistique, étudions ce que lire et comprendre signifient, à la fois d'un point de vue cognitif et chez les didacticiens des L2, et examinons les apports des TICE à la lecture compréhension. Dans une seconde partie pratique, nous procédons à une analyse de corpus de documentations spécialisées et présentons une approche didactique mise en œuvre par le truchement d'un logiciel d'aide à la lecture, concrétisation de notre réflexion et outil de recherche, qui est expérimenté et évalué pour tester notre hypothèse d'une meilleure compréhension chez les apprenants qui ont bénéficié des aides logicielles. Nous concluons sur la validité de cette approche destinée à améliorer les stratégies de lecture de nos étudiants d'informatique
Reading documentation is an essential skill to develop in computer science students, whose level of English is low and who are poorly motivated by English, a subject considered to be minor in a science curriculum. This research aimed at proposing learning and teaching solutions to make them proficient in reading professional texts. We selected a bottom-up approach, inspired by fieldwork, and a top-down approach from the theoretical foundations related to the language skills involved. The first part expounds the theoretical framework and clarifies the terms of our research problem (English for Specific Purposes, reading, comprehension, ICT/CALL), which allowed us to construct our object of research. ESP is thus defined as a teaching/learning and linguistic object, reading and understanding are characterized from cognitive and SLA points of view, and the contribution of ICT to reading comprehension is examined. The second part, which is more practical, contains a corpus analysis of specialized texts and presents a teaching approach implemented through a software program designed to enhance reading comprehension. The latter is then experimented to test our hypothesis of a better comprehension in student groups who used hypertext reading aids compared to control groups, thus evaluating the impact of our research tool. We conclude on the validity of this approach to improve the reading strategies of computer science students
APA, Harvard, Vancouver, ISO, and other styles
14

Magno, e. Silva Walkyria. "Etude linguistique d'un corpus de manuels d'informatique : application à la lecture en langue étrangère." Toulouse 2, 2002. http://www.theses.fr/2002TOU20048.

Full text
Abstract:
Notre thèse propose une analyse linguistique d'un corpus composé de 23 manuels d'informatique et porte plsu précisément sur la section "Installation et Utilisation" de ces derniers. L'approche que nous avons choisie de privilégier allie la méthodologie proposée par la théorie des sous-langages (Z. Harris, 1968, 1982; L. Hirschman & N. Sager, 1982; J. Lehrberger, 1982) et la typologie textuelle adoptée par J-M Adam (1985, 1992). D'une part, les techniques de l'analyse distributionnelle nous permettent d'isoler les structures des six verbes d'action les plus fréquents dans notre corpus. D'autre part, l'analyse du discours nous sert à mettre en lumière le type de texte le plus caractéristique des manuels, à savoir le discours procédural. Nous montrons également les relations qu'entretient ce type de discours avec le discours expilcatif et descriptif. Notre thèse se termine par un ensemble de propositions d'actions pédagogiques destinées à faciliter l'apprentissage de la lecture des manuels en anglais langue étrangère pour des étudiants en informatique
A corpus of 23 hardware and software computer manuals was studied in order to find out their main characteristics. Focusing on the "Installation and Use" section of these manuals, a linguistic analysis was conducted under the light of two main theoretical currents. On the one hand, the methodology derived from the theory of sublanguages (Z. Harris, 1968, 1982; L. Hirschman & N. Sager, 1982; J. Lehrberger, 1982) helped establish the common grounds of phrase stuctures found in this written genre. Techniques base on distributional analysis were employed to determine the information format of the six most frequent action verbs in the corpus (J. M. Adam, 1985,1992) proved the high incidence of the procedural discourse and showed the interrelation among this type of text and the descriptive and explanatory ones. Pedagogical actions intended to a public of university students who need to read texts in English in the domain of computer sciences were eventually proposed
APA, Harvard, Vancouver, ISO, and other styles
15

Intakosum, Sasi. "Proposition d'une pédagogie d'enseignement de la traduction de textes techniques d'anglais et de français en thai͏̈ : application aux textes informatiques." Paris 3, 2000. http://www.theses.fr/2000PA030066.

Full text
Abstract:
La recherche a pour objectif de proposer une pedagogie de la traduction de textes techniques anglais et francais en thai, destinee a l'enseignement de la traduction professionnelle a l'universite ramkamhaeng, en thailande. Une attention particuliere est portee a la conception du cursus et aux demarches pedagogiques. L'etude des conceptions theoriques de la traduction en thailande et des traduction des manuels informatiques anglais en thai, ainsi que l'analyse du processus interpretatif de la traduction revelent l'efficacite de la demarche interpretative dans la realisation de traductions fideles a l'original, tout en etant adaptees au lecteur et au nouvel environnement de la culture d'arrivee. Cette etude rend egalement compte des problemes inherents a la traduction des textes informatiques, a savoir la traduction de termes techniques nouveaux, de plaisanteries, d'elements culturels ethnographiques et technologiques de l'informatique. Le traducteur les resout en alternant la traduction interpretative (equivalence textuelle) avec le transcodage (correspondance terminologique) et avec l'adaptation (equivalence de visee). La theorie interpretative est ensuite appliquee dans l'etablissement du nouveau cursus de traduction de l'universite ramkamhaeng. Le cursus prescrit une formation de deux ans composee de cours concus en vue de developper le savoir-faire de la traduction et de la recherche documentaire et terminologique et aussi de renforcer les competences traductionnelles, redactionnelles et linguistiques des etudiants. Trois cours constituent le noyau de l'apprentissage: theorie interpretative, traduction generale et traduction specialisee. Une recherche approfondie a donc ete elaboree de maniere a exposer leur contenu et a decrire leurs demarches pedagogiques.
APA, Harvard, Vancouver, ISO, and other styles
16

Yahiaoui, Abdelghani. "Conception et développement d'un outil d'aide à la traduction anglais/arabe basé sur des corpus parallèles." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2042.

Full text
Abstract:
Dans cette thèse, nous abordons la réalisation d’un outil innovant d’aide à la traduction anglais/arabe pour répondre au besoin croissant en termes d’outils en ligne d’aide à la traduction centrés sur la langue arabe. Cet outil combine des dictionnaires adaptés aux spécificités de la langue arabe et un concordancier bilingue issu des corpus parallèles. Compte tenu de sa nature agglutinante et non voyellée, le mot arabe nécessite un traitement spécifique. C’est pourquoi, et pour construire nos ressources lexicales, nous nous sommes basés sur l’analyseur morphologique de Buckwalter qui, d’une part, permet une analyse morphologique en tenant compte de la composition complexe du mot arabe (proclitique, préfixe, radical, suffixe, enclitique), et qui, d’autre part, fournit des ressources traductionnelles permettant une réadaptation au sein d’un système de traduction. Par ailleurs, cet analyseur morphologique est compatible avec l’approche définie autour de la base de données DIINAR (DIctionnaire Informatisé de l’Arabe), qui a été construite, entre autres, par des membres de notre équipe de recherche. Pour répondre à la problématique du contexte dans la traduction, un concordancier bilingue a été développé à partir des corpus parallèles Ces derniers représentent une ressource linguistique très intéressante et ayant des usages multiples, en l’occurrence l’aide à la traduction. Nous avons donc étudié de près ces corpus, leurs méthodes d’alignement, et nous avons proposé une approche mixte qui améliore significativement la qualité d’alignement sous-phrastique des corpus parallèles anglais-arabes. Plusieurs technologies informatiques ont été utilisées pour la mise en œuvre de cet outil d’aide à la traduction qui est disponible en ligne (tarjamaan.com), et qui permet à l’utilisateur de chercher la traduction de millions de mots et d’expressions tout en visualisant leurs contextes originaux. Une évaluation de cet outil a été faite en vue de son optimisation et de son élargissement pour prendre en charge d’autres paires de langues
We create an innovative English/Arabic translation aid tool to meet the growing need for online translation tools centered on the Arabic language. This tool combines dictionaries appropriate to the specificities of the Arabic language and a bilingual concordancer derived from parallel corpora. Given its agglutinative and unvoweled nature, Arabic words require specific treatment. For this reason, and to construct our dictionary resources, we base on Buckwalter's morphological analyzer which, on the one hand, allows a morphological analysis taking into account the complex composition of the Arabic word (proclitic, prefix, stem, suffix, enclitic), and on the other hand, provides translational resources enabling rehabilitation in a translation system. Furthermore, this morphological analyzer is compatible with the approach defined around the DIINAR database (DIctionnaire Informatisé de l’Arabe - Computerized Dictionary for Arabic), which was constructed, among others, by members of our research team. In response to the contextual issue in translation, a bilingual concordancer was developed from parallel corpora. The latter represent a novel linguistic resource with multiple uses, in this case aid for translation. We therefore closely analyse these corpora, their alignment methods, and we proposed a mixed approach that significantly improves the quality of sub-sentential alignment of English-Arabic corpora. Several technologies have been used for the implementation of this translation aid tool which have been made available online (tarjamaan.com) and which allow the user to search the translation of millions of words and expressions while visualizing their original contexts. An evaluation of this tool has been made with a view to its optimization and its enlargement to support other language pairs
APA, Harvard, Vancouver, ISO, and other styles
17

Gaillat, Thomas. "Reference in interlanguage : the case of this and that : From linguistic annotation to corpus interoperability." Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC107.

Full text
Abstract:
Cette thèse s'attache à décrire les constructions inattendues en THIS et en THAT des apprenants francophones et hispanophones de l'anglais. Le chapitre 1 pose la problématique de l'étude des marqueurs THIS et THAT au sein des deux microsystèmes des déictiques et des proformes. Le chapitre 2 présente les différentes analyses de la référence de THIS et de THAT en anglais natif, dans les différents cadres théoriques (Cornish, Cotte, Halliday & Hasan, Kleiber, Fraser & Joly, Lapaire & Rotgé) et croise les problématiques de représentations (anaphore/deixis ; endophoricité/exophoricité) avec l'analyse des réalisations fonctionnelles. Le chapitre 3 dresse un état des lieux rapide de l'analyse de l'interlangue et montre la nécessité d'une approche dynamique des systèmes fondée sur la nécessité de la distinction fonctionnelle. Le chapitre 4 détaille les jeux d'étiquettes existants dans les corpus de l'anglais (Penn Treebank, Claws7, ICE-GB) et montre la nécessité d'une ré-annotation plus fine fondée sur des étiquettes fonctionnelles et d'une sémantique des positions (sujets vs. Oblique). Le chapitre 5 décrit l'architecture de l'annotation multi-niveaux mise en oeuvre pour l'analyse de corpus différents, les méthodes de ré-annotation automatique des catégories fonctionnelles (ainsi que leur évaluation) et expose les choix retenus pour l'interopérabilité de ces corpus. Le chapitre 6 propose une analyse statistique fondée sur des modèles de régression qui mettent au jour les tendances des variables opérationnalisées dans l'analyse (la L1, le mode écrit ou oral du corpus, le type de référence). Le chapitre 7 examine, à partir du recours aux classifieurs, le rôle respectif des propriétés linguistiques codées dans l'analyse et simule un système d'analyse automatique des erreurs. Le chapitre 8 tire les conséquences pour l'analyse linguistique des méthodologies mobilisées dans la thèse
This thesis describes unexpected constructions based on THIS and THAT by French and Spanish learners of English. Chapter 1 raises the issue of the study of THIS and THAT as markers in the two microsystems of pro-forms and deictics. Chapter 2 covers different types of analyses of reference with THIS and THAT in native English and refers to different theoretical frameworks (Cornish, Cotte, Halliday & Hasan, Kleiber, Fraser & Joly, Lapaire & Rotgé). It cross-references representations (anaphora/deixis; endophoricity/exophoricity) with an analysis of functional realisations. Chapter 3 broaches the issue of interlanguage analysis, and it shows that a dynamic systemic approach grounded in the functional distinction of the forms is necessary. Chapter 4 gives details about existing annotation tagsets for English corpora (Penn Treebank, Claws7, ICE-GB). It shows the need for a finer-grained annotation relying on functional tags and for semantic information on the positions (subject v. Oblique). Chapter 5 describes the multilayer annotation structure which is implemented for the analysis of different corpora. It also covers the methods used to automatically annotate functional categories (as well as their evaluation), and it justifies the choices made to support corpus interoperability. Chapter 6 offers a regression analysis which provides evidence on the tendencies of the operationalised variables (the L1, the written or spoken mode of the corpora and the type of reference). Chapter 7 examines the role of the previously coded linguistic properties of the analysis. With the use of classifiers, it describes a system for automatic error analysis. Chapter 8 concludes on the methodologies used in the thesis and their implications in linguistic analysis
APA, Harvard, Vancouver, ISO, and other styles
18

Zellal, Nassim. "Proposition d'un modèle de définition terminologique : approche du domaine de l'informatique en langues française, arabe et anglaise." Paris 3, 2008. http://www.theses.fr/2008PA030086.

Full text
Abstract:
Notre étude vise à mettre en relief la structure de la définition terminologique à travers la systématisation de sa rédaction. Nous avons vérifié l’hypothèse de travail selon laquelle la définition terminologique respecterait un modèle général systémique. Celui-ci reflète l’organisation de constantes extraites d’un corpus français, anglais et arabe ayant trait au domaine de l’informatique. Ces constantes résultent d’un processus d’abstraction et de généralisation donnant lieu à des concepts partitifs et à leurs caractères fonctionnels. Ainsi, chacune de nos définitions reflète un système de concepts et ses relations. Pour affiner ce modèle, nous avons identifié en son sein des schémas fonctionnels spécifiques. C’est l’objet de la vérification de notre sous-hypothèse. Dans la première partie de la thèse, nous proposons, à la lumière de nos lectures, un passage en revue des principes fondamentaux de la théorie dite classique, en présentant en fin d’analyse, une synthèse des critiques formulées à son égard, à travers les nouvelles approches en terminologie. Nous présentons ensuite, les trois pôles constitutifs du triangle théorique terminologique et tentons de les distinguer de leurs homologues en linguistique. En effet, ces distinctions nous semblent primordiales, car elles permettent de mettre l’accent sur le statut de discipline scientifique et autonome de la terminologie ; ceci, au préalable de l’exposé des différentes relations qui unissent les concepts au sein d’un système, ainsi que de la pluridimensionnalité du concept. Nous terminons cette première partie par une définition de la « définition », proposition faite de sa typologie. Nous faisons également état, dans ce chapitre, des recommandations fondamentales relatives à la rédaction de la définition terminologique, ce, afin de cerner avec un maximum de rigueur l’objet de notre étude, la définition terminologique. Dans la seconde partie de la thèse, nous présentons respectivement, le domaine de l’informatique, les motifs de son choix et sa représentation arborescente, ceci, afin d’en avoir une vision panoramique. Puis, nous délimitons ses sous-domaines et l’échantillon de concepts retenus, le tout, dans une perspective qualitative. Ensuite, nous menons une étude des termes qui désignent les périphériques et leurs composants. Pour ce faire, nous analysons la métaphore et la synonymie en l’abordant sous diverses réalisations. Cette étude linguistique s’avère nécessaire du fait que nous devons tenir compte des contraintes linguistiques qui touchent aussi le vocabulaire spécialisé. Le chapitre suivant est consacré à l’étude de la définition terminologique
Our study seeks to examine the structure of terminological definition by systematizing its writing. We start from the general hypothesis that the terminological definition would respect a systemic general model. This one reflects the organization of constants which are extracted from a french, english and arabic corpus about computer science. These constants are generated by an abstraction and generalization operation which enables to identify partitive concepts and functional characteristics. Thus, each definition reflects a system of concepts and its relationships. In order to refine this model, we have identified specific functional schemas. This is the subject of our second hypothesis validation. The first part of the thesis describes, through our readings, a summary of the fundamental principals of the traditional theory of terminology which is also called the classical theory. In the end of this summary, we synthetically set out the main theoretical criticism expressed by the new terminological approaches. We then present the three constitutive aspects of the theoretical terminological triangle and we try to distinguish them from its linguistics counterparts. These distinctions are indeed essential because they allow putting the emphasis on the scientific status and autonomy of terminology. This part comes after the presentation of the various relationships between the concepts, within a system and the multidimensionality of the concept. We end this first part of the thesis by defining the “definition” with a proposal of a definition typology. We also present in this chapter fundamental recommendations about the definition writing, in order to rigorously define the subject of our study which is the terminological definition. In the second part, we present the domain of computer science, the reasons of its choice and its conceptual representation, in order to obtain a panoramic view. We then mark the boundary of its subdomains and the sample of concepts we have chosen by respecting a qualitative perspective. We then make a study of terms that designate the peripheral equipments and its components. The metaphor and synonymy are also set out and analyzed in this chapter in their various forms of realization. This linguistic study turns out to be fundamental because we have to take into account some linguistic constraints which concern the specialized vocabulary as well. The next chapter introduces the study of terminological definition
APA, Harvard, Vancouver, ISO, and other styles
19

Brouat, Thérèse. "Le dire et l'induireContribution à la didactique de l'anglais des spécialités scientifiques et techniques." Chambéry, 1997. http://www.theses.fr/1997CHAML004.

Full text
Abstract:
Cette recherche a pour objectif l'analyse des publicités pour produits informatiques publiées dans des magazines spécialisés britanniques et américains, afin d'en identifier les atouts pour la didactique de l'anglais de spécialité informatique. L'analyse qui porte sur les procédés iconiques et discursifs de mise en scène des arguments, met en évidence leur interaction dynamique dans un espace à la fois codé et ouvert qui favorise l'implication du destinataire. Situées entre un pôle descriptif où la fonction référentielle prévaut et un pôle poétique ouvert aux effets de sens connotés, les publicités informatiques se présentent comme des messages hybrides et multidimensionnels. L'approche adoptée consiste à montrer combien ce message, où tout est conçu pour faire sens et faire signe, tisse étroitement référence technique et dimensions intersubjective, intertextuelle, culturelle et poétique pour inviter le destinataire à une co-production de sens. Lorsque ce destinataire est un apprenant en langue de spécialité, la multidimensionnalité du message catalyse l'attention et la mémorisation, soutient la motivation et permet de répondre aux besoins spécifiques de l'apprentissage d'une langue de spécialité, qui intègre l'acquisition d'une terminologie sans s'y limiter. Pour l'enseignant, les publicités offrent un gisement original de données lexicales et syntaxiques, aisément actualisables dans un domaine où l'évolution est rapide et incessante. La dernière partie de cette recherche ouvre des pistes de didactisation où les niveaux lexicaux et syntaxiques d'une compétence en langue sont associés à des activités de compréhension et de production qui prennent en compte les dimensions cognitive, culturelle et affective de l'apprentissage.
This research aims at studying advertisements for computer products published in british and american computer magazines in order to identify their potential with a view to teaching English to computing students. The analysis deals with the way argumentation is built on the close association of pictures and discourse. It emphasizes the effects of their dynamic interaction on the receiver and the role of the latter in construing meaning. Ranging from a descriptive pole where referential function prevails and a poetic pole open to connotations, advertisements for computer products are hybrid and multidimensional messages. Our approach consists in showing how scientific reference is embedded in other discourse types such as description, explanation, dialogue, story-telling, illustration, poetry, etc. , to appeal to the reader's emotional and rational sides. When the reader is an ESP student, these multidimensional messages can be adapted into teaching material in order to meet specific language needs that include, but are not limited to, technical terminology. For ESP teachers, advertisements provide a mine of easily updatable information in an ever-evolving domain. The last part of this research gives suggestions and guidelines on how to integrate advertisements for computer products in a course for ESP students. It focuses on activities that build on the cognitive, cultural and affective energy of learners and involve them in the process of mastering comprehension and production skills
APA, Harvard, Vancouver, ISO, and other styles
20

Bendinelli, Marion. "Etude des auxiliaires modaux et des semi-modaux dans les débats présidentiels américains (1960-2008) : analyse qualitative et quantitative." Nice, 2012. http://www.theses.fr/2012NICE2017.

Full text
Abstract:
Cette recherche s’intéresse aux enjeux de pouvoir et aux relations d’influence à l’œuvre dans les débats présidentiels américains (1960-2008). Pour saisir les phénomènes de contrôle de l’information, l’étude se concentre sur les auxiliaires modaux et les semi-modaux. L’objectif est de décrire l’emploi de ces marqueurs en menant une réflexion en langue et en discours au moyen de théories énonciatives (TOE essentiellement), pragmatiques (principes conversationnels gricéens), et de notions propres à l’analyse du discours (communication persuasive, stratégie d’influence, dialogisme bakhtinien et évidentialité). Par ailleurs, l’étude est adossée à une analyse logométrique de corpus : une telle méthode suggère des parcours de lecture objectivés via la re-structuration du contenu linguistique du corpus et la possibilité de conduire des analyses multi-niveaux dans des empans textuels de taille variable. Le cadre théorique et méthodologique porte ainsi à un examen qualitatif et quantitatif des faits de langue guidé par une approche du corpus plongeante (bottom-up) et ascendante (top-down). L’étude aboutit à la caractérisation des pratiques discursives des candidats ; trois stratégies d’engagement / désengagement énonciatif sont identifiées ainsi que divers types de discours qui rendent compte de l’évolution des pratiques politiques, de la rhétorique des partis républicain et démocrate, de l’idéologie des candidats et de leurs stratégies de campagne. Une analyse plus détaillée des contextes d’emplois et des valeurs de CAN, MUST, HAVE TO, HAVE GOT TO, NEED TO et OUGHT TO est également proposée, montrant notamment que leur utilisation est motivée par des stratégies différentes
This dissertation consists in the study of modals and semi-modals in a corpus of American presidential debates (1960-2008). Our aim is to characterize their use with respect to issues of power and influence. On the one hand, the theoretical framework borrows from various fields of linguistic analysis, namely enunciation, pragmatics and discourse analysis; the latter helps define notions such as persuasive communication, manipulation and influence strategies. Besides, we suggest that the modals and some semi-modals can activate dialogic echoes and serve as evidential markers. On the other hand, the study relies on a computer-based discourse analysis methodology, namely logometry. Considered as a valuable heuristic approach, it runs statistical measures on linguistic data – be it tokens, lemmas or parts of speech – so as to provide the analyst with frequency lists and cooccurrence networks, among other functionalities. Logometry also offers a bottom-up as well as a top-down approach to corpus scrutiny. The results help identify three enunciative strategies depending on the level of commitment of the utterer with his epistemic or non-epistemic judgements. Also, they determine the existence of several types of discourses that are considered in the light of various issues: speech practice evolution, ideological positioning, rhetorical identity of political parties, candidates’ campaign strategies. As far as the modals and semi-modals CAN, MUST, HAVE TO, HAVE GOT TO, NEED TO and OUGHT TO are concerned, a close examination of their contexts of use shows that they reflect different strategies of presentation of the self, of others, of the audience and of the factual context
APA, Harvard, Vancouver, ISO, and other styles
21

Braud, Chloé. "Identification automatique des relations discursives implicites à partir de corpus annotés et de données brutes." Sorbonne Paris Cité, 2015. https://hal.inria.fr/tel-01256884.

Full text
Abstract:
Le développement de systèmes d'analyse discursive automatique des documents est un enjeu actuel majeur en Traitement Automatique des Langues. La difficulté principale correspond à l'étape d'identification des relations (comme Explication, Contraste. . . ) liant les segments constituant le document. En particulier, l'identification des relations dites implicites, c'est-à-dire non marquées par un connecteur discursif (comme mais, parce que. . . ), est réputée difficile car elle nécessite la prise en compte d'indices variés et correspond à des difficultés particulières dans le cadre d'un système de classification automatique. Dans cette thèse, nous utilisons des données brutes pour améliorer des systèmes d'identification automatique des relations implicites. Nous proposons d'abord d'utiliser les connecteurs pour annoter automatiquement de nouvelles données. Nous mettons en place des stratégies issues de l'adaptation de domaine qui nous permettent de gérer les différences en termes distributionnels entre données annotées automatiquement et manuellement : nous rapportons des améliorations pour des systèmes construits sur le corpus français ANNODIS et sur le corpus anglais du Penn Discourse Treebank Ensuite, nous proposons d'utiliser des représentations de mots acquises à partir de données brutes, éventuellement annotées automatiquement en connecteurs, pour enrichir la représentation des données fondées sur les mots présents dans les segments à lier. Nous rapportons des améliorations sur le corpus anglais du Penn Discourse Treebank et montrons notamment que cette méthode permet de limiter le recours à des ressources riches, disponibles seulement pour peu de langues
Building discourse parsers is currently a major challenge in Natural Language Processing. The identification of the relations (such as Explanation, Contrast. . . ) linking spans of text in the document is the main difficulty. Especially, identifying the so-called implicit relations, that is the relations that lack a discourse connective (such as but, because. . . ), is known as an hard tank sine it requires to take into account varions factors, and because it leads to specific difficulties in a classification system. In this thesis, we use raw data to improve automatic identification of implicit relations. First, we propose to use discourse markers in order to automatically annotate new data. We use domain adaptation methods to deal with the distributional differences between automatically and manually annotated data : we report improvements for systems built on the French corpus ANNODIS and on the English corpus Penn Discourse Treebank. Then, we propose to use word representations built from raw data, which may be automatically annotated with discourse markers, in order to feed a representation of the data based on the words found in the spans of text to be linked. We report improvements on the English corpus Penn Discourse Treebank, and especially we show that this method alleviates the need for rich resources, available but for a few languages
APA, Harvard, Vancouver, ISO, and other styles
22

Malik, Mohamed Mahdi. "Structures prédicatives nominales en Anglais : acquisition de données lexicales pour l'analyse automatique de textes." Thesis, Aix-Marseille 2, 2010. http://www.theses.fr/2010AIX22017/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux relations qui peuvent exister entre des prédicats verbaux(ex : to regulate) et des prédicats nominaux (ex : regulation) dont les structures argumentales mettent enjeu des informations communes. Nous nous livrons à une formalisation des conditions dans lesquelles se réalisent des relations d’équivalence entre les constructions verbales et nominales. La mise en évidence de l’équivalence des structures argumentales de ces deux types de constructions est fondamentale pour pouvoir réaliser, par exemple, des systèmes d’extraction automatique d’informations très performants. En se basant sur les données du lexique The Specialist Lexicon, nous proposons une prédiction raisonnable du comportement syntaxique des arguments nominaux, de différents groupes nominaux prédicatifs(GNpréd), lorsqu’ils sont en position de postmodifieur. Cette étude nous a conduit à concevoir un ensemble d’algorithmes et à développer une plate-forme, Predicate DB, qui nous a permis de produire un lexique de nominalisations. Pour chaque entrée appartenant à ce lexique, nous avons caractérisé ses structures argumentales et ses réalisations dans des GNpréd dont les arguments sont marqués par des prépositions spécifiques
In this thesis, we focus on the relation that may exist between verbal predicates (e.g., regulate)and nominal predicates (e.g., regulation) whose argument structures involve common information.We make a formalization of the conditions in which equivalent relations between verbal and nominalconstructions are carried out. Bringing out the equivalence of argument structures between these twotypes of constructions is fundamental for achieving, for example, very efficient Information Extractionsystems. Based on data from the Specialist Lexicon, we propose a reasonable prediction of the syntacticbehavior of nominal arguments, which belong to different predicate noun phrases (PNPs), when theyare in postmodifier position. This study has led us to design a set of algorithms and develop a platform,PredicateDB, to produce a lexicon of nominalizations. For each entry belonging to this lexicon, we havedefined its argument structures and achievements in PNPs whose arguments are marked by specificprepositions
APA, Harvard, Vancouver, ISO, and other styles
23

Piccato, Mariangela. "Création et exploitation d'un corpus trilingue du tourisme (italien/français/anglais) en vue de la réalisation d'une base de données lexicale informatisée." Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO20051.

Full text
Abstract:
Au cours des dernières années, le secteur touristique a été caractérisé par toute une série de changements fondamentaux. L’un de ces changements, certainement le plus important, a été le fait d’être considéré aujourd’hui comme l’activité productive capable de faire tourner l’économie d’un pays entier.Notre mémoire de recherche se situe à l’intersection de la terminologie thématique, de la linguistique de corpus et du traitement automatique des langues.Dans le premier chapitre du travail que nous allons présenter, nous chercherons à introduire aux domaines d’études théoriques sur lesquels notre recherche s’appuie.Premièrement, on traitera de la linguistique de corpus et on examinera les différentes catégories de corpus existantes. On mettra l’accent sur deux notions fondamentales dans la conception de l’outil corpus en général et dans la création de notre corpus en particulier : représentativité et contexte. Au sein du discours touristique, la représentativité, d’un côté, se relie au caractère spécial de notre micro-langue ; le contexte, de l’autre, révèle la pluralité des sous-domaines qui composent ce technolecte à mi-chemin entre la langue générale et la langue spécialisée.Dans le deuxième chapitre, nous présenterons le corpus thématique trilingue (CTT) que nous avons créé préalablement à la rédaction de la thèse proprement dite.Avant tout, on fournira les indications théoriques et pragmatiques nécessaires pour réaliser un corpus trilingue en langue de spécialité : la collecte des textes, l’homogénéisation des échantillons textuels repérés et l’annotation. Au cours de ce chapitre, nous présenterons Alinea, l’instrument qu’on a utilisé pour l’alignement de textes recueillis et pour la consultation simultanée des traductions trilingues. Dans le troisième et dernier chapitre, on passera à l’interrogation du corpus créé. Sur la base d’un terme pris comme exemple, le terme ville, on lancera la recherche dans le CTT. Ensuite, on analysera les collocations les plus usitées contenant le mot ville.En guise de conclusion de notre mémoire, nous présenterons une annexe consacrée à notre glossaire trilingue comme résultat de notre exploration de la chaîne terminologique qu’on aura analysée précédemment. Pour conclure, l’objectif général de notre étude sera d’explorer la chaîne de gestion terminologique à travers la création d’un glossaire trilingue dans le domaine du tourisme. Notre orientation méthodologique de caractère sémasiologique impliquera ainsi au moins quatre objectifs spécifiques :• créer un corpus trilingue du tourisme (CTT), capable d’attester des usages en contexte des termes.• extraire des termes en utilisant des techniques diverses, telle que l’étude fréquentielle des éléments du corpus.• vérifier les données obtenues et les compléter à l’aide de ressources externes.• répertorier et décrire l’ensemble des termes sous forme d’un glossaire trilingue à sujet touristique (GTT)
Our study concerns the language of tourism from a lexicographical perspective.Exploiting the web we realized a corpus ad hoc. This corpus is composed by about 10.000 texts in three languages (French, Italian and English), aligned using “Alinea”.Starting from terminological extraction, we analysed some collocations at the aim to create a trilingual and tri-directional glossary.We chose this subject according to the increasing importance taken from tourism economy in the world.Our study fields are thematic terminology, corpus linguistics and automatic language treatment.The first chapter presents the study field of our research. First of all, we introduced to corpus linguistics presenting the different categories of corpus and pointing out our attention on two main notions: representativeness and context.Therefore, we explained the link between Language for Special Purposes and tourism discourse as a Specialized Discourse.In the second chapter, we showed the trilingual thematic corpus we created during our researches. We described the main steps to create a corpus: collection of texts, cleaning and annotation.In this chapter, we gave a particular attention to the presentation of “Alinea”.Finally, the third chapter is a study of frequent collocations with the term “town” (ville).The annexes present the glossary as well as the methodological principals we followed in the redaction
APA, Harvard, Vancouver, ISO, and other styles
24

Frini, Marouane. "Diagnostic des engrenages à base des indicateurs géométriques des signaux électriques triphasés." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES052.

Full text
Abstract:
Bien qu’ils soient largement utilisés dans le domaine, les mesures vibratoires classiques présentent plusieurs limites. A la base, l’analyse vibratoire ne peut identifier qu’environ 60% des défauts qui peuvent survenir dans les machines. Cependant, les principaux inconvénients des mesures de la vibration sont l’accès difficile au système de transmission afin d’y placer le capteur ainsi que le coût conséquent de la mise en œuvre. Ceci résulte en des problèmes de sensibilité relatifs à la position de l’installation et ceux de difficulté pour distinguer la source de vibration à cause de la diversité des excitations mécaniques qui existent dans l’environnement industriel.Par conséquent, l’analyse des signatures du courant électrique des moteurs s’impose comme une alternative prometteuse à l’analyse vibratoire et a donc fait l’objet d’une attention grandissante au cours des dernières années. En effet, l’analyse des signatures électriques a l’avantage d’être une méthode techniquement accessible, non-intrusive au système et peu coûteuse. Les techniques basées sur le courant et la tension ne requièrent que les mesures électriques du moteur qui sont souvent déjà surveillées pour le contrôle et la protection des machines électriques. Ce processus a été principalement utilisé pour la détection des défauts de moteur tels que la rupture de barres du rotor et les défauts d’excentricité ainsi que les défauts de roulements. En revanche, très peu de recherches concernent la détection des défauts en utilisant l’analyse du courant. En outre, les signaux électriques triphasés sont caractérisés par des représentations géométriques particulières liées à leur forme d’onde qui peuvent servir en tant qu’indicateurs différents offrant des informations supplémentaires. Parmi ces indicateurs géométriques, les transformées de Park et de Concordia modélisent les composantes électriques dans un repère bidimensionnel et toute déviation par rapport à la représentation d’origine indique l’apparition d’un dysfonctionnement. Aussi, les équations différentielles de Frenet-Serret représentent la trajectoire du signal dans un espace euclidien tridimensionnel et indiquent ainsi tout changement dans l’état du système. Bien qu’ils aient été utilisés pour les défauts de roulements, ces indicateurs n’ont pas été appliqués dans la détection des défauts d’engrenages en utilisant l’analyse des signatures des courants électriques. D’où l’idée novatrice de combiner ces indicateurs avec des techniques de traitement de signal, ainsi que des techniques de classification pour le diagnostic des engrenages en utilisant l’analyse des signatures de courant et de tension du moteur électrique.Ainsi, dans ce travail, on propose une nouvelle approche pour le diagnostic des défauts d’engrenages en utilisant l’analyse des courants et des tensions électriques du stator de la machine et ceci en se basant sur un ensemble d’indicateurs géométriques (Transformées de Park et de Concordia ainsi que les propriétés du repère Frenet-Serret). Ces indicateurs font partie d’une bibliothèque de signatures de défauts qui a été construite et qui comprend également les indicateurs classiques utilisés pour un large éventail de défauts. Ainsi, un algorithme combine les acquisitions expérimentales des signaux électriques à des méthodes de traitement de signal avancées (décomposition modale empirique,…). Ensuite, celui-ci sélectionne les indicateurs les plus pertinents au sein de la bibliothèque en se basant sur les algorithmes de sélection de paramètres (sélection séquentielle rétrograde et analyse des composantes principales). Enfin, cette sélection est utilisée pour la classification non-supervisée (K-moyennes) pour la distinction entre l’état sain et l’état défaillant
Although they are widely used, classical vibration measurements have several limitations. Vibration analysis can only identify about 60% of the defects that may occur in mechanical systems. However, the main drawbacks of vibration measurements are the difficult access to the transmission system in order to place the sensor as well as the consequent cost of implementation. This results in sensitivity problems relative to the position of the installation and the difficulty to distinguish the source of vibration because of the diversity of mechanical excitations that exist in the industrial environment.Hence, the Motor Current Signatures Analysis (M.C.S.A.) represents a promising alternative to the vibration analysis and has therefore been the subject of increasing attention in recent years. Indeed, the analysis of electrical signatures has the advantage of being a technically accessible method as well as inexpensive and non-intrusive to the system. Techniques based on currents and voltages only require the motor’s electrical measurements which are often already supervised for the purposes of the control and the protection of the electrical machines. This process was mainly used for the detection of motors faults such as rotor bars breakage and eccentricity faults as well as bearings defects. On the other hand, very little research has been focused on gear faults detection using the current analysis. In addition, three-phase electrical signals are characterized by specific geometric representations related to their waveforms and they can serve as different indicators providing additional information. Among these geometric indicators, the Park and Concordia transforms model the electrical components in a two-dimensional coordinate system and any deviation from the original representation indicates the apparition of a malfunction. Moreover, the differential equations of Frenet-Serret represent the trajectory of the signal in a three-dimensional euclidean space and thus indicate any changes in the state of the system. Although they have been previously used for bearing defects, these indicators have not been applied in the detection of gear defects using the analysis of electrical current signatures. Hence, the innovative idea of combining these indicators with signal processing techniques, as well as classification techniques for gears diagnosis using the three-phase motor’s electrical current signatures analysis is established.Hence, in this work, a new approach is proposed for gear faults diagnosis using the motor currents analysis, based on a set of geometric indicators (Park and Concordia transforms as well as the properties of the Frenet-Serret frame). These indicators are part of a specifically built fault signatures library and which also includes the classical indicators used for a wide range of faults. Thus, a proposed estimation algorithm combines experimental measurements of electrical signals with advanced signal processing methods (Empirical Mode Decomposition, ...). Next, it selects the most relevant indicators within the library based on feature selection algorithms (Sequential Backward Selection and Principal Component Analysis). Finally, this selection is combined with non-supervised classification (K-means) for the distinction between the healthy state and faulty states. It was finally validated with a an additional experimental configuration in different cases with gear faults, bearing faults and combined faults with various load levels
APA, Harvard, Vancouver, ISO, and other styles
25

Lafrance, Angélique. "Étude de l’évolution dans la terminologie de l’informatique en anglais avant et après 2006." Thèse, 2016. http://hdl.handle.net/1866/18768.

Full text
Abstract:
Dans la présente étude, nous proposons une méthode pour observer les changements lexicaux (néologie et nécrologie) en anglais dans le domaine de l’informatique en diachronie courte. Comme l’informatique évolue rapidement, nous croyons qu’une approche en diachronie courte (sur une période de 10 ans) se prête bien à l’étude de la terminologie de ce domaine. Pour ce faire, nous avons construit un corpus anglais constitué d’articles de revues d’informatique grand public, PC Magazine et PC World, couvrant les années 2001 à 2010. Le corpus a été divisé en deux sous-corpus : 2001-2005 et 2006-2010. Nous avons choisi l'année 2006 comme pivot, car c’est depuis cette année-là que Facebook (le réseau social le plus populaire) est ouvert au public, et nous croyions que cela donnerait lieu à des changements rapides dans la terminologie de l’informatique. Pour chacune des deux revues, nous avons sélectionné un numéro par année de 2001 à 2010, pour un total d’environ 540 000 mots pour le sous-corpus de 2001 à 2005 et environ 390 000 mots pour le sous-corpus de 2006 à 2010. Chaque sous-corpus a été soumis à l’extracteur de termes TermoStat pour en extraire les candidats-termes nominaux, verbaux et adjectivaux. Nous avons procédé à trois groupes d’expérimentations, selon le corpus de référence utilisé. Dans le premier groupe d’expérimentations (Exp1), nous avons comparé chaque sous-corpus au corpus de référence par défaut de TermoStat pour l’anglais, un extrait du British National Corpus (BNC). Dans le deuxième groupe d’expérimentations (Exp2), nous avons comparé chacun des sous-corpus à l’ensemble du corpus informatique que nous avons créé. Dans le troisième groupe d’expérimentations (Exp3), nous avons comparé chacun des sous-corpus entre eux. Après avoir nettoyé les listes de candidats-termes ainsi obtenues pour ne retenir que les termes du domaine de l’informatique, et généré des données sur la variation de la fréquence et de la spécificité relative des termes entre les sous-corpus, nous avons procédé à la validation de la nouveauté et de l’obsolescence des premiers termes de chaque liste pour déterminer si la méthode proposée fonctionne mieux avec un type de changement lexical (nouveauté ou obsolescence), une partie du discours (termes nominaux, termes verbaux et termes adjectivaux) ou un groupe d’expérimentations. Les résultats de la validation montrent que la méthode semble mieux convenir à l’extraction des néologismes qu’à l’extraction des nécrologismes. De plus, nous avons obtenu de meilleurs résultats pour les termes nominaux et adjectivaux que pour les termes verbaux. Enfin, nous avons obtenu beaucoup plus de résultats avec l’Exp1 qu’avec l’Exp2 et l’Exp3.
In this study, we propose a method to observe lexical changes (neology and necrology) in English in the field of computer science in short-period diachrony. Since computer science evolves quickly, we believe that a short-period diachronic approach (over a period of 10 years) lends itself to studying the terminology of that field. For this purpose, we built a corpus in English with articles taken from computer science magazines for the general public, PC Magazine and PC World, covering the years 2001 to 2010. The corpus was divided into two subcorpora: 2001-2005 and 2006-2010. We chose year 2006 as a pivot, because Facebook (the most popular social network) has been open to the public since that year, and we believed that would cause quick changes in computer science terminology. For each of the magazines, we selected one issue per year from 2001 to 2010, for a total of about 540,000 words for the 2001-2005 subcorpus and about 390,000 words for the 2006-2010 subcorpus. Each subcorpus was submitted to term extractor TermoStat to extract nominal, verbal and adjectival term candidates. We proceeded to three experiment groups, according to the reference corpus used. In the first experiment group (Exp1), we compared each subcorpus to the default reference corpus in TermoStat for English, a British National Corpus (BNC) extract. In the second experiment group (Exp2), we compared each subcorpus to the whole computer science corpus we created. In the third experiment group (Exp3), we compared the two subcorpora with each other. After cleaning up the term candidates lists thus obtained to retain only the terms in the field of computer science, and generating data about relative frequency and relative specificity of the terms between subcorpora, we proceeded to the validation of novelty and obsolescence of the first terms of each list to determine whether the proposed method works better with a particular type of lexical change (novelty or obsolescence), part of speech (nominal, verbal or adjectival term), or experiment group. The validation results show that the method seems to work better with neology extraction than with necrology extraction. Also, we had better results with nominal and adjectival terms than with verbal terms. Finally, we had much more results with Exp1 than with Exp2 and Exp3.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography