Academic literature on the topic 'Traitement Automatique de la Langue Naturelle (TALN)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Traitement Automatique de la Langue Naturelle (TALN).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Traitement Automatique de la Langue Naturelle (TALN)"

1

Hamel, Marie-Josée. "Les outils de TALN dans SAFRAN." ReCALL 10, no. 1 (May 1998): 79–85. http://dx.doi.org/10.1017/s0958344000004286.

Full text
Abstract:
Le projet SAFRAN a pour objectif le développement d'une interface dédiée à I'enseignement du français assisté par ordinateur, interface dans laquelle sont intégrés progressivement des outils de traitement automatique des langues naturelles. Ces outils, dans le cadre du projet SAFRAN, sont I'analyseur syntaxique et le synthétiseur vocal FIPSvox, le dictionnaire électronique conceptuel FR-Tool et le conjugueur FLEX, lls permettent I'accès à des ressources linguistiques riches et variées, favorisent I'expérimentation et enfin, offrent un support au diagnostic. Notre article fait le compte-rendu de deux années d'activités scientifiques pour lesquelles nos efforts ont porté sur le développement d'un module sur I'enseignement de la phonétique du français qui intègre les outils de TALN mentionnŕs supra.
APA, Harvard, Vancouver, ISO, and other styles
2

Buvet*, Pierre-André, and Laurent Tromeur. "Le dialogue homme-machine : un système de traduction automatique spécifique." Traduction 55, no. 1 (April 30, 2010): 58–70. http://dx.doi.org/10.7202/039602ar.

Full text
Abstract:
Résumé Nous décrivons un système de dialogue homme-machine conçu comme un système de traduction bilingue qui a la particularité de mettre en relation une langue naturelle et un langage informatique. Le système de dialogue homme-machine doit servir d’interface entre un utilisateur et une plateforme Web qui développe automatiquement des applications informatiques. Dans un premier temps, nous rappelons les particularités d’un système de dialogue homme-machine et nous présentons le système d’interaction en langue naturelle que nous utilisons. Dans un deuxième temps, nous détaillons le mode de fonctionnement du système de transfert. Dans un troisième temps, nous précisons le traitement linguistique qui permet au système d’interpréter des instructions rédigées par les usagers et de les traduire en langage-machine.
APA, Harvard, Vancouver, ISO, and other styles
3

Balicco, Laurence, Salaheddine Ben-Ali, Claude Ponton, and Stéphanie Pouchot. "Apports de la generation automatique de textes en langue naturelle a la recherche d'information." Proceedings of the Annual Conference of CAIS / Actes du congrès annuel de l'ACSI, October 12, 2013. http://dx.doi.org/10.29173/cais6.

Full text
Abstract:
L’expérience acquise dans notre équipe en recherche d’information et en génération automatique de textes (production de textes par un système informatique à partir d’un contenu formel) nous a montré que la relation de l’utilisateur avec le système de recherche d’information n’était pas naturelle, l’utilisateur devant généralement s’adapter au système. Pour simplifier cette interaction personne-système, nous avons étudié les apports d’un système de génération automatique à un système de recherche d’information. Le processus de recherche d’information se compose de trois phases :• formulation de la requête par l’utilisateur,• traitement de la requête par le système,• affichage des résultats.En quoi et comment un système de génération automatique rend-il l’utilisation d’un système de recherche d’information plus efficace et facilite-t-il son appréhension ? Ceci fait l’objet de cette publication. Quand la formulation de la requête est inadéquate, on peut en générer automatiquement différentes reformulations en fonction des caractéristiques du système de recherche d’information. Il est également possible d’engendrer une explication sur la méthode employée et le type de données traitées par le système afin que l’utilisateur puisse comprendre le processus de recherche et adapter sa requête. Si une trop grande quantité d’informations est délivrée, il est nécessaire de structurer, d’organiser la présentation des résultats voire, selon l’application, de produire un résumé des réponses. Le générateur intervient donc au niveau de l’interface personne-machine et communique avec le système et l’utilisateur. Nos travaux sur la structuration et la mise en forme des textes produits, sur la génération de textes explicatifs et la reformulation de requêtes ont servi de point de départ à ce travail dont l’objectif final est la mise en oeuvre d’une application réelle.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Traitement Automatique de la Langue Naturelle (TALN)"

1

Ahmia, Oussama. "Veille stratégique assistée sur des bases de données d’appels d’offres par traitement automatique de la langue naturelle et fouille de textes." Thesis, Lorient, 2020. http://www.theses.fr/2020LORIS555.

Full text
Abstract:
Cette thèse, effectuée dans le cadre d’un contrat CIFRE avec la société OctopusMind, est centrée sur le développement d'un outillage informatique dédié et optimisé pour l'assistance à l'exploitation de la base d'appels d'offres, dans une finalité de veille stratégique. Notre contribution se décline en trois chapitres : le premier concerne le développement d’une ressource multilingue partiellement comparable. Qui est construite à partir des appels d’offres européens publiés par le TED (Tenders Electronic Daily). Elle contient plus de deux millions de documents traduits dans 24 langues publiées durant les 9 dernières années. Le deuxième chapitre concerne une étude sur les questions de vectorisation de mots, phrases et documents susceptibles de capturer au mieux la sémantique selon différentes échelles. Nous avons proposé deux approches : la première est basée sur une combinaison entre word2vec et LSA. La deuxième est basée sur une architecture neuronale originale basée sur des réseaux d’attention convolutionnels à deux niveaux. Ces vectorisations sont exploitées à titre de validation sur des tâches de classification et de clustering de textes. Le troisième chapitre concerne l’extraction de relations sémantiques contenues dans des appels d’offres, permettant de relier des bâtiments à des surfaces, des lots à des budgets, etc... Les développées sont ici plus traditionnelles et reposent sur des CRF. La fin de ce chapitre concerne la mise en production dans l’environnement logiciel d’OctopusMind des différentes solutions, notamment l’extraction d’informations, le système de recommandation, ainsi que la combinaison de ces différents modules pour résoudre des problèmes plus complexes
This thesis, carried out within the framework of a CIFRE contract with the OctopusMind company, is focused on developing a set of automated tools dedicated and optimized to assist call for tender databases processing, for the purpose of strategic intelligence monitoring. Our contribution is divided into three chapters: The first chapter is about developing a partially comparable multilingual corpus, built from the European calls for tender published by TED (Tenders Electronic Daily). It contains more than 2 million documents translated into 24 languages published over the last 9 years. The second chapter presents a study on the questions of words, sentences and documents embedding, likely to capture semantic features at different scales. We proposed two approaches: the first one is based on a combination between a word embedding (word2vec) and latent semantic analysis (LSA). The second one is based on a novel artificial neural network architecture based on two-level convolutional attention mechanisms. These embedding methods are evaluated on classification and text clustering tasks. The third chapter concerns the extraction of semantic relationships in calls for tenders, in particular, allowing to link buildings to areas, lots to budgets, and so on. The supervised approaches developed in this part of the thesis are essentially based on Conditionnal Random Fields. The end of the third chapter concerns the application aspect, in particular with the implementation of some solutions deployed within OctopusMind's software environment, including information extraction, a recommender system, as well as the combination of these different modules to solve some more complex problems
APA, Harvard, Vancouver, ISO, and other styles
2

Annouz, Hamid. "Traitement morphologique des unités linguistiques du kabyle à l’aide de logiciel NooJ : Construction d’une base de données." Thesis, Paris, INALCO, 2019. http://www.theses.fr/2019INAL0022.

Full text
Abstract:
Il s’agit dans le présent projet d’initier la langue kabyle au domaine du traitement automatique des langues naturelles (TALN) en la dotant d’une base de données, sur le logiciel NooJ, permettant la reconnaissance des unités linguistiques d’un corpus écrit.Le travail est devisé en quatre parties. Dans la première nous avons donné un aperçu historique de la linguistique formelle et présenté le domaine du TALN, le logiciel NooJ et les unités linguistiques traitées. La deuxième est consacrée à la description de processus suivi dans le traitement et l’intégration des verbes dans NooJ. Nous avons construit un dictionnaire contenant 4508 entrées et 8762 dérivés et des modèles de flexion pour chaque type d’entrée. Dans la troisième nous avons expliqué le traitement des noms et des autres unités. Nous avons, pour les noms, construit un dictionnaire (3508 entrées et 501 dérivés) que nous avons reliés à leurs modèles de flexion et pour les autres unités (870 unités dont, adverbes, prépositions, conjonctions, interrogatifs, pronoms personnels, etc.), il s’agit seulement de listes (sans flexion).Chacune de ces deux parties (deuxième et troisième) est complétée par des exemples d’applications sur un texte, chose qui nous a permis de voir, à l’aide des annotations, les différents types d’ambiguïtés.Dans la dernière partie, après avoir dégagé une liste de différents types d’amalgame, nous avons essayé de décrire, à l’aide de quelques exemples de grammaire syntaxiques, l’étape de la désambiguïsation
This work introduces the Kabyle language to the field of Natural Language Processing by giving it a database for the NooJ software that allows the automatic recognition of linguistic units in a written corpus.We have divided the work in four parts. The first part is the place to give a snapshot on the history of formal linguistics, to present the field of NLP and the NooJ software and the linguistic units that have been treated. The second part is devoted to the description of the process that has been followed for the treatment and the integration of Kabyle verbs in NooJ. We have built a dictionary that contains 4508 entries and 8762 derived components and some models of flexion for each type which have been linked with each entry. In the third part, we have explained the processing of nouns and other units. We have built, for the nouns, a dictionary (3508 entries, 501 derived components) that have been linked to the models of flexion and for the other units (870 entries including adverbs, prepositions, conjunctions, interrogatives, personal pronouns, etc.). The second and third part are completed by examples of applications on a text, this procedure has allowed us to show with various sort of annotations the ambiguities.Regarding the last part we have devoted it to ambiguities, after having identified a list of various types of amalgams, we have tried to show, with the help of some examples of syntactic grammars, some of the tools used by NooJ for disambiguation
APA, Harvard, Vancouver, ISO, and other styles
3

Dziczkowski, Grzegorz. "Analyse des sentiments : système autonome d'exploration des opinions exprimées dans les critiques cinématographiques." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://tel.archives-ouvertes.fr/tel-00408754.

Full text
Abstract:
Cette thèse décrit l'étude et le développement d'un système conçu pour l'évaluation des sentiments des critiques cinématographiques. Un tel système permet :
- la recherche automatique des critiques sur Internet,
- l'évaluation et la notation des opinions des critiques cinématographiques,
- la publication des résultats.

Afin d'améliorer les résultats d'application des algorithmes prédicatifs, l'objectif de ce système est de fournir un système de support pour les moteurs de prédiction analysant les profils des utilisateurs. Premièrement, le système recherche et récupère les probables critiques cinématographiques de l'Internet, en particulier celles exprimées par les commentateurs prolifiques.

Par la suite, le système procède à une évaluation et à une notation de l'opinion
exprimée dans ces critiques cinématographiques pour automatiquement associer
une note numérique à chaque critique ; tel est l'objectif du système.
La dernière étape est de regrouper les critiques (ainsi que les notes) avec l'utilisateur qui les a écrites afin de créer des profils complets, et de mettre à disposition ces profils pour les moteurs de prédictions.

Pour le développement de ce système, les travaux de recherche de cette thèse portaient essentiellement sur la notation des sentiments ; ces travaux s'insérant dans les domaines de ang : Opinion Mining et d'Analyse des Sentiments.
Notre système utilise trois méthodes différentes pour le classement des opinions. Nous présentons deux nouvelles méthodes ; une fondée sur les connaissances linguistiques et une fondée sur la limite de traitement statistique et linguistique. Les résultats obtenus sont ensuite comparés avec la méthode statistique basée sur le classificateur de Bayes, largement utilisée dans le domaine.
Il est nécessaire ensuite de combiner les résultats obtenus, afin de rendre l'évaluation finale aussi précise que possible. Pour cette tâche nous avons utilisé un quatrième classificateur basé sur les réseaux de neurones.

Notre notation des sentiments à savoir la notation des critiques est effectuée sur une échelle de 1 à 5. Cette notation demande une analyse linguistique plus profonde qu'une notation seulement binaire : positive ou négative, éventuellement subjective ou objective, habituellement utilisée.

Cette thèse présente de manière globale tous les modules du système conçu et de manière plus détaillée la partie de notation de l'opinion. En particulier, nous mettrons en évidence les avantages de l'analyse linguistique profonde moins utilisée dans le domaine de l'analyse des sentiments que l'analyse statistique.
APA, Harvard, Vancouver, ISO, and other styles
4

Froissart, Christel. "Robustesse des interfaces homme-machine en langue naturelle." Grenoble 2, 1992. http://www.theses.fr/1992GRE29053.

Full text
Abstract:
Nous montrons a travers l'analyse des recherches menees autour du traitement des erreurs, l'ampleur de la problematique de la robustesse pour les systemes d'interface homme-machine en langue naturelle. Nous definissons alors l'ecart comme tout enonce qui n'est pas conforme a la norme academique du "bon usage" et ou aux attentes du systeme, a tous les niveaux de l'analyse. Nous exposons ensuite la double contrainte qui pese sur un systeme robuste, qui doit a la fois prevenir. Le plus tot possible, les ecarts - donc relacher les contraintes d'analyse en emettant des soupcons sur les donnees - et en meme temps controler l'explosion combinatoire. Nous proposons une strategie qui est fondee sur des connaissances utilisees a titre predictif, pour orientier le soupcon vers l'ecart plausible, et pour orienter son traitement vers l'hypothese la plus vraisemblable. Ces connaissances sont issues : -des informations que le fonctionnement meme de l'analyseur peut delivrer grace a une architecture multi-agents; - d'informations externes (linguistiques, cognitives, ergonomiques) organisees en cinq modeles que nous avons construits a partir de corpus de dialogue homme-machine : le modele technologique, le modele du domaine et de l'application, le modele de la langue (et de ses pieges), le modele du dialogue et les modeles des utilisateurs. Cette analyse permet de serier des differents parametres qui interviennent au sein de ce qu'on appelle generalement la modelisation de l'utilisateur. Nous exposons successivement chacun de ces modeles et illustrons la strategie d'analyse robuste que nous proposons par un certain nombre d'e
Once having demonstrated that robustness is currently a crucial problem for systems based on a natural language man-machine interface, we will evidence the extent of the problem through the analysis of researd carried out in error processing. We can thus define a deviation as any elements which violates academic use of the language and or system's expectations at every of analysis. Then, we show that a robust strategy must solve the double bind between tolerance (release of contraints) and the selection of the most plausible solution (constriction). We offer to identify deviations (either real or potential) which are not detected by the natural language understanding system by questioning the validity of the user's input as early as possible. We suggest a strategy based on additional knowledge that must be modelized in order to put in place predictive mechanisms that controll the robust processing, so as to direct suspicion towards the plausible deviation and to direct its processing towards the most likely hypothesis. This body of knowledge is derived from: - data which can be provided by the very operation of the parser thanks to a multi-agent structure; - external data (linguistic, cognitive, ergonomic) structured in five models constructed from the corpus of manmachine dialogue : the technological model, the field and application model, the language model (and its pitfalls), the dialogue model & the user's model. This
APA, Harvard, Vancouver, ISO, and other styles
5

Thollard, Franck. "Inférence grammaticale probabiliste pour l'apprentissage de la syntaxe en traitement de la langue naturelle." Saint-Etienne, 2000. http://www.theses.fr/2000STET4010.

Full text
Abstract:
L'objectif de la thèse consiste à utiliser les langages formels pour modéliser la langue naturelle. Les techniques utilisées en reconnaissance de la langue naturelle estiment la probabilité d'un mot étant donnée son contexte. En raison de l'information structurelle qu'elle contiennent, les grammaires formelles semblent bien adaptées à cette tâche. Nous étudions les automates déterministes et probabilistes (PDFA). Une théorie formelle de ces objets est proposée. Nous montrons par ailleurs que les automates probabilistes peuvent être appris dans un cadre d'apprentissage dérivé de l'identification à la limite proposé par Gold. Nous proposons ensuite un nouvel algorithme (MDI) basé sur un calcul efficace de la divergence de Kullback-Leibler entre automates. L'algorithme MDI cherche à inférer un PDFA compromis entre la divergence par rapport aux données d'apprentissage et une petite taille. Une étude expérimentale montre que l'algorithme MDI améliore significativement le pouvoir de prédiction de l'algorithme de référence du domaine : ALERGIA. Ces expérimentations montrent par ailleurs l'importance du lissage lors de la modélisation de la langue naturelle
APA, Harvard, Vancouver, ISO, and other styles
6

Fredj, Mounia. "Saphir : un système d'objets inférentiels : contribution à l'étude des raisonnements en langue naturelle." Grenoble 2, 1993. http://www.theses.fr/1993GRE21010.

Full text
Abstract:
Ce travail s'inscrit dans le cadre general du traitement automique des langues naturelles, et s'interesse notamment au probleme de representaiton des connaissances et des raisonnements "portes" par la langue naturelle. Notre systeme saphir a pour objectif de construire le reseau d'objets issus du discours, en decrivant certains des raisonnements mis en oeuvre dans les processus d'acquisition de connaissances, et plus particulierement ceux permettant de resoudre les anaphores associatives. Nous avons defini un modele de representation des connaissances contenues dans le discours, que ce soit un texte ou un dialogue homme-machine. Cette representation est fondee sur des bases linguistiques et notre modele s'appuie sur des elements du fonctionnement cognitif. Nous proposons un formalisme oriente objet, dont les fondements theoriques sont les systemes logiques de lesniewski : l'ontologie et la mereologie. Le premier repose sur un foncteur primitif appele "epsilon" interprete comme est un, le second sur la relation partie de appelee "l'ingredience". Ces systemes logiques constituent une base theorique plus adaptee que la logique classique des predicats
This work is in keeping with the general framework of natural language processing. It especially addresses the problem of knowledge representation and reasoning "carried" in natural language. The goal of the saphir system is to construct the network of objects coming from the discourse. This construction is done by describing some of the reasonings taking place in the knowledge acquisition process and particularly the ones that allow to resolve the "associative anaphora". We define a knowledge representation model, having a linguistics basis and cognitif elements. In order to support this model, we propose an object oriented formalism, whose theoretical foundations are lesniewski's logical system : ontology and mereology. The first system relies upon a primitif functor called "epsilon" meaning "is-a", the second one upon the "part-of" relation called "ingredience". These logical systems constitute a more appropriate theoretical foundation than the traditional predicate calculus
APA, Harvard, Vancouver, ISO, and other styles
7

Balicco, Laurence. "Génération de repliques en français dans une interface homme-machine en langue naturelle." Grenoble 2, 1993. http://www.theses.fr/1993GRE21025.

Full text
Abstract:
Cette recherche entre dans le cadre de la generation automatique de langue naturelle, domaine qui fut longtemps neglige, cette phase semblant plus simple que celle d'analyse de la langue. Cette these qui correspond a un premier travail sur la generation au sein du criss place le probleme de la generation automatique dans le cadre d'un homme-machine en langue naturelle. Ceci a des consequences, parmi lesquelles la generation a partir d'un contenu a exprimer en langue naturelle, une expression en langue naturelle de ce contenu aussi fidelement que possible,. . . Apres avoir etudie les differents travaux en generation, nous avons decide d'elaborer notre propre systeme de generation, en reutililisant, dans la mesure du possible, les outils developpes pour l'analyse. Ce generateur repose sur un modele linguistique utilisant des informations principalement syntaxiques et morphologiques et dans lequel sont definies des transformations linguistiques appelees operations (coordination, anaphorisation, thematisation,. . . ) donnees par le dialogue ou calculees lors de la phase de generation. Il permet la creation de plusieurs versions d'une meme replique et ainsi que, brievement, un projet europeen qui presente une application possible du generateur
This research takes place in the context of natural language generation. This field has benn neglected for a long time because it seemed a much easier phase that those of analysis. The thesis corresponds to a first work on generation in the criss team and places the problem of generation in the context of a manmachine dialogue in natural language. Some of its consequences are : generation from a logical content to be translated into natural language, this translation of the original content kept as close as possible,. . . After the study of the different works that have been done, we decided to create our own generation system, resusing when it is possible, the tools elaborated during the analyzing process. This generation process is based on a linguistic model, which uses syntactic and morphologic information and in which linguistic transformations called operations are defined (coodination, anaphorisation, thematisation,. . . ). These operations can be given by the dialogue or calulated during the generation process. The model allows the creation of several of the same utterance and therefore a best adaptation for different users. This thesis presents the studied works, essentially on the french and the english languages, the linguistic model developped, the computing model used, and a brief presentation of an european project which offers a possible application of ou
APA, Harvard, Vancouver, ISO, and other styles
8

Hue, Jean-François. "L'analyse contextuelle des textes en langue naturelle : les systèmes de réécritures typées." Nantes, 1995. http://www.theses.fr/1995NANT2034.

Full text
Abstract:
Nous soutenons que le traitement automatique de la langue naturelle peut être réalisé, notamment dans une approche contextuelle, par une analyse syntaxico-sémantique en plusieurs passes, non linéaire, non ascendante, ni descendante, et non totale. Nous proposons dans ce but un modèle pour les grammaires, les systèmes de réécritures typées. Des logiciels d'application qui illustrent cette démarche et le concept de systèmes de réécritures typées sont exposés
APA, Harvard, Vancouver, ISO, and other styles
9

Ponton, Claude (1966. "Génération automatique de textes en langue naturelle : essai de définition d'un système noyau." Grenoble 3, 1996. http://www.theses.fr/1996GRE39030.

Full text
Abstract:
Une des caracteristiques commune a de tres nombreux systemes de generation est la forte dependance qu'ils entretiennent chacun avec leur application. Si quelques tentatives de definition de systemes "non dedies" ont ete faites, aucune ne permet la prise en compte des caracteristiques de l'application (comme son formalisme) et de la situation enonciative (domaine d'application, utilisateur,. . . ). L'objectif de cette these est la definition d'un systeme de generation a la fois non dedie et permettant la prise en compte de ces differents elements. Un tel systeme est appele "systeme noyau de generation". Dans cette perspective, nous avons mene l'etude de 94 systemes de generation selon des criteres pertinents par rapport a notre objectif. Cette etude sert de base a la suite de notre travail. La definition du generateur noyau passe par la determination de la frontiere entre l'application et la generation noyau (taches du generateur, entrees, sorties, donnees,. . . ). Il est necessaire, en effet, de connaitre les roles de chacune des deux parties et leurs moyens de communication avant de pouvoir construire le generateur noyau. Il resulte de cette etude que le generateur noyau considere en entree une representation formelle quelconque du contenu et un ensemble de contraintes decrivant la situation enonciative. Le generateur noyau traite alors ce que l'on nomme generalement le "comment le dire?" et il est capable de produire toutes les solutions repondant aux contraintes d'entree. Cette partie de definition est suivie de la realisation d'une premiere maquette du generateur noyau qui a ete testee sur deux applications distinctes a tous points de vue (formalisme, domaine, type de textes,. . . ). Enfin, ce travail debouche sur des perspectives d'evolution du generateur noyau notamment sur le formalisme de representation des connaissances (cotopies d'objets) et sur l'architecture (architecture distribuee)
One of the common features with many generation systems is the strong dependence on the application. If few definition attempts of "non dedicated" systems have been realised, none of them permis to take into account the application characteristics (as its formalism) and the communication context (application field, user,. . . ). The purpose of this thesis is the definition of a generation system both non dedicated and permitting to take into account these elements. Such a system is called a "kernel generation system". In this perspective, we have studied 94 generation systems through objective relevant criteria. This study is used as a basis in the continuation of our work. The definition of a kernel generator needs the determination of the frontier between the application and the kernel generation (generator tasks, inputs, outputs, data,. . . ). Effectively, it is necessary to be aware of the role of both parts and their communication ways before designing the kernel generator. It results of this study that our generator considers as input any formal content representation as well as a set of constraints describing the communication context. The kernel generator then processes what is generally called the "how to say it?" and is able to produce every solutions according to the input constraints. This definition part is followed by the achievement of a first generator prototype which has been tested through two applications distinct in all respects (formalism, field, type of texts,. . . ). Finally, this work opens out on some evolution perspectives for the generator particulary on knowledge representation formalism (cotopies d'objets) and on architecture (distributed architecture)
APA, Harvard, Vancouver, ISO, and other styles
10

Palmer, Patrick Chiaramella Yves Boitet Christian. "Étude d'un analyseur de surface de la langue naturelle application à l'indexation automatique de textes /." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00337917.

Full text
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography