To see the other types of publications on this topic, follow the link: Recherche documentaire automatisée – Bénin.

Dissertations / Theses on the topic 'Recherche documentaire automatisée – Bénin'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Recherche documentaire automatisée – Bénin.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mahoussi, Wenceslas Ghanousmeid Gbétohou. "Analyse des pratiques informationnelles dans le champ juridique au Bénin." Electronic Thesis or Diss., Paris 8, 2017. http://www.theses.fr/2017PA080042.

Full text
Abstract:
Comprendre, décrire et documenter les comportements informationnels des juristes béninois tant dans le champ académique que professionnel. C’est le principal objectif de cette thèse qui a choisi le positionnement des pratiques informationnelles en sciences de l’information notamment dans l’étude des usagers en contexte. Ce travail a mobilisé à la fois des études théoriques qu’empiriques. Quatre études théoriques ont été menées pour comprendre le contexte du droit et de la justice au Bénin, les évolutions induites par les technologies de l’information et de la communication (Tic) dans le secteur juridique et judiciaire, les pratiques informationnelles en termes de modèles et les théories spécifiques dans le champ du droit. Ces approches théoriques ont été confrontées à quatre études empiriques dont deux quantitatives et deux qualitatives. En ce qui concerne l’approche quantitative, 375 étudiants et 60 enseignants-chercheurs des facultés de droit des universités du Bénin ont été interrogés. Quant aux études qualitatives, elles sont faites d’entretiens semi-directifs à l’endroit de 35 magistrats des tribunaux et cours de la partie méridionale du pays et 15 avocats à Cotonou. Au terme de ces études, il est clair que les juristes béninois dans le cadre de leurs activités professionnelles recourent à l’information. Ils le font pour régler des problèmes juridiques. Ils se réfèrent en premier lieu aux sources imprimées que sont les livres et ouvrages juridiques ; ensuite aux sources électroniques en l’occurrence Internet et enfin consultent leurs collègues, confères ou camarades. Les critères qui gouvernent ces sources d’information sont d’abord l’accessibilité-disponibilité de l’information, la pertinence-utilité de l’information et le contenu de l’information. L’ensemble des juristes interrogés partagent l’information mais font face à plusieurs obstacles pour accéder à l’information. Au nombre de ces obstacles, on peut citer : le coût excessif de certains ouvrages juridiques, l’instabilité de l’énergie électrique, la coupure de la connexion à Internet, la vétusté de certains documents
Understand, describe and document the information behavior of beninese lawyers in both the academic and professional fields. It is the main objective of this thesis that has chosen the positioning of informational practices in the information sciences especially in the study of users in context. This work has mobilized both theoretical and empirical studies. Four theoretical studies have been conducted to understand the legal and justice context in Benin, developments in information and communication technologies (TIC) in the legal and judicial sector, information practices in terms of models and the specific theories in the field of law. These theoretical approaches were confronted with four empirical studies, two quantitative and two qualitative. Regarding the quantitative approach, 375 students and 60 teacher-researchers from the law faculties of the universities of Benin were interviewed. As for qualitative studies, they are made up of semi-directive interviews with 35 magistrates of courts and courts in the southern part of the country and 15 lawyers in Cotonou. At the end of these studies, it is clear that Beninese lawyers in the course of their professional activities make use of information. They do it to solve legal problems. They refer in the first place to printed sources, namely books and legal works; Then to electronic sources, in this case the Internet, and finally consult their colleagues, confreres or comrades. The criteria governing these sources of information are primarily the accessibility-availability of information, the relevance-usefulness of information and the content of information. All lawyers surveyed share information but face several barriers to accessing information. Examples of such obstacles include the excessive cost of certain legal works, the instability of electric power, the breakdown of the Internet connection, the obsolete nature of certain documents
APA, Harvard, Vancouver, ISO, and other styles
2

Mahoussi, Wenceslas Ghanousmeid Gbétohou. "Analyse des pratiques informationnelles dans le champ juridique au Bénin." Thesis, Paris 8, 2017. http://www.theses.fr/2017PA080042.

Full text
Abstract:
Comprendre, décrire et documenter les comportements informationnels des juristes béninois tant dans le champ académique que professionnel. C’est le principal objectif de cette thèse qui a choisi le positionnement des pratiques informationnelles en sciences de l’information notamment dans l’étude des usagers en contexte. Ce travail a mobilisé à la fois des études théoriques qu’empiriques. Quatre études théoriques ont été menées pour comprendre le contexte du droit et de la justice au Bénin, les évolutions induites par les technologies de l’information et de la communication (Tic) dans le secteur juridique et judiciaire, les pratiques informationnelles en termes de modèles et les théories spécifiques dans le champ du droit. Ces approches théoriques ont été confrontées à quatre études empiriques dont deux quantitatives et deux qualitatives. En ce qui concerne l’approche quantitative, 375 étudiants et 60 enseignants-chercheurs des facultés de droit des universités du Bénin ont été interrogés. Quant aux études qualitatives, elles sont faites d’entretiens semi-directifs à l’endroit de 35 magistrats des tribunaux et cours de la partie méridionale du pays et 15 avocats à Cotonou. Au terme de ces études, il est clair que les juristes béninois dans le cadre de leurs activités professionnelles recourent à l’information. Ils le font pour régler des problèmes juridiques. Ils se réfèrent en premier lieu aux sources imprimées que sont les livres et ouvrages juridiques ; ensuite aux sources électroniques en l’occurrence Internet et enfin consultent leurs collègues, confères ou camarades. Les critères qui gouvernent ces sources d’information sont d’abord l’accessibilité-disponibilité de l’information, la pertinence-utilité de l’information et le contenu de l’information. L’ensemble des juristes interrogés partagent l’information mais font face à plusieurs obstacles pour accéder à l’information. Au nombre de ces obstacles, on peut citer : le coût excessif de certains ouvrages juridiques, l’instabilité de l’énergie électrique, la coupure de la connexion à Internet, la vétusté de certains documents
Understand, describe and document the information behavior of beninese lawyers in both the academic and professional fields. It is the main objective of this thesis that has chosen the positioning of informational practices in the information sciences especially in the study of users in context. This work has mobilized both theoretical and empirical studies. Four theoretical studies have been conducted to understand the legal and justice context in Benin, developments in information and communication technologies (TIC) in the legal and judicial sector, information practices in terms of models and the specific theories in the field of law. These theoretical approaches were confronted with four empirical studies, two quantitative and two qualitative. Regarding the quantitative approach, 375 students and 60 teacher-researchers from the law faculties of the universities of Benin were interviewed. As for qualitative studies, they are made up of semi-directive interviews with 35 magistrates of courts and courts in the southern part of the country and 15 lawyers in Cotonou. At the end of these studies, it is clear that Beninese lawyers in the course of their professional activities make use of information. They do it to solve legal problems. They refer in the first place to printed sources, namely books and legal works; Then to electronic sources, in this case the Internet, and finally consult their colleagues, confreres or comrades. The criteria governing these sources of information are primarily the accessibility-availability of information, the relevance-usefulness of information and the content of information. All lawyers surveyed share information but face several barriers to accessing information. Examples of such obstacles include the excessive cost of certain legal works, the instability of electric power, the breakdown of the Internet connection, the obsolete nature of certain documents
APA, Harvard, Vancouver, ISO, and other styles
3

Soualmia, Lina Fatima. "Etude et évaluation d'approches multiples d'expansion de requêtes pour une recherche d'information intelligente : application au domaine de la santé sur l'internet." Rouen, INSA, 2004. http://www.theses.fr/2004ISAM0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Pérenon, Pascal. "Profil d'utilisateur et métadonnées associés dans un système de recherche d'information scientifique." Lyon 1, 2004. http://www.theses.fr/2004LYO10261.

Full text
Abstract:
Dans le contexte de la recherche d'information, l'individu qui utilise un système de recherche d'information (SRI) reçoit fréquemment plusieurs milliers de documents en réponse à sa requête. C'est le point de départ de cette thèse. L'objectif de cette thèse est de proposer d'autres critères que les mots clés pour sélectionner des documents. Nous avons choisi de prendre en compte le contexte de la requête de l'utilisateur (l'activité pour laquelle il recherche de l'information, l'usage de l'information, l'utilisateur lui-même) et le contexte de production et de diffusion du document (l'auteur, le type de document produit). La méthodologie a consisté à récolter des couples (requête, document jugé pertinent pour cette requête), de décrire ces couples par des variables et enfin de calculer statistiquement les relations de dépendances entre ces variables. Les résultats ont montré que les relations concernant l'usage, l'activité motivant la recherche d'information de l'utilisateur et l'auteur du document sont particulièrement dépendants
APA, Harvard, Vancouver, ISO, and other styles
5

Bellot, Patrice. "Méthodes de classification et de segmentation locales non supervisées pour la recherche documentaire." Avignon, 2000. http://lia.univ-avignon.fr/fileadmin/documents/Users/Intranet/fich_art/LIA--142-These.pdf.

Full text
Abstract:
Les systèmes de recherche documentaire employant des méthodes essentiellement statistiques permettent le traitement de requêtes en langage naturel sur des corpus hétérogènes de grande taille, indépendamment de la langue employée. Un système de recherche documentaire, calcule des indices de ressemblance entre la requête et chacun des documents de la collection cible. Suivant les valeurs de ces indices, une liste ordonnée de documents est fournie à l’utilisateur. Cette liste est souvent très longue : certains documents pertinents sont mal positionnés et de ce fait jamais explorés par les utilisateurs. Les sujets abordés dans les uns ou les autres de ces documents sont multiples et certains sont éloignés des thématiques recherchées par l’utilisateur soit parce que ces dernières ne sont pas clairement exprimées dans la requête soit parce que le système n’a pas su les prendre correctement en compte. La classification thématique des documents rapportés est une manière de structurer l’ensemble des réponses. Elle permet à l’utilisateur d’orienter son exploration en fonction des thématiques générales des classes et d’accéder ainsi plus rapidement à ce qu’il recherche. Appliquée aux phrases ou aux paragraphes des documents, la classification permet de regrouper les extraits de textes traitant de la même thématique. Deux extraits d’un document traitent de thématiques différentes s’ils appartiennent à des classes distinctes. Autrement dit, la classification donne lieu à une segmentation thématique. À partir de cette segmentation, un nouveau calcul des indices de ressemblance est réalisé entre les segments et la requête aboutissant à une nouvelle liste solution. La segmentation permet de présenter à l’utilisateur les segments textuels jugés pertinents et de mieux positionner certains documents longs dans lesquels l’information recherchée ne constitue que l’une des thématiques abordée. Les éléments de cette nouvelle liste peuvent eux-mêmes être classés pour obtenir une segmentation de plus haut niveau et ainsi de suite. À chaque classification correspond une segmentation. À partir de toute segmentation, une classification peut être déduite. Cela démontre une dualité entre les problèmes de classification et de segmentation. Le système de recherche documentaire SIAC a été construit pour évaluer les solutions proposées dans cette thèse. La manière dont est effectuée la recherche documentaire fournissant les listes de documents à classer et à segmenter est décrite dans un premier chapitre. Dans un second chapitre, une technique de classification employant un algorithme hiérarchique et une méthode de réallocation de type Nuées Dynamiques est présentée et évaluée par le biais de notre participation à la campagne TREC-7. Une nouvelle méthode de classification employant des arbres de décision non supervisés est finalement proposée et évaluée sur les corpus en langue française de la campagne Amaryllis. À partir de cette classification, un algorithme de segmentation est déduit. Il est détaillé et évalué dans ledernier chapitre de ce mémoire
Statistical information retrieval systems allow to process natural language queries (whatever the language) on large and heterogeneous corpora. IR software programs compute similarities between a user's query and documents belonging to the target corpus. According to similarity values, a ranked list of documents is provided to the user. This answer list is often so long that users cannot explore all the documents retrieved. However, some of them are relevant but badly ranked and thus never recovered. The retrieved documents deal with several themes. A few of them are distant from the theme of the query either because the query is not clearly expressed or because the IR software was not able to recognize the theme. Thematic classification of the retrieved documents may be a way to organize them. It helps users navigate in the list of documents according to the global themes of the clusters. Thus, users can obtain relevant documents faster. If the classification is applied to the paragraphs or to the sentences of the documents, it allows to group together any extracts (segments) dealing with the same theme. Two extracts from a document are about two different themes if they belong to two different clusters. Thus, classification leads to segmentation. From this segmentation, similarity values between query and segments can be computed. This computation allows to provide users with a new ranked list. Segmentation permits to propose the segments considered as relevant to users. It allows to better rank long documents in which the searched theme is one of the themes the documents deal with. The ranked segments may be clustered to obtain a less fine-grained segmentation and so on. Any segmentation is linked to a classification. From any segmentation, a classification can be performed. The SIAC information retrieval system has been created to evaluate the methods described in this dissertation. In the first chapter, I describe the way SIAC computes the list of documents to be clustered and segmented. In the second chapter, a classification method combining hierarchical classification and a K-Means-like algorithm is presented. This method is evaluated over TREC-7 corpora and queries. In the third chapter, I propose a new classification method which relies on unsupervised decision trees. It is evaluated over the French corpora of the Amaryllis'99 campaign. The last chapter describes a segmentation algorithm using the classification method detailed in the third chapter. This segmentation method is evaluated over the Amaryllis'99 corpora
APA, Harvard, Vancouver, ISO, and other styles
6

Defude, Bruno. "Etude et réalisation d'un système intelligent de recherche d'informations : le prototype Iota." Grenoble INPG, 1986. http://tel.archives-ouvertes.fr/tel-00321461.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sellami, Maher. "Smard : un système multibase d'aide à la recherche documentaire." Montpellier 2, 1988. http://www.theses.fr/1988MON20151.

Full text
Abstract:
Presentation d'un systeme intermediaire pour la recherche documentaire. Il met a la disposition des utilisateurs un outil d'interrogation des bases de donnees documentaires reparties sur differents sites a l'aide d'un langage de commande unique et une communication homme-machine adaptee
APA, Harvard, Vancouver, ISO, and other styles
8

Loupy, Claude de. "Evaluation de l'apport de connaissances linguistiques en desambigui͏̈sation sémantique et recherche documentaire." Avignon, 2000. http://www.theses.fr/2000AVIGA001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Conductier, Bruno. "Recherche conceptuelle d'informations dans les banques de données en ligne : application au projet INDUSCOPE." Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30076.

Full text
Abstract:
Cette these aborde le probleme de la recherche d'information dans le cadre des anteserveurs, i. E. De systemes visant a faciliter l'acces aux informations detenues dans des banques de donnees en ligne, le public vise etant constitue de specialistes en analyse industrielle ayant en commun des domaines d'interet et une culture d'entreprise. Notre demarche a consiste a integrer au sein d'un meme cadre conceptuel homogene, les resultats de travaux issus d'une part de l'ecole des langages terminologiques, d'autre part des systemes de recherche d'information conceptuels, le tout sous le couvert de la philosophie des systemes cooperatifs. Nos travaux portent tout d'abord sur l'apport des langages terminologiques au dialogue homme/machine, notamment lors de la phase de formulation du besoin ou la classification de requete permet d'ameliorer la description du besoin, tout en evitant certaines incoherences semantiques, pour ensuite se concentrer sur la specification, la recherche et l'utilisation d'un langage terminologique adapte aux specificites de notre application
APA, Harvard, Vancouver, ISO, and other styles
10

Habchi, Khaled. "Le biliguisme et les systèmes d'information documentaire en Tunisie." Bordeaux 3, 2007. http://www.theses.fr/2007BOR30044.

Full text
Abstract:
L’impact du bilinguisme arabe-français est perceptible dans la société tunisienne à tous les niveaux, notamment dans les secteurs de l’administration, de la culture et de l’enseignement. Les systèmes d’information documentaire n’échappent pas à cette réalité et subissent, à leur tour, les répercussions de ce bilinguisme. Une revue approfondie de l'environnement documentaire dans lequel évolue les SID tunisiens a montré que celui-ci souffre de défaillances de taille dûes essentiellement au bicéphalisme des systèmes documentaires composés de deux facettes, l’une arabe et l’autre française. Les obstacles identifiés sont en rapport avec les moyens humains, matériels et techniques liés à l’usage des normes et des procédures de description, d’analyse et de gestion. Comme alternative à cette situation, l’étude propose un prototype de SID permettant de contourner les difficultés constatées. Ce prototype, largement inspiré de la normalisation documentaire en vigueur à l’échelle internationale et du progrès des TIC, est articulé autour de trois fonctionnalités majeures à savoir le catalogage, l’indexation et la gestion informatisée de l’information et l’accès à cette information. Le sous système de catalogage proposé repose sur le principe de l’adoption de normes et de formats de catalogage adaptés au contexte bilingue et inspirés des nouveaux principes de catalogage basés sur l’ approche entité-relation FRBR. La fonctionnalité indexation repose sur l’adoption d’instruments internationaux et leur adaptation au contexte national à travers un effort d’arabisation. La gestion informatisée des données documentaire est effectuée au moyen de SIGB multilingues conformes aux normes documentaires et aux standards informatiques. Quant à la fonctionnalité recherche de l’information, elle permet de vaincre les barrières linguistiques à travers des interfaces permettant de formuler la requête dans une langue et d’obtenir l’information dans plusieurs langues
The impact of Arabic-French bilingualism is perceptible in Tunisian society at all levels, particularly in the areas of administration, culture and education. The library information systems (LIS) are no exception to this reality and are influenced by this bilingualism through the composition of the collections and the methods of processing and dissemination of information. A thorough review of the bilingual environment in which the Tunisian LIS have evolved, showed that it suffers from deficiencies in its size due mainly to the two-faceted library systems, the Arabic facet and the French one, with an obvious imbalance in favour of the French side. The identified obstacles are related to the human, material and technical means which are linked to the use of standards and procedures of bilingual information description, analysis and management. As an alternative to this situation, the study proposes a LIS prototype to bypass these difficulties. This prototype, inspired largely from the international library standardisation in practice and the progress of ICT, is built around three major features namely cataloguing, indexing, and automated information management and access. The proposed cataloguing sub-system relies on the principle of the use of standards and MAchine Readable Cataloguing formats adapted to the bilingual context and inspired from the new concepts of cataloguing such as the entity-relationship approach “FRBR”. The indexing feature is grounded on the adoption of international instruments to fit to the national context by the effort of arabisation. The computerized library data management is made through multilingual Library systems in conformity with the library and computer standards. As for the retrieval system functionality, it can overcome language barriers by means of interfaces enabling to formulate the request in one language to obtain information in several languages
APA, Harvard, Vancouver, ISO, and other styles
11

Guezouli, Larbi. "Gestion de documents multimédia et recherche d'informations dans un système collaboratif." Paris 7, 2007. http://www.theses.fr/2007PA077002.

Full text
Abstract:
La recherche et la gestion de documents multimédia s'appuient sur un système de recherche d'informations capable de trouver dans une grande base un ensemble de données répondant aux contraintes d'une requête. Notre thèse porte plus spécifiquement sur les documents textuels et vidéos. Concernant les documents textuels, l'association d'une approche linguistique (normalisation et lemmatisation) à une approche statistique simplifie la recherche. L'approche statistique fait une recherche rapide dans le corpus pour filtrer les documents afin de ne traiter que ceux qui semblent pertinents. L'approche linguistique appliquée aux documents restants se base sur les origines des unités linguistiques porteuses de sens. La recherche de documents vidéo nécessite un pré-traitement de chaque document. La segmentation de la vidéo permet d'identifier les trames représentatives du document. La recherche proprement dite s'effectue au sein des documents prétraités pour gagner en efficacité. Une fois les documents textuels et vidéos sélectionnés et préparés, il ne reste plus qu'à calculer le taux de similarité de chacun avec le document formant la requête. Ce calcul se base sur les positions des unités linguistiques et des trames, sur leurs voisinages et leurs fréquences et sur la taille des documents. Le modèle proposé dans la thèse fait apparaître que la combinaison de ces approches donne un système de recherche d'informations multimédia performant, robuste, précis et rapide
Searching for and managing multimedia documents rely on an information searching System able to locale a set of data satisfying a request among a large data base. Our thesis deals more specifically with textual and video documents. Concerning the textual documents, the combination of a linguistic approach (standardization and lemmatisation) with a statistical approach simplifies the searching process. The statistical approach starts a quick search among the corpus to filter the documents in order to extract the relevant ones. The statistical approach applied to the remaining documents is based on the meaningful linguistic units roots. Video documents' searching requires pre-processing of every document. Video segmentation helps to identify the representative frames of the document. In order to save time, the search itself is performed among the pre-processed documents. Once the textual and video documents have been selected and prepared, a similarity rate is computed for every document compared to the question document. This computation depends on the linguistic units and frames positions, on their neighbourhood and frequency and on the documents sizes. The model proposed in the thesis shows that the combination of these approaches builds an efficient, robust and precise information searching System
APA, Harvard, Vancouver, ISO, and other styles
12

Bassano, Jean-Claude. "DIALECT, un système expert pour la recherche documentaire." Paris 11, 1986. http://www.theses.fr/1986PA112008.

Full text
Abstract:
DIALECT est un « système expert » d’aide à la recherche documentaire. Le système permet à l’utilisateur une formulation de sa requête en français. Il n’est pas nécessaire de disposer de connaissances préalables sur la base. Le système conduit la stratégie de recherche et guide l’utilisateur vers une formulation efficace de sa requête. La question de l’utilisateur, écrite en langage naturel, est analysée puis utilisée pour extraire un premier noyau de notices très pertinentes. Les « zones de texte » de ces notices sont à leur tour analysées et exploitées en vue d’enrichir la question. Le système est muni de composantes linguistiques qui lui permettent d’extraire des « règles de reformulation » intéressantes pour ce type d’application. Le déclenchement des règles et la transformation de la requête permet l’extraction de nouvelles notices bibliographiques. Cette stratégie générale et autonomie est relancée jusqu’à l’obtention d’une condition d’arrêt. Elle est contrôlée et adaptée à des règles heuristiques en fonction du profil de l’utilisateur, du déroulement de la recherche etc. Ce processus conduit, vis-à-vis de chaque classe d’utilisateur, un dialogue différent. On distingue l’utilisateur occasionnel, l’utilisateur professionnel ou documentaliste et les experts intervenant sur les règles du système. Le système permet à l’utilisateur professionnel d’intervenir à des moments précis du fonctionnement pour contrôler et orienter les inférences. Une autre particularité de ce système de recherche documentaire est d’être implanté sur un Système de Gestion de Bases de Données [Fiche ANL 1985]
The aim of the project, with the experimental system DIALECT, is to improve retrieval effectiveness and to suggest some flexible uses for information retrieval systems. This research involves the integration of artificial intelligence (AI) and information retrieval (IR) techniques. The quality of the services usually provided by automatic information retrieval systems has been found inadequate. The particular problem to be solved here by the “expert system” in the environment of information retrieval is the automatic request reformulation: the replacement of the starting entries by a variety of “equivalent” sentence formulations. The request is automatically developed and transformed in order to retrieve additional documents. The system uses rules, meta-rules and linguistic models as meta-rules or another expert level. Starting from a request in natural language, the methods must first retrieve some of the more relevant bibliographical information with necessarily natural language texts. Rules of a linguistic model construct some reformulation rules from these previously selected sentences of texts… So the first document retrieval steps act as the selecting of the candidate reformulation rules. The query reformulation and the search process are highly interactive: they act as rule selecting and rules setting in the “expert system”. The system goes through a cycle: query (re)formulation, retrieval of candidate rules which are explicitly “built” only at this time. So the basic information provided in the “knowledge base”, which gives the inference rules capable of generating new facts from already existing ones, is the document collection itself. Simultaneously a set of relevant documents is proposed. This dynamic process is repeated over and over until it reaches the point where it becomes entitled to stop. This incorporation of linguistic procedures and “query reformulation” knowledge-based expert system in a retrieval setting increases the effectiveness of the system. But, it also leads to added benefits in the form of new and more sophisticated services. The following extensions of the “standard” retrieval service are: (1) the use of natural language front-end allows the user to interact with the system using French in their initial information request. (2) Friendly interfaces are available. We provide the users with a large degree of flexibility in choosing how to interact with the system. The system may operate under several modes: (i) A so called “casual user mode” provides the user with a fully transparent process which decides on its own on any opportunity to improve the request. The user only submits his query in French and lets the system search and display the relevant available information as a list of retrieved documents and/or portions of documents. (ii) The so called “expert assistant-documentalist-mode” allows the trained user to break more frequently into the process, if he wants to improve and control its returns. Such an improvement may consist in redefining some elements of the “semantic classes”, adding or removing propositions, using underlying models of the internal representations such as informative indexes and/or bibliographic information etc. For such a user, the system leads the dialogue: another function of the query reformulation part of this system is then to assist the user in producing complex Boolean descriptions of the required documents. The system is useful for consultation by expert users, but it can also train the unexperienced users… (iii) A so called “specialist mode” provides tracks allowing designeers –linguists, analysts, etc. - to oversee the operating processes and to break in by means of a specialized language in order to “modify the rules”
APA, Harvard, Vancouver, ISO, and other styles
13

Grivolla, Jens. "Apprentissage et décision automatique en recherche documentaire : prédiction de difficulté de requêtes et sélection de modèle de recherche." Avignon, 2006. http://www.theses.fr/2006AVIG0142.

Full text
Abstract:
Cette thèse se situe dans la problématique de la recherche documentaire. Dans ce domaine, chaque besoin en information est exprimé par un utilisateur sous la forme d'une requête en langage naturel. Il existe différentes approches pour traiter ces requêtes, mais les systèmes actuels utilisent généralement une méthode unique, indépendante des caractéristiques de la requête. On peut pourtant montrer de façon expérimentale que la performance relative d'une technique de recherche sur une autre peut varier considérablement suivant la requête traitée. Nous avons abordé cette thématique en proposant des méthodes qui permettent de repérer automatiquement les requêtes qui posent des difficultés particulières au système utilisé, afin de permettre un traitement spécifique et adapté. Nous avons ainsi dégagé un certain nombre de fonctions de prédiction de qualité qui obtiennent des résultats comparables à ceux publiés récemment par d'autres équipes de recherche. La particularité et originalité de ce travail a consisté à étudier la combinaison de ces différentes mesures. En utilisant des méthodes de classification automatique, nous avons obtenu des prédictions relativement fiables sur la base de mesures qui individuellement ont un pouvoir de discrimination considérablement plus faible. Au-delà de la prédiction de difficulté des requêtes, nous avons utilisé nos méthodes pour adapter le processus de recherche à la requête posée
This thesis is centered around the subject of information retrieval, with a focus on those queries that are particularly difficult to handle for current retrieval systems. In the application and evaluation settings we were concerned with, a user expresses his information need as a natural language query. There are different approaches for treating those queries, but current systems typically use a single approach for all queries, without taking into account the specific properties of each query. However, it has been shown that the performance of one strategy relative to another can vary greatly depending on the query. We have approached this problem by proposing methods that will permit to automatically identify those queries that will pose particular difficulties to the retrieval system, in order to allow for a specific treatment. This research topic was very new and barely starting to be explored at the beginning of my work, but has received much attention these last years. We have developed a certain number of quality predictor functions that obtain results comparable to those published recently by other research teams. However, the ability of individual predictors to accurately classify queries by their level of difficulty remains rather limited. The major particularity and originality of our work lies in the combination of those different measures. Using methods of automatic classification with corpus-based training, we have been able to obtain quite reliable predictions, on the basis of measures that individually are far less discriminant. We have also adapted our approach to other application settings, with very encouraging results. We have thus developed a method for the selective application of query expansion techniques, as well as the selection of the most appropriate retrieval model for each query
APA, Harvard, Vancouver, ISO, and other styles
14

Dinet, Jérôme. "La recherche documentaire informatisée à l'école : compréhension des difficultés des élèves et approche cognitive des processus de sélection des références." Poitiers, 2002. http://www.theses.fr/2002POIT5004.

Full text
Abstract:
La recherche documentaire est l'une des activités pédagogiques qui bénéficient le plus de l'introduction des nouvelles technologies dans les écoles. Le CRDP de Poitou-Charentes est l'éditeur du logiciel de recherche documentaire informatisée (RDI) le plus couramment utilisé dans les écoles francophones. Mais d'une part, peu de recherches scientifiques se sont intéressées aux comportements des jeunes utilisateurs devant utiliser des RDI. D'autre part, le CRDP de Poitou-Charentes a souhaité obtenir des éléments de réponse à des questionnements relatifs aux comportements et aux processus cognitifs impliqués dans ces activités de RDI. Ansi, après avoir tenté de définir l'activité et de montrer en quoi une approche en psychologie cognitive est pertinente (Première partie), ce travail analyse les difficultés des élèves grâce à des observations de séances réelles de recherche documentaire informatisée et grâce à des expérimentations (Seconde partie). Enfin, sur la base essentiellement de la méthode expérimentale, ce travail s'attache à analyser les processus cognitifs spécifiquement impliqués lors de la sélection des références documentaires pertinentes parmi les listes de références (Troisième partie). Le cadre théorique de cette recherche repose sur un modèle récent de compréhension et de mémorisation issu de la psychologie cognitive : le Landscape Model (van den Broek et al. , 1995, 1996, 1999). Des implications quant à la conception de futurs produits et des implications quant aux aspects pédagogiques sont discutés.
APA, Harvard, Vancouver, ISO, and other styles
15

Mouloudi, Hassina. "Personnalisation de requêtes et visualisations OLAP sous contraintes." Tours, 2007. http://www.theses.fr/2007TOUR4029.

Full text
Abstract:
La personnalisation de requêtes est très utilisées dans le domaine de la RI et des BDs. Elle aide l'utilisateur à faire face à la diversité et à la masse d'information à laquelle il a accès. Un entrepôt de données stocke de gros volumes de données multidimensionnelles, consolidées et historisées dans le but d'être analysés. L'entrepôt est notamment conçu pour supporter des requêtes complexes de décision (requêtes OLAP) dont les résultats sont visualisés sous forme de tableaux croisés. Ces résultats peuvent être très volumineux et souvent ils ne peuvent être visualisés entièrement sur le dispositif d'affichage (PDA, téléphone mobile, etc. ). Ce travail a pour objectif d'étudier la personnalisation de l'information, pour un utilisateur interrogeant un entrepôt par requêtes OLAP. Un état de l'art sur la personnalisation dans les BDRs nous permet d'en dégager les principales caractéristiques et de les adapter au contexte de l'interrogation d'entrepôt par requête OLAP. Nous proposons tout d'abord une formalisation du concept de visualisation de résultats de requêtes OLAP, et nous montrons comment les visualisations peuvent être construites et manipulées. Ensuite, nous proposons une méthode de personnalisation à ajouter au langage de manipulation des visualisations. Cet opérateur présente l'intérêt de pouvoir être implanté par transformation d'une requête ou du résultat de la requête. Nous proposons une implantation de cet opérateur, servant de base à un prototype permettant à un utilisateur d'obtenir sa visualisation préférée lors de l'intérrogation d'un entrepôt via son mobile. Ce prototype nous permet de valider notre approche et d'en vérifier son efficacité
Personalization is extensively used in information retrieval and databases. It helps the user to face to diversity and the volume of information he accesses. A data warehouse stores large volumes of consolidated and historized multidimensional data to be analyzed. The data warehouse is in particular designed to support complex decision queries (OLAP queries) whose results are displayed under the form of cross tables. These results can be very large and often they cannot be visualized entirely on the display device (PDA, mobile phone, etc. ). This work aims to study the personalization of information, for a user querying a data warehouse with OLAP queries. A state of the art of works on personalization in relational databases allows us to establish their principal characteristics and adapt them to the context of exploitation of data warehouses by OLAP queries. We first propose a formalization of the concept of OLAP queries results visualizations, and we show how visualizations can be built and manipulated. Then, we propose a method for personalizing visualizations based on a user profile (including preferences and constraints). Our method corresponds to the formal definition of personalization operator added to the query language for visualizations. This operator can be implemented by transformation of a query or by transformation of the query result. We propose an implementation of this operator, which is used as a basis for a prototype allowing a user to obtain his preferred visualization when querying the data warehouse via a mobile device. This prototype allows us to validate our approach and to check its effectiveness
APA, Harvard, Vancouver, ISO, and other styles
16

Al-Hajj, Moustafa. "Extraction et formalisation de la sémantique des liens hypertextes dans des documents culturels, scientifiques et techniques." Tours, 2007. http://www.theses.fr/2007TOUR4023.

Full text
Abstract:
L'utilisation des liens hypertextes sur internet rend les sites plus attractifs et plus faciles à lire et permet l'enrichissement des sites par des informations provenant d'autres sites. Cependant, ces mêmes liens entraînent des difficultés pour les lecteurs et les moteurs de recherche. Les liens hypertextes sont porteurs d'informations sémantiques qui, si elles étaient complètement formalisées, seraient exploitables par des programmes pour améliorer la navigation et la recherche d'information, et prendraient leur place dans l'émergence du web sémantique. Dans cette thèse, nous proposons une méthodologie originale d'extraction formelle de la sémantique des liens hypertextes. La méthode proposée a été testée sur les liens d'un corpus. Le formalisme RDF est utilisé pour représenter la sémantique des liens. Une ontologie pour les liens spécifiques au domaine des biographies de personnages célèbres a été constituée à partir de la sémantique extraite des liens. Celle-ci a été représentée en RDFS. Des outils d'apprentissage supervisé et de caractérisation des pages web par des mots clés sont utilisés pour aider à l'extraction formelle de la sémantique
The use of hypertext links on the web makes sites more attractive and easier to read and allows enrichment of sites by information coming from other sites. However, this links produce some difficulties for readers and search engines. The hypertext links are carrying semantic information which, if it were completely formalized, would be exploitable by programs to improve navigation and research of information, and would take its place in the emergence of semantic web. In this thesis, we propose an original methodology for the formal semantic extraction of hypertext links. The suggested method has been tested on the links of a corpus. The formalism RDF has been used to represent the link semantics. Ontology for the links specific to the field of biographies of famous people was made up starting from the link semantics extracted and then represented in RDFS. Some tools of supervised learning and of web pages characterization by keywords has been used to help with the formal extraction of semantics
APA, Harvard, Vancouver, ISO, and other styles
17

Reymond, David. "Dynamique informationnelle d'une ressource Web : apport sémantique de la taxinomie : étude webométrique des sites des universités françaises." Bordeaux 3, 2007. http://www.theses.fr/2007BOR30076.

Full text
Abstract:
Le langage documentaire et la canalisation des contributions par des dispositifs qui en facilitent l'usage transforment le Web. Les méthodes qualitatives d'évaluation des ressources du Web s'avèrent limitées quant à l'appréhension de leur hypertextualité et de leur volume. De leur côté, les méthodes quantitatives de la webométrie s'appuient sur une nécessaire complémentarité qualitative pour l'interprétation des données. En ignorant les contextes de production, les contenus et leur dynamique, les métriques actuelles souffrent d'un caractère statique et d'une limite sémantique. Notre apport est sur trois plans L'élaboration d'une méthode de construction de la représentation synthétique des données éditées. Le texte de navigation des pages d’accueil est très représentatif des contenus des niveaux sous-jacents du site. Un indicateur de la dynamique informationnelle nous permet le suivi de la publication évènementielle. La représentation synthétique est mise à l'épreuve pour le classement très efficace des évènements textuels. Les résultats montrent la dépendance temporelle de la taxinomie. Une méthode d'étude webométrique, élaborée par une démarche systémique, est appliquée au terrain particulier des sites web universitaires. L'analyse opérée combine études qualitatives et quantitatives, dresse un état actuel et révèle sa tendance. Le regard apporté à un espace hypertextuel sous l'angle téléologique de sa construction a permis de construire une perspective d'analyse webométrique qui affine les traditionnelles mesures infométriques. Nos recherches ont pu démontrer la pertinence de l'utilisation des méthodes exposées pour évaluer les éditions web
The industrialisation of content generation and distribution has transformed the Web into an uncontrolled, semi-structured storehouse of data formatted in an indexing language. Qualitative methods are limited to encompass hypertextuality and the volume of publications. Hence, we propose a panorama of chosen disciplines dealing with the processing of vast amounts of hypertext data. We show also limits in dynamic evaluation and in the semantic of data characterisation statistics. Our contribution is organised on three levelsa method to construct a concise representation of the content of a website. The context of hypertext production is integrated in the creative process. In our experimental field, this is achieved by using the text supporting the structural hyperlinks of the site's homepage. The text provided for navigation on this page is strongly representative of the underlying contents of the website. A tool to measure the dynamic evolution of the content of a single html page. When applied to a homepage, this tool characterizes its evolution and stores the published "events". The taxonomy is successfully tested to classify textual events. Results also show the time-dependant relevance of the taxonomy. A systemic approach is applied to a corpus of French academic websites to explain the actual situation regarding scientometric evaluation. Our analysis combines results from qualitative and quantitative collections to put forward a case study of webometric tools. We show that using dynamically-built tools on a concise representation function of published data tends to fill the semantic gap between traditional binary data measurement and the contents measured
APA, Harvard, Vancouver, ISO, and other styles
18

Villey-Migraine, Marjolaine. "Multimédia et carto-géographie : Ergonomie des interfaces de navigation hypermédia dans les systèmes documentaires." Paris 2, 2003. http://www.theses.fr/2003PA020016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Morneau, Maxime. "Recherche d'information sémantique et extraction automatique d'ontologie du domaine." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23828/23828.pdf.

Full text
Abstract:
Il peut s'avérer ardu, même pour une organisation de petite taille, de se retrouver parmi des centaines, voir des milliers de documents électroniques. Souvent, les techniques employées par les moteurs de recherche dans Internet sont utilisées par les entreprises voulant faciliter la recherche d'information dans leur intranet. Ces techniques reposent sur des méthodes statistiques et ne permettent pas de traiter la sémantique contenue dans la requête de l'usager ainsi que dans les documents. Certaines approches ont été développées pour extraire cette sémantique et ainsi, mieux répondre à des requêtes faites par les usagers. Par contre, la plupart de ces techniques ont été conçues pour s'appliquer au Web en entier et non pas sur un domaine en particulier. Il pourrait être intéressant d'utiliser une ontologie pour représenter un domaine spécifique et ainsi, être capable de mieux répondre aux questions posées par un usager. Ce mémoire présente notre approche proposant l'utilisation du logiciel Text- To-Onto pour créer automatiquement une ontologie décrivant un domaine. Cette même ontologie est par la suite utilisée par le logiciel Sesei, qui est un filtre sémantique pour les moteurs de recherche conventionnels. Cette méthode permet ainsi d'améliorer la pertinence des documents envoyés à l'usager.
It can prove to be diffcult, even for a small size organization, to find information among hundreds, even thousands of electronic documents. Most often, the methods employed by search engines on the Internet are used by companies wanting to improve information retrieval on their intranet. These techniques rest on statistical methods and do not make it possible neither to evaluate the semantics contained in the user requests, nor in the documents. Certain methods were developed to extract this semantics and thus, to improve the answer given to requests. On the other hand, the majority of these techniques were conceived to be applied on the entire World Wide Web and not on a particular field of knowledge, like corporative data. It could be interesting to use domain specific ontologies in trying to link a specific query to related documents and thus, to be able to better answer these queries. This thesis presents our approach which proposes the use of the Text-To-Onto software to automatically create an ontology describing a particular field. Thereafter, this ontology is used by the Sesei software, which is a semantic filter for conventional search engines. This method makes it possible to improve the relevance of documents returned to the user.
APA, Harvard, Vancouver, ISO, and other styles
20

Zarri, Gian Piero. "Utilisation de techniques relevant de l'intelligence artificielle pour le traitement de données biographiques complexes." Paris 11, 1985. http://www.theses.fr/1985PA112342.

Full text
Abstract:
Cette thèse fournit une description générale de RESEDA, système « intelligent » d’informatique documentaire qui utilise des techniques empruntées au Knowledge Engineering et l’Intelligence Artificielle (IA) pour le traitement de donnés biographiques complexes. Toutes les connaissances du système sont représentées sous forme purement déclarative, en utilisant un langage de représentation unique (« métalangage ») qui se sert de variables pour la représentation des informations appartenant à la base de règles ; le métalangage constitue un exemple de réalisation IA du concept de « grammaire de cas ». Pour des raisons d’efficacité informatique, les opérations d’inférence de « niveau zéro » de RESEDA sont exécutées en se servant uniquement des ressources de la « machine d’appariement » du système. Cette machine doit une grande partie de sa puissance à une utilisation judicieuse des données temporelles qui permet d’obtenir une indexation efficace de la base de faits. Seules les inférences d’ordre supérieur demandent d’utiliser de véritables « moteurs d’inférence ». Le moteur de RESEDA est caractérisé par les deux faits suivants : a) il est « commandé par l’évènement » (event driven) pendant la phase d’initialisation ; b) la résolution d’un problème est effectuée en le décomposant en sous-problèmes et en construisant progressivement un « arbre de choix ». Cet arbre est exploré en faisant usage d’une technique « en profondeur d’abord » avec « retour en arrière » (backtracking) systématique. Les opérations d’inférence de niveau supérieur du système sont constituées par les « hypothèses » et les « transformations ». La tâche des hypothèses est d’établir de nouvelles relations de cause entre des évènements présents dans la base de faits qui sont à priori complètement disjoints ; le système possède de cette façon une capacité, même si élémentaire, d’apprentissage
The aim of this thesis is to provide a general description of RESEDA, an « intelligent » Information Retrieval system dealing with biographical data and using techniques borrowed from Knowledge Engineering and Artificial Intelligence (AI). All the system’s “knowledge” is represented in purely declarative form. This is the case both for the “fact database” and the “rule base”; the fact database contains the data, in the usual sens of the word that the system has to retrieve. Together, the fact and rule bases make up RESEDA’s “knowledge base”. Information in the knowledge base is depicted using a single knowledge representation language (“metalanguage”), which makes use of quantified variables when describing date in the rule base; the metalanguage is a particularly powerful realization of an AI type “case grammar”. For reasons of computational efficiency, the low-level (“level zero”) inferencing (retrieving) is carried out in RESEDA by using only the resources of the system’s match machine. This machine owes a large part of its power to the judicious use of temporal data in efficiently indexing the fact database. Only high-level inferences require the creation of real “inference engines”. RESEDA’s inference engine hat the general characteristics a) of being “event driven” in its initialization; b) of solving problems by constructing a “choice tree”. Traversal of the choice tree is performed depth-first with systematic backtracking. The high-level inference operations, relying on information in the rule base and making use of the inference engine, that are implemented in the system, are known as “transformations” and “hypotheses”. The “hypotheses” enable new causal relationships to be established between events in the fact database which are a priori totally disjointed; the system is thus equipped with an, albeit elementary, learning capability
APA, Harvard, Vancouver, ISO, and other styles
21

Névéol, Aurélie. "Automatisation des tâches documentaires dans un catalogue de santé en ligne." Rouen, INSA, 2005. http://www.theses.fr/2005ISAM0013.

Full text
Abstract:
La Recherche d'Information a pour objectif de permettre aux utilisateurs d'accéder rapidement et efficacement au contenu d'une collection de documents. Dans le domaine de la santé, le nombre de ressources électroniques disponibles augmente de manière exponentielle, et la nécessité de disposer de solutions automatiques se fait sentir à plusieurs étapes de la chaîne d'information. Les documents, en particulier les textes, doivent être sélectionnés selon des critères de qualité pour être inclus dans des catalogues ; ils doivent également être décrits à l'aide de mots clés et catégorisés en spécialités médicales afin de faciliter les recherches effectuées dans les catalogues. Ces tâches constituent un défi pour le Traitement Automatique de la Langue Naturelle car elles impliquent une "compréhension" du contenu des documents par un système automatique. Ce travail de thèse engage une réflexion sur la répartition des tâches documentaires entre l'homme et la machine dans le cadre particulier du Catalogue et Index des Sites Médicaux Francophones (CISMeF). A ce titre, il aborde l'automatisation des tâches documentaires dans le catalogue de santé en ligne CISMeF. Cette thèse apporte une contribution au développement de ressources linguistiques en français pour le domaine de la santé, et présente des systèmes de veille documentaire et de description automatiques de ressources de santé. Sur ce dernier point, l'accent a été mis sur l'indexation à l'aide de paires de descripteurs issues du thésaurus MeSH.
APA, Harvard, Vancouver, ISO, and other styles
22

Bigi, Brigitte. "Contribution à la modélisation du langage pour des applications de recherche documentaire et de traitement de la parole." Avignon, 2000. http://www.theses.fr/2000AVIG0125.

Full text
Abstract:
En classification thématique, l'objectif est d'assigner un label thématique à un segment de texte parmi un ensemble de labels possibles. Le modèle proposé repose sur la comparaison entre la distribution statique des mots clés de chaque thème et la distribution statistique des mots contenus dans la mémoire cache d'un texte à un instant donné. Cette évaluation évolue dans le temps avec la prise en compte de nouveaux mots dans le cache. Appliqué à des textes dictés, ce modèle permet une reconnaissance rapide des thèmes. Nous montrons également que l'utilisation d'une combinaison linéaire d'un modèle bigramme général avec des modèles thématiques apporte un gain substantiel de perplexite. En segmentation thematique, on cherche à déterminer les frontières entre paragraphes de thèmes différents. Pour repérer les changements de thème, on utilise le modèle à base de mémoire cache developpé pour la classification thématique, associé à une programmation dynamique. D'autres nouvelles méthodes ont également été testées afin que la segmentation ne nécessite pas de connaissances préalables sur les thèmes. Pour ce faire, on donne de nouvelles représentations de l'histoire d'un mot. L'ensemble des résultats ainsi obtenus montre que différentes stratégies doivent être utilisées selon les valeurs de rappel et de précision que l'on souhaite. Le but en expansion de requête est d'ajouter de nouveaux termes pertinents à la requête d'un utilisateur, afin de rendre plus précise les reponses du système de recherche documentaire. Notre modèle évalue une mesure de divergence entre la distribution de probabilités des termes représentatifs des documents fournis par le systeme avec la requête initiale, et la distribution de ces mêmes termes dans la collection entière. Ceci permet d'attribuer un score à des termes candidats qui formeront la requête étendue
APA, Harvard, Vancouver, ISO, and other styles
23

Anane, Afaf. "L'impact des technologies de l'information et de la communication sur les stratégies de diffusion de l'information dans les centre de culture scientifique et technique." Bordeaux 3, 2005. http://www.theses.fr/2005BOR30055.

Full text
Abstract:
Les dernières années ont été marquées par un bouleversement dans le paysage industriel, économique et social au niveau mondial. La libéralisation des télécommunications, le développement spectaculaire de l'Internet et la mise en réseau progressive des entreprises et de la société sont révélateurs d'un seul et même phénomène : l'avènement de la société de l'information. Les TIC intégrées viennent évoluer les manières de travailler et ce dans plusieurs domaines. Les centres de culture scientifique et technique font partie intégrante des domaines qui ont subi des changements considérables dans leurs stratégies de diffusion de l'information scientifique et technique ; ils essayent de la diffuser en intégrant de nouveaux outils qui assureront une meilleure assimilation et faciliteront l'acquisition de ces technologies par le public. Seulement, les CCSTI accueillent des publics et non un public et ils doivent faire face à cette diversité. L'intégration du multimédia comme outil de diffusion paraît satisfaire les organisateurs mais pas toutes les catégories des visiteurs, ce qui oblige les acteurs à adopter des stratégies innovantes s'inscrivant dans une perspective de demande et non d'offre. L'innovation s'inscrit alors au cœur du débat et fait naître de nouveaux moyens d'appropriation du savoir. L'influence de la science et de la technologie sur les CCSTI n'est plus à démontrer, elles se trouvent déjà dans une ère d'innovation et de progrès ; la révolution est d'autant plus radicale que l'accélération de l'avancement scientifique et technologique se fait en synergie avec une redéfinition systématique des stratégies des acteurs qui doivent dorénavant s'inscrire dans un processus de compétitivité et d'efficacité qui sont devenus des facteurs clés d'échec ou de succès
The last years were pronounced by an upheaval in the industrial, economic and social landscape on a world level. The liberalization of telecommunications, the spectacular development of the Internet and the progressive setting in network of the companies and the society are revealing of a single phenomenon: the advent of the society of information. The TIC integrated come to evolve the manners of working and this in several fields. The science centers form integral part of the fields that underwent considerable changes in their strategies of diffusion of scientific and technical information. They try to diffuse it by integrating new tools which will ensure a better assimilation and will facilitate the acquisition of these technologies by the public. Only, the science centers accommodate the public globally and they must face this diversity. The integration of multi-media as tool for diffusion appears to satisfy the organizers but not all the categories of the visitors, which obliges the actors to adopt innovating strategies falling under a prospect for demand and not for offer. The innovation is then registered inside debate and gives birth to new means of appropriation of the knowledge. The influence of science and technology on the science centers is not any more to show, they are already in an era of innovation and progress; the revolution is all the more radical as the acceleration of scientific and technological advance is done in synergy with a systematic redefinition of the strategies of the actors who must henceforth fall under a process of competitiveness and of effectiveness who became key factors of failure or success
APA, Harvard, Vancouver, ISO, and other styles
24

Kuramoto, Hélio. "Proposition d'un système de recherche d'information assistée par ordinateur : avec application à la langue portugaise." Lyon 2, 1999. http://theses.univ-lyon2.fr/documents/lyon2/1999/hkuramoto.

Full text
Abstract:
Nous proposons un système d'indexation et de recherche d'information afin de faire face aux difficultés rencontrées par les usagers lors de l'utilisation de tels systèmes. Nous en distinguons deux types de problèmes : la faible précision des résultats d'une recherche d'information et le manque de convivialité des interfaces de recherche d'information. Nous limitons notre champ d'étude aux systèmes de recherche d'information (SRI) qui portent sur des bases de données texte plein (full text). Suite à l'étude de ces difficultés, nous sommes parvenus à une conclusion identique à celle proposée par le groupe SYDO : l'utilisation des syntagmes nominaux (SN) comme descripteur, en opposition à l'utilisation des mots couramment adoptés par les SRI classiques. Il s'agissait alors d'examiner la faisabilité de cette proposition. .
In this research paper, we propose a model to address problems typically faced by users in information indexing and retrieval systems (IRS) applied to full text databases. Through discussion of these problems we arrive at a solution that had been formerly proposed by the SYDO group : the use of nominal phrases (or Nominal Group) as descriptors instead of words which are generally used by the traditional IRS. In order to verify the feasibility of this proposition, we have developed a prototype of a n IRS with a full text database. .
APA, Harvard, Vancouver, ISO, and other styles
25

Fiset, Réjeane. "Faire une recherche en sixième année : analyse d'une expérience." Doctoral thesis, Université Laval, 1987. http://hdl.handle.net/20.500.11794/29253.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Bannour, Ines. "Recherche d’information s´emantique : Graphe sémantico-documentaire et propagation d’activation." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD024/document.

Full text
Abstract:
La recherche d’information sémantique (RIS), cherche à proposer des modèles qui permettent de s’appuyer, au delà des calculs statistiques, sur la signification et la sémantique des mots du vocabulaire, afin de mieux caractériser les documents pertinents au regard du besoin de l’utilisateur et de les retrouver. Le but est ainsi de dépasser les approches classiques purement statistiques (de « sac de mots »), fondées sur des appariements de chaînes de caractères sur la base des fréquences des mots et de l’analyse de leurs distributions dans le texte. Pour ce faire, les approches existantes de RIS, à travers l’exploitation de ressources sémantiques externes (thésaurus ou ontologies), procèdent en injectant des connaissances dans les modèles classiques de RI de manière à désambiguïser le vocabulaire ou à enrichir la représentation des documents et des requêtes. Il s’agit le plus souvent d’adaptations de ces modèles, on passe alors à une approche « sac de concepts » qui permet de prendre en compte la sémantique notamment la synonymie. Les ressources sémantiques, ainsi exploitées, sont « aplaties », les calculs se cantonnent, généralement, à des calculs de similarité sémantique. Afin de permettre une meilleure exploitation de la sémantique en RI, nous mettons en place un nouveau modèle, qui permet d’unifier de manière cohérente et homogène les informations numériques (distributionnelles) et symboliques (sémantiques) sans sacrifier la puissance des analyses. Le réseau sémantico-documentaire ainsi modélisé est traduit en graphe pondéré. Le mécanisme d’appariement est assuré par une propagation d’activation dans le graphe. Ce nouveau modèle permet à la fois de répondre à des requêtes exprimées sous forme de mots clés, de concepts oumême de documents exemples. L’algorithme de propagation a le mérite de préserver les caractéristiques largement éprouvéesdes modèles classiques de recherche d’information tout en permettant une meilleure prise en compte des modèles sémantiques et de leurs richesse. Selon que l’on introduit ou pas de la sémantique dans ce graphe, ce modèle permet de reproduire une RI classique ou d’assurer en sus certaines fonctionnalités sémantiques. La co-occurrence dans le graphe permet alors de révélerune sémantique implicite qui améliore la précision en résolvant certaines ambiguïtés sémantiques.L’exploitation explicite des concepts ainsi que des liens du graphe, permettent la résolution des problèmes de synonymie, de term mismatch et de couverture sémantique. Ces fonctionnalités sémantiques, ainsi que le passage à l’échelle du modèle présenté, sont validés expérimentalement sur un corpus dans le domaine médical
Semantic information retrieval (SIR) aims to propose models that allow us to rely, beyond statistical calculations, on the meaning and semantics of the words of the vocabulary, in order to better represent relevant documents with respect to user’s needs, and better retrieve them.The aim is therefore to overcome the classical purely statistical (« bag of wordsé») approaches, based on strings’ matching and the analysis of the frequencies of the words and their distributions in the text.To do this, existing SIR approaches, through the exploitation of external semantic resources (thesauri, ontologies, etc.), proceed by injecting knowledge into the classical IR models (such as the vector space model) in order to disambiguate the vocabulary or to enrich the representation of documents and queries.These are usually adaptations of the classical IR models. We go so to a « bag of concepts » approach which allows us to take account of synonymy. The semantic resources thus exploited are « flattened », the calculations are generally confined to calculations of semantic similarities.In order to better exploit the semantics in RI, we propose a new model, which allows to unify in a coherent and homogeneous way the numerical (distributional) and symbolic (semantic) information without sacrificing the power of the analyzes of the one for the other. The semantic-documentary network thus modeled is translated into a weighted graph. The matching mechanism is provided by a Spreading activation mechanism in the graph. This new model allows to respond to queries expressed in the form of key words, concepts or even examples of documents. The propagation algorithm has the merit of preserving the well-tested characteristics of classical information retrieval models while allowing a better consideration of semantic models and their richness.Depending on whether semantics is introduced in the graph or not, this model makes it possible to reproduce a classical IR or provides, in addition, some semantic functionalities. The co-occurrence in the graph then makes it possible to reveal an implicit semantics which improves the precision by solving some semantic ambiguities. The explicit exploitation of the concepts as well as the links of the graph allow the resolution of the problems of synonymy, term mismatch, semantic coverage, etc. These semantic features, as well as the scaling up of the model presented, are validated experimentally on a corpus in the medical field
APA, Harvard, Vancouver, ISO, and other styles
27

Ben, Romdhane Mohamed. "Navigation dans l'espace textuel : accès à l'information scientifique." Lyon 3, 2001. http://www.theses.fr/2001LYO31008.

Full text
Abstract:
Dans le domaine de la communication scientifique, les nouvelles technologies de l'information et de la communication modifient fondamentalement les processus de la communication de la science, de la circulation de l'information scientifique, et de l'accès et l'exploitation de cette information. Toutefois, le passage à l'électronique a engendré l'apparition de nouveaux questionnements. Dans cette thèse nous etudions l'accès à l'information scientifique à travers le problème de la navigation dans les documents scientifiques sur support électronique. Différents modèles de communication scientifique et de navigation dans des unités d'information sont présentés. Notre application porte sur un système de recherche d'information scientifique en texte intégral, le projet Profil-Doc, qui prend en compte à la fois les caractéristiques de documents fragmentés contenus dans la base et le profil de l'utilisateur. Cette réalisation s'est concrétisée par la conception et la mise en place d'une interface de navigation dans les unités d'information réponses en prenant en compte les contraintes ergonomiques et surtout la richesse et la complexité de la matière textuelle que nous comptons proposer à l'utilisateur. Plusieurs aspects pratiques concernant la présentation et l'accès à l'information scientifique à l'écran sont discutés.
APA, Harvard, Vancouver, ISO, and other styles
28

Bento, Pereira Suzanne. "Indexation multi-terminologique de concepts en santé." Rouen, 2008. http://www.theses.fr/2008ROUES019.

Full text
Abstract:
La recherche d'information ainsi que l'aide à la décision nécessitent un accès rapide et efficace aux connaissances contenues dans une collection de documents de santé, ainsi qu'une bonne exploitation des connaissances médicales. L'indexation (description à l'aide de mots clés) permet de rendre ces connaissances accessibles et utilisables. Dans le domaine de la santé, le nombre de ressources électroniques disponibles augmente de manière exponentielle ainsi la nécessité de disposer de solutions automatiques pour faciliter l'accès aux connaissances ainsi que l'indexation est omniprésente. L'objectif de cette thèse a été de développer un outil d'aide à l'indexation automatique multi-terminologique, multi-document et multi-tâche nommé F-MTI (French Multi-terminology Indexer) capable de produire une proposition une indexation pour les documents de santé. Cet outil a nécessité l'élaboration de méthodes de Traitement Automatique de la Langue Naturelle. Il a été appliqué à l'indexation documentaire dans le catalogue de santé en ligne CISMeF, à l'indexation des données thérapeutiques pour les médicaments et à l'indexation des diagnostics et des actes médicaux pour les dossiers médicaux éléctroniques
Information retrieval and decision support systems need fast and accurate access to the content of documents and efficient medical knowledge processing. Indexing (describing using keywords) enables access to knowledge and knowledge processing. In the medical domain, an increasing number of resources are available in electronic format, and there is a growing need for automatic solutions to facilitate knowledge access and indexing. The objectives of my PhD work are the implementation of an automatic multi-terminology multi-document and multi-task indexing help-system namely F-MTI (French Multi-terminology Indexer). It uses Natural Language processing methods to produce an indexing proposition for medical documents. We applied it to resources indexing in a French online health catalogue, namely CISMeF, to therapeutical data indexing for drug medication and to diagnosis and health procedures indexing for patient medical records
APA, Harvard, Vancouver, ISO, and other styles
29

Hernandez, Nathalie. "Ontologies de domaine pour la modélisation du contexte en recherche d'Information." Toulouse 3, 2006. http://www.theses.fr/2006TOU30012.

Full text
Abstract:
La Recherche d'Information contextuelle vise à replacer l'utilisateur au cœur des Systèmes de Recherche d'Information (SRI) en rendant explicites certains éléments du contexte qui peuvent influencer sur les performances des systèmes. Dans ce cadre, nous proposons un modèle à base de deux ontologies dont l'objectif est de représenter deux aspects primordiaux du contexte d'une recherche : le thème du besoin et la tâche de recherche choisie par l'utilisateur. Des ontologies légères de domaine sont utilisées pour représenter la connaissance associée à ces deux aspects du contexte. L'originalité de notre modèle repose sur le fait que les deux aspects distincts mais complémentaires du contexte sont liés par l'utilisation d'éléments communs aux deux ontologies. L'intégration du modèle dans le SRI intervient dans deux phases du processus de recherche. Par la proposition d'un mécanisme d'indexation sémantique utilisant l'ensemble de la connaissance représentée dans les deux ontologies, il est intégré à la phase de représentation des documents. De plus, le modèle est intégré à la phase d'accès aux documents via la navigation dans les ontologies. L'utilisation d'ontologies dans les systèmes d'information pose une autre problématique qui est la réutilisation de la connaissance déjà modélisée. En effet, de nombreuses ressources terminologiques (comme les thésaurus) ou conceptuelles (ontologies) existent dans différents domaines. Nous avons étudié la réutilisabilité de telles ressources selon deux perspectives : le choix d'une ontologie légère en fonction de son adéquation au corpus à indexer et l'élaboration d'une ontologie légère à partir d'un thésaurus normalisé et d'un corpus de référence. Dans le cadre d'un projet en coopération avec des astronomes (Masses de Données en Astronomie), nous avons pu évaluer un certain nombre des techniques que nous proposons.
APA, Harvard, Vancouver, ISO, and other styles
30

Abbaci, Faïza. "Méthodes de sélection de collections dans un environnement de recherche d'informations distribuée." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2003. http://tel.archives-ouvertes.fr/tel-00849898.

Full text
Abstract:
Le thème de cette thèse concerne le domaine de la recherche d'information distribuée (RID). Un système de RID (SRID) de recherche d'information distribuée gère la recherche sur un ensemble de collections de documents distribuées soit sur un réseau local, soit sur un ensemble plus étendu. Un SRID se compose, en général, d'un courtier et d'un ensemble de serveurs. Chaque serveur détient une collection de documents et un système de recherche d'information qui assure la recherche dans cette collection. Le courtier représente la composante avec laquelle l'utilisateur communique. A la réception d'une requête, le courtier choisit un sous-ensemble de serveurs parmi ceux qu'il connaît, auxquels il achemine la requête. Cette opération est appelée sélection de serveurs. Nous proposons dans cette thèse trois méthodes de sélection de serveurs. Ces méthodes ne nécessitent aucune coopération des serveurs interrogés, et aucune mise à jour de données au niveau du courtier.
APA, Harvard, Vancouver, ISO, and other styles
31

Le, Crosnier Hervé. "Systèmes d'accès à des ressources documentaires : vers des anté-serveurs intelligents." Phd thesis, Aix-Marseille 3, 1990. http://tel.archives-ouvertes.fr/tel-00004654.

Full text
Abstract:
Un système documentaire est modélisé par trois fonctions : la fonction d'indexation dont on étudie les hypothèses permettant l'indexation automatique. Une fonction de traduction des questions de l'utilisateur qui permet de définir la qualité de l'interface homme-système. Une fonction de pertinence qui permet de classer les documents en fonction des besoins documentaires de l'utilisateur. On étudie dans ce cadre le modèle booléen, le modèle vectoriel, et le modèle probabiliste. On évalue les perspectives offertes par le modèle hypertexte et l'approche connexionniste en informatique documentaire. Une application pratique est étudiée : la réalisation, suivant un modèle booléen de l'interface utilisateur du catalogue de la bibliothèque scientifique de l'université de Caen. On évalue ensuite les axes de recherche nouveaux en informatique documentaire au travers de trois axes de travail : les systèmes experts, l'auto-apprentissage et les modèles de représentation. La perspective des anté-serveurs intelligents est présentée, et une liste des fonctionnalités nécessaires au succès de ce type d'intermédiaire est établie.
APA, Harvard, Vancouver, ISO, and other styles
32

Gueret, Christophe. "Navigateurs internet intelligents : algorithmes de fourmis artificielles pour la diffusion d'informations dans un réseau P2P." Tours, 2006. http://www.theses.fr/2006TOUR4020.

Full text
Abstract:
Dans ce travail de thèse, nous proposons l'architecture PIAF (Personnal Intelligent Agent Framework) dont l'objectif est de fournir aux utilisateurs un environnement d'échange d'informations non intrusif, autonome et polyvalent. Les problématiques de diffusion de l'information entre utilisateurs et d'optimisation de la topologie du réseau sont abordés avec un algorithme utilisant des fourmis artificielles. L'utilisation de phéromones artificielles déposées sur les connexions entre pairs lors des transferts autorise la constitution d'une mémoire globale des échanges et la détection de centres d'intérêts partagés. Comparativement aux solutions existantes, l'avantage de notre algorithme est d'affranchir l'utilisateur de la définition de profils. Ce dernier n'a besoin ni de s'abonner à un quelconque canal de diffusion ni de paramétrer ses centres d'intérêts pour pouvoir échanger de l'information
In this thesis, we propose the architecture PIAF (Personnal Intelligent Framework Agent) whose objective is to provide users with an environment of nonintrusive, autonomous and general-purpose exchange of information. The problems of diffusion of information between users and optimization of the network's topology are approached with an algorithm using artificial ants. The use of artificial pheromones deposited on connections between peers at the time of the transfers authorizes the constitution of a global memory of the exchanges and the detection of centers of shared centers of interests. Comparatively with the existing solutions, the advantage of our algorithm is to free the user from the definition of profiles. This last needs neither to subscribe with diffusion channel nor to define its centers of interests to be able to exchange information
APA, Harvard, Vancouver, ISO, and other styles
33

Baziz, Mustapha. "Indexation conceptuelle guidée par ontologie pour la recherche d'information." Toulouse 3, 2005. http://www.theses.fr/2005TOU30265.

Full text
Abstract:
Ce travail de thèse rentre dans le cadre de l'utilisation des ontologies dans le processus de recherche d'information de manière générale, et plus particulièrement pour une représentation conceptuelle de l'information textuelle (documents/requêtes). Deux principales propositions sont détaillées. La première proposition consiste en une approche de représentation basée sur les réseaux sémantiques et la seconde sur des structures arborescentes. Dans la première approche, DocCore, la projection d'un document sur l'ontologie permet de construire le Noyau Sémantique de Document où les nœuds représentent les concepts "importants" du document et les arcs, une valeur de proximité sémantique entre ces nœuds. Dans la deuxième approche de représentation, DocTree, on exploite la hiérarchie de concepts que procure le lien de subsomption d'une ontologie (is-a) pour décrire un document/requête sous une forme arborescente. Un prototype a été réalisé étayant le bien fondé de ce type d'approche
This thesis deals with the use of ontologies in information retrieval. More precisely, we aim at representing textual information (documents/queries) by means of concepts (rather than a bag of single words). This conceptual representation is based on matching document/query with ontology. Roughly, two principle propositions are developed within this framework. The first one, DocCore, proposes to represent information by means of semantic networks (called Document Semantic Cores) where the nodes represent the “most salient” concepts extracted from the document, and the arcs semantic similarity values between these nodes. In the second approach, DocTree, we use the concept hierarchy provided by the subsumption link of an ontology (is-a) to describe a document or a query by mean of sub-trees. A prototype is built and the two approaches are successfully used in the IR process
APA, Harvard, Vancouver, ISO, and other styles
34

Rey, Christophe. "Découverte des meilleures couvertures d'un concept en utilisant une terminologie." Clermont-Ferrand 2, 2004. http://www.theses.fr/2004CLF22550.

Full text
Abstract:
Les services web dits sémantiques sont une proposition pour automatiser les tâches liées à la gestion des services web, paradigme récent pour l'intégration d'applications inter-entreprises. Cette thèse s'intéresse au problème de leur découverte dynamique, c'est-à-dire la possiblité de trouver automatiquement un ensemble de services web qui répondent à une requête, par raisonnement sur leur sémantique. Dans le cadre des logiques de description, nous proposons de formaliser ce problème comme une nouvelle instance de réécriture de concepts en utilisant une terminologie. Cette instance est appelée découverte des meilleures couvertures et s'énonce ainsi : "étant donnés un concept Q (une requête) et une terminologie T de concepts (les services), le problème consiste à rechercher les conjonctions de concepts de T (les ensembles de services) qui sémantiquement se rapprochent le plus de Q". La notion de proximité sémantique entre concepts est définie en s'appuyant sur l'opérateur de différence sémantique entre concepts des logiques de description. Elle consiste à minimiser les différences entre une requête Q et ses réécritures potentielles, maximisant ainsi l'information commune entre elles. Ce critère de réécriture est intéressant car plus général et donc plus souple que les relations de subsomption ou d'équivalence utilisées habituellement. Pour les logiques de description ayant une propriété de subsomption structurelle, et pour ALN, nous montrons que le problème est NP-Difficile et qu'il est fortement lié au problème de la recherche des transversaux minimaux d'un hypergraphe. Nous proposons deux algorithmes appelés computeBCov et computeALNBCov. Un prototype implémentant computeBCov a été développé au sein du projet européen MKBEEM, permettant la validation de l'approche dans le domaine du tourisme
APA, Harvard, Vancouver, ISO, and other styles
35

Lamirel, Jean-Charles. "Application d'une approche symbolico-connexionniste pour la conception d'un système documentaire hautement interactif : le prototype NOMAD." Nancy 1, 1995. http://www.theses.fr/1995NAN10423.

Full text
Abstract:
Les systèmes de recherche documentaire (SRD) existants sont peu enclins à gérer l'interaction avec l'utilisateur de manière satisfaisante ainsi qu’à proposer différents types de recherche à celui-ci. La forme des connaissances qu'ils utilisent les rend également souvent inaptes à améliorer leur comportement au cours du temps, ainsi qu'à s'adapter à l'évolution ou à la diversification du contenu des bases documentaires, et enfin à fonctionner de manière distribuée. Nous montrons, à travers l'exemple de NOMAD, qu'il est possible de pallier une grande partie des défauts précédents en adoptant une approche systémique de la recherche documentaire et en dérivant un modèle de SRD dont les composants y sont adaptés. Le modèle NOMAD que nous décrivons ici est un modèle dont le fonctionnement est à la fois symbolique et connexionniste. Il utilise plus particulièrement des topographies neuronales multiples pour représenter et exploiter sa connaissance à long terme et un modèle de mémoire de session base sur la détection de nouveauté pour représenter et exploiter sa connaissance à court terme. Pratiquement, le modèle NOMAD garantit de nombreux modes d'interaction avec l'utilisateur, de multiples formes d'apprentissage à court et à long terme, ainsi que l'utilisation au cours de son raisonnement de connaissances acquises en mode non supervisé, contextuellement à la base utilisée. Il gère la notion de point de vue descriptif sur les documents et sur les connaissances, et se trouve notamment capable de s'auto-adapter à différents types de recherche et différents types d'utilisateurs de profils et de compétences variés. Ce modèle est opérationnel sur la plupart des fonds existants sans modification directe de leur indexation initiale
APA, Harvard, Vancouver, ISO, and other styles
36

Delacroix, Quentin. "Un système pour la recherche plein texte et la consultation hypertexte de documents techniques." Clermont-Ferrand 2, 1999. http://www.theses.fr/1999CLF2A001.

Full text
Abstract:
Ce travail est motivé par les difficultés que rencontrent les utilisateurs et producteurs d'informations dans leurs activités au sein de l'entreprise. Une étude réalisée au sein du groupe des labo d'électricité de France a permis de préciser les contraintes liées au traitement des informations et des documents. L'analyse des techniques et outils les plus utilisés pour rechercher et consulter informations et documents montre que les solutions actuelles ne sont pas complètement adaptées aux exigences industrielles. Un modèle des données/informations de l'entreprise qui considère leurs caractéristiques matérielles, organisationnelles et temporelles est présenté. Les fonctionnalités du système que nous proposons pour faciliter l'accès aux informations sont exposées. Le système RECITAL tient compte aussi bien des attentes et besoins des utilisateurs et producteurs d'informations que des préoccupations des administrateurs de systèmes informatiques. RECITAL est basé sur une architecture trois-tiers utilisant les techniques et standards de l'internet/intranet. Le 1er tiers est composé de clients universels (butineurs Web) utilisés par les acteurs de l'entreprise. Le 2d tiers est le système RECITAL lui-même. Il assure la localisation des informations, la conversion éventuelle des documents vers les formats universels (par ex HTML) et l'association des documents en générant automatiquement des liens hypertextes. Le 3e tiers regroupe les systèmes de stockage de l'entreprise. Les composants de cette architecture peuvent être répartis sur les différents sites de l'entreprise. Les principaux processus de RECITAL que sont l'indexation, la recherche plein texte et l'hypertextualisation de documents sont détaillés. Ils s'appuient sur la reconnaissance de chaînes de caractères (pattern matching). Les fonctionnalités essentielles et innovantes du système proposé sont illustées en utilisant une maquette de RECITAL. Ainsi, l'association automatique (linkage) des versions successives d'un même document et le respect des permissions d'accès aux documents lors de la recherche interactive d'informations et de la génération dynamique de liens hypertextes sont montrées
APA, Harvard, Vancouver, ISO, and other styles
37

Attias, Mimoun. "Technologies du savoir et de l'information : effets et impact sur la division internationale du travail." Paris 10, 1986. http://www.theses.fr/1986PA100091.

Full text
Abstract:
Ce travail devra être considéré comme une interprétation économique d’une vague d’innovation technologique engendrée par la jonction entre l’informatique et les télécommunications. Il comporte deux parties. La première analyse les concepts d’information et étudie sa portée économique. Aussi propose-t-elle une critique de la société d’information tout en s’interrogeant sur la signification de la télématique au sein du capitalisme contemporain. La seconde partie aborde a proprement dit les dimensions internationale de la télématique à travers la problématique des flux transfrontières de donnes. Elle consacrée aux enjeux véhiculés au sein de l’économie mondiale par les réseaux télématiques internationaux. Elle étudie les nouveaux espaces marchands décrétés par l’internationalisation de l’informatique (banques de données internationales, marché international de services informatiques, télédétection) et s’interroge sur l’utilisation de ces nouveaux medias au sein des entreprises transnationales. La phase ultime de cette recherche s’interroge sur les éventuels impacts de ces nouvelles technologies sur la périphérie sous-développée et aborde l’informatisation du Tiers-Monde
This research is basically aiming at understanding the economic stakes conveyed by the merging between informatics and telecommunications made possible by the rapid development of information technology. It comprises two parts. The first one is devoted to the examination of the information concept and its economic nature. Furthermore it intends to be a critical appraisal of the so called information economy but tries also to provide a comprehensive approach of the recent development of information technology within the framework of advanced capitalism. As far as the second part is encored, it enters the topic of transborder data flows focusing mainly on their economic dimension. They are viewed in relationship with the word economy market by the predominance of transnational economic systems. A particular attention is deserved to the use of telematics network by transnational companies. We also stress the existence of new markets and products generated by the penetration of data processing systems with the world economy. A final stage studies the impact of international data transmission of developing economies and discusses briefly the computerization of the Third world
APA, Harvard, Vancouver, ISO, and other styles
38

Moreau, Fabienne. "Revisiter le couplage traitement automatique des langues et recherche d'information." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00524514.

Full text
Abstract:
La principale difficulté des systèmes de recherche d'information (SRI) est d'établir une correspondance entre l'information recherchée par un utilisateur et celle contenue dans leur base documentaire. Pour y parvenir, ils tentent généralement un appariement des mots de la requête posée avec ceux représentant le contenu des documents. Un tel mécanisme, fondé sur une simple comparaison de chaînes de caractères, ne permet cependant pas de prendre en compte le fait qu'un même mot peut posséder plusieurs sens et qu'une même idée peut être formulée de différentes manières. Pour pallier ces difficultés, une solution assez naturelle est de se tourner vers le traitement automatique des langues (TAL) qui, en considérant les mots non comme des chaînes de caractères mais comme des entités linguistiques à part entière, doit offrir un appariement requête-document plus pertinent. Les résultats des nombreux travaux proposant d'enrichir la RI par des informations linguistiques sont toutefois souvent décevants, peu tranchés et contradictoires. Pour comprendre ces faibles résultats et savoir comment les améliorer, nous abordons le couplage TAL-RI sous des angles nouveaux. Contrairement aux autres études, nous choisissons d'exploiter pleinement la richesse de la langue en combinant plusieurs informations linguistiques appartenant aux niveaux morphologique, syntaxique et sémantique. Afin de tester l'intérêt de coupler ces informations, nous proposons une plate-forme intégrant en parallèle ces multiples indices ; elle conduit à montrer l'apport significatif et tranché de plusieurs de ces connaissances, et, via une analyse originale des corrélations qu'elles présentent, des cas de complémentarité intéressants. Grâce à une méthode d'apprentissage supervisé qui fusionne les listes de résultats fournis par chaque index linguistique et s'adapte automatiquement aux caractéristiques des requêtes, nous prouvons, par des résultats plus stables qu'habituellement, le gain effectif du couplage d'informations linguistiques multi-niveaux. Enfin, nous proposons une méthode novatrice d'acquisition par apprentissage non supervisé d'informations morphologiques qui permet d'accroître encore l'impact de ces connaissances efficaces sur les performances de notre SRI. Nous montrons ainsi qu'en construisant des outils plus souples et plus adaptés aux contraintes de la RI, l'apport du TAL dans ce domaine est réel.
APA, Harvard, Vancouver, ISO, and other styles
39

Berrani, Sid-Ahmed. "Recherche approximative de plus proches voisins avec contrôle probabiliste de la précision ; application à la recherche d'images par le contenu." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00532854.

Full text
Abstract:
Cette thèse s'intéresse aux systèmes de recherche d'images par le contenu, où le but est de rechercher les images les plus similaires à une image requête fournie en exemple. Pour cela, il est d'abord nécessaire de décrire les images stockées dans la base. L'objectif est de traduire la similarité visuelle entre images en une simple notion de proximité spatiale entre descripteurs. Ainsi, pour retrouver les images similaires à l'image requête, il suffit de retrouver les descripteurs les plus proches du descripteur de l'image requête. Ce mode de recherche, appelé recherche de plus proches voisins, est cependant extrêmement coûteux même lorsque les techniques s'indexation multidimensionnelles sont utilisées. Les performances de celles-ci se dégradent exponentiellement lorsque la dimension des descripteurs augmente (phénomène de la malédiction de la dimension). Il s'avère toutefois que l'on peut fortement réduire le coût de ces recherches en effectuant des recherches approximatives. Le principe est alors de négocier une réduction du temps de réponse contre l'introduction d'imprécisions durant la recherche. Ce travail reprend ce principe et propose une nouvelle méthode de recherche approximative de plus proches voisins qui permet un contrôle fin et intuitif de la précision de la recherche. Ce contrôle s'exprime au travers d'un seul paramètre qui indique la probabilité maximale de ne pas trouver un des plus proches voisins recherchés. Dans le but d'évaluer rigoureusement ses performances dans le cadre d'un système réel, la méthode proposée a été ensuite intégrée dans un système de recherche d'images pour la détection de copies. Les expérimentations effectuées montrent que la méthode proposée est efficace, fiable et son imprécision n'a qu'un impact mineur sur la qualité des résultats finaux.
APA, Harvard, Vancouver, ISO, and other styles
40

Ali, Khodor. "Nouvelles technologies de diffusion du savoir dans les CDI d'établissements de l'enseignement secondaire." Paris 8, 2008. http://www.theses.fr/2008PA083752.

Full text
Abstract:
Dans cette recherche de doctorat, qui porte sur les centres de documentation et d'information (CDI) des collèges publics des 4 départements de la Petite Couronne (Paris, Hauts-de-Seine, Seine-Saint-Denis et Val-de-Marne), nous nous intéressons à la recherche documentaire informatisée (RDI) que font les élèves dans les CDI des établissements secondaires à travers les logiciels documentaires. La question principale à laquelle nous tentons de répondre est : "Dans le système éducatif français et au niveau du 1e cycle du secondaire, en quoi l'utilisation d'un logiciel documentaire favorise-t-elle l'apprentissage des élèves ?". A partir des techniques d'observation, de questionnaires et d'entretiens, ainsi que des connaissances produites sur l'intégration des TICE dans les CDI, nous essayons essentiellement d'évaluer l'impact que l'usage d'un tel outil technologique a pu avoir sur l'apprentissage documentaire des collégiens. Au-delà de la recherche documentaire sur le sujet, trois enquêtes de terrain ont été menées au sein des établissements secondaires français. Nous avons réalisé des entretiens auprès des documentalistes (20), et passé deux questionnaires : l'un auprès des documentalistes (121), l'autre auprès des élèves (362). Au total, cela a concerné 428 établissements du secondaire
This thesis deals with the school libraries of the four departments of Paris and its nearby suburbs (Paris department and three other surrounding ones: Hauts-de-Seine, Seine-Saint-Denis and Val-de-Marne). We have focused our study on the online documentation searching that pupils carry out in the libraries of secondary schools with documentation softwares. The main question we are trying to answer is: "To what extent does the use of documentation softwares help secondary school pupils in their learning in the French education system?". Through observation techniques, questionnaires and interviews, and through surveys about the use of the ITCE in school libraries, we have attempted to assess the impact of the use of documentation softwares for secondary school pupils. In addition to the documentary research, three field researches have been carried out in secondary schools: interviews of school librarians (20), questionnaires submitted to librarians (121) and to pupils (362). This work involved 428 secondary schools in total
APA, Harvard, Vancouver, ISO, and other styles
41

Ceausu-Dragos, Valentina. "Définition d'un cadre sémantique pour la catégorisation de données textuelles : application à l'accidentologie." Paris 5, 2007. http://www.theses.fr/2007PA05S001.

Full text
Abstract:
L'exploitation des connaissances propres à un domaine nécessite des techniques pour l'extraction, la modélisation et la formalisation de ces connaissances. Les travaux présentés dans cette thèse portent sur le développement de techniques relatives à la gestion de ressources sémantiques et à leur utilisation comme support à la mise en oeuvre d'une application. Les techniques proposées ainsi que leur application définissent un cadre sémantique pour la catégorisation de données textuelles. Sur le plan théorique, ce cadre sémantique permet : (I) l'extraction et la validation des connaissances à partir de textes; (II) la modélisation des connaissances contenues dans les textes sous la formae de ressources sémantiques ; (III) la mise en correspondance entre une ressource ainsi créee et un corpus du domaine; (IV) la mise en correspondance entre plusieurs ressources sémantiques modélisant un même domaine. Sur le plan applicatif, ce cadre propose un mécanisme de réaisonnement qui fait appel à ces techniques poour exploiter des connaissances en accidentologie. Il deveint ainsi possible de mettre en oeuvre une solution à un problème concret qui concerne l'exploitation automaitque des scénarios type d'accidents de la route
Knowledge engineering requires the application of techniques for knowledge extraction, modeling and formalization. The work presented concerns the definition of a semantic portal for text categorization. This portal relies on several techniques developed for semantic resources engineering. From a theorical point of view, this semantic portal allows ; (I) knowledge extraction from text ; (II) semantic resources construction ; (III) finding correspondances between semantic resources and textual corpora ; (IV) aligning semantic resources. The core of this portal is a knowledge system allowing text categorization in accidentology. This system implements a reasoning mechanism supported by domain knowledge and it offers a solution for the automatic exploitation of accident scenarios
APA, Harvard, Vancouver, ISO, and other styles
42

Jacquemin, Bernard. "Construction et interrogation de la structure informationnelle d'une base documentaire en français." Phd thesis, Université de la Sorbonne nouvelle - Paris III, 2003. http://tel.archives-ouvertes.fr/halshs-00003957.

Full text
Abstract:
Cette thèse présente une méthode originale pour identifier et structurer l'information de documents et pour l'interroger. Comme les méthodes linguistiques améliorent les résultats des systèmes actuels, cette approche se base sur des analyses linguistiques et des ressources lexicales. Une analyse grammaticale de haut niveau (morphologique, syntaxique et sémantique) identifie d'abord les éléments d'information et les lie entre eux. Puisque le contexte des requêtes est faible, les textes sont analysés. Puis le contenu des ressources confère aux informations de nombreuses actualisations grâce à des transformations contextuelles : synonymie simple et complexe, dérivations avec adaptation du contexte syntaxique, adjonction de traits sémantiques... Enfin, l'interrogation des textes est testée. Une analyse morpho-syntaxique de la question en identifie les éléments d'information et choisit le type de la réponse attendue. Le fragment de texte contenant ces données constitue la réponse à la question.
APA, Harvard, Vancouver, ISO, and other styles
43

Ettaleb, Mohamed. "Approche de recommandation à base de fouille de données et de graphes étiquetés multi-couches : contributions à la RI sociale." Electronic Thesis or Diss., Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0588.

Full text
Abstract:
D’une manière générale, l’objectif d’un système de recommandation est d’assister les utilisateurs dans le choix d’éléments pertinents parmi un ensemble vaste d’éléments. Dans le contexte actuel de l’explosion du nombre de publications académiques disponibles (livres, articles, etc.) en ligne, fournir un service de recommandations personnalisées devient une nécessité. En outre, la recommandation automatique de livres à partir d’une requête est un thème émergent avec de nombreux verrous scientifiques. Il combine plusieurs problématiques liées à la recherche d’information et la fouille de données pour l’estimation du degré d’opportunité de recommander un livre. Cette estimation doit être effectuée en tenant compte de la requête mais aussi du profil de l’utilisateur (historique de lecture, centres d’intérêts, notes et commentaires associés à ses lectures précédentes) et de l’ensemble de la collection à laquelle appartient le document. Deux grandes pistes ont été abordés dans cette thèse pour traiter le problème de la recommandation automatique des livres : - Identification des intentions de l’utilisateur à partir d’une requête. - Recommandation des livres pertinents selon les besoins de l’utilisateur
In general, the purpose of a recommendation system is to assist users in selecting relevant elements from a wide range of elements. In the context of the explosion in the number of academic publications available (books, articles, etc.) online, providing a personalized recommendation service is becoming a necessity. In addition, automatic book recommendation based on a query is an emerging theme with many scientific locks. It combines several issues related to information retrieval and data mining for the assessment of the degree of opportunity to recommend a book. This assessment must be made taking into account the query but also the user profile (reading history, interest, notes and comments associated with previous readings) and the entire collection to which the document belongs. Two main avenues have been addressed in this paper to deal with the problem of automatic book recommendation : - Identification of the user’s intentions from a query. - Recommendation of relevant books according to the user’s needs
APA, Harvard, Vancouver, ISO, and other styles
44

Abi, Chahine Carlo. "Indexation et recherche conceptuelles de documents pédagogiques guidées par la structure de Wikipédia." Phd thesis, INSA de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00635978.

Full text
Abstract:
Cette thèse propose un système d'aide à l'indexation et à la recherche de documents pédagogiques fondé sur l'utilisation de Wikipédia.l'outil d'aide à l'indexation permet de seconder les documentalistes dans la validation, le filtrage et la sélection des thématiques, des concepts et des mots-clés issus de l'extraction automatique d'un document. En effectuant une analyse des données textuelles d'un document, nous proposons au documentaliste une liste de descripteurs permettant de représenter et discriminer le document. Le travail du documentaliste se limite alors à une lecture rapide du document et à la sélection et suppression des descripteurs suggérés par le système pour rendre l'indexation homogène, discriminante et exhaustive. Pour cela nous utilisons Wikipédia comme base de connaissances. Le modèle utilisé pour l'extraction des descripteurs permet également de faire de la recherche d'information sur un corpus de document déjà indexé.
APA, Harvard, Vancouver, ISO, and other styles
45

Norman, Christopher. "Systematic review automation methods." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS028.

Full text
Abstract:
Les récentes avancées en matière d'intelligence artificielle ont vu une adoption limitée dans la communauté des auteurs de revues systématiques, et une grande partie du processus d'élaboration des revues systématiques est toujours manuelle, longue et coûteuse. Les auteurs de revues systématiques rencontrent des défis tout au long du processus d'élaboration d'une revue. Il est long et difficile de chercher, d'extraire, de collecter des données, de rédiger des manuscrits et d'effectuer des analyses statistiques. L'automatisation de la sélection d'articles a été proposé comme un moyen de réduire la charge de travail, mais son adoption a été limitée en raison de différents facteurs,notamment l'investissement important de prise en main, le manque d'accompagnement et les décalages par rapport au flux de travail. Il est nécessaire de mieux harmoniser les méthodes actuelles avec les besoins de la communauté des revues systématiques.Les études sur l'exactitude des tests diagnostiques sont rarement indexées de façon à pouvoir être facilement retrouvées dans les bases de données bibliographiques. La variabilité terminologique et l'indexation lacunaire ou incohérente des ces études sont autant de facteurs augmentant le niveau de difficulté de réalisation des revues systématiques qui s'y intéressent. Les requêtes de recherche méthodologique visant à repérer les études diagnostiques ont donc tendance à être peu précises, et leur utilisation dans les études méthodiques est déconseillée. Par conséquent, il est particulièrement nécessaire d'avoir recours à d'autres méthodes pour réduire la charge de travail dans les études méthodiques sur l'exactitude des tests diagnostiques.Dans la présente thèse, nous avons examiné l'hypothèse selon laquelle les méthodes d'automatisation peuvent offrir un moyen efficace de rendre le processus d'élaboration des revues systématique plus rapide et moins coûteux, à condition de pouvoir cerner et surmonter les obstacles à leur adoption. Les travaux réalisés montrent que les méthodes automatisées offrent un potentiel de diminution des coûts tout en améliorant la transparence et la reproductibilité du processus
Recent advances in artificial intelligence have seen limited adoption in systematic reviews,and much of the systematic review process remains manual, time-consuming, and expensive. Authors conducting systematic reviews face issues throughout the systematic review process. It is difficult and time-consuming to search and retrieve,collect data, write manuscripts, and perform statistical analyses. Screening automation has been suggested as a way to reduce the workload, but uptake has been limited due to a number of issues,including licensing, steep learning curves, lack of support, and mismatches to workflow. There is a need to better a lign current methods to the need of the systematic review community.Diagnostic test accuracy studies are seldom indexed in an easily retrievable way, and suffer from variable terminology and missing or inconsistently applied database labels. Methodological search queries to identify diagnostic studies therefore tend to have low accuracy, and are discouraged for use in systematic reviews. Consequently, there is a particular need for alternative methods to reduce the workload in systematic reviews of diagnostic test accuracy.In this thesis we have explored the hypothesis that automation methods can offer an efficient way tomake the systematic review process quicker and less expensive, provided we can identify and overcomebarriers to their adoption. Automated methods have the opportunity to make the process cheaper as well as more transparent, accountable, and reproducible
APA, Harvard, Vancouver, ISO, and other styles
46

Lamprier, Sylvain. "Vers la conception de documents composites : extraction et organisation de l'information pertinente." Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00417551.

Full text
Abstract:
Au cours de ces dernières années, le domaine de la recherche d'information s'est élargi à la mise en place d'applications ne visant plus uniquement à aider l'utilisateur dans sa tâche de localisation des documents pertinents, mais cherchant à lui construire une réponse synthétique permettant de satisfaire ses besoins en information. Dans ce contexte, cette thèse se concentre sur la production d'une entité, appelée document composite, représentant un aperçu des différents types d'information que l'utilisateur pourra trouver, en rapport avec sa requête, dans le corpus interrogé. Après s'être interrogés sur le mode d'extraction et de sélection des fragments de texte à faire figurer dans ce document composite, l'étude réalisée nous a finalement conduits à la mise en place d'un algorithme multi-objectifs, de recherche du sous-ensemble de segments thématiques maximisant conjointement un critère de proximité à la requête et un critère de représentativité des thématiques abordées par les documents considérés. Outre la conception du document composite qui est l'objectif central de cette thèse, les contributions réalisées concernent le découpage des documents et son évaluation, les mesures de pertinence et de similarité des textes, l'impact que peut avoir l'individualisation des thématiques en recherche d'information, le mode d'évaluation des systèmes utilisant un clustering des résultats et enfin, la prise en considération de la requête dans les processus de clustering.
APA, Harvard, Vancouver, ISO, and other styles
47

Lesbegueries, Julien. "Plate-forme pour l'indexation spatiale multi-niveaux d'un corpus territorialisé." Phd thesis, Université de Pau et des Pays de l'Adour, 2007. http://tel.archives-ouvertes.fr/tel-00258534.

Full text
Abstract:
Notre travail s'insère dans la problématique de l'accès à l'information spatiale présente dans des corpus textuels territoriaux. Nous proposons d'aller au-delà des systèmes de recherche d'information classiques basés sur l'analyse statistique des documents, peu adaptés pour ce cas particulier, via un traitement linguistique ciblé interprétant l'information spatiale. Notre hypothèse est que des traitements relativement peu coûteux suffisent à dégager l'essentiel de l'information. Ils sont un bon point de départ pour une interprétation plus poussée par la suite, utilisant les propriétés géographiques de l'information extraite afin de développer un système d'indexation à plusieurs niveaux d'abstraction.
Nous proposons en effet une méthode de recherche d'information spatiale multi-niveaux indexant un corpus textuel brut. Cette méthode qui extrait l'information d'un corpus et l'interprète, permet d'améliorer l'efficacité de systèmes de recherche d'information à chaque fois que l'interrogation comporte une connotation spatiale. L'interprétation permet en outre de retrouver le contexte dans lequel l'information spatiale a été utilisée. En particulier, elle permet d'indexer des unités de texte en leur associant des contextes de type itinéraire, description locale ou comparaison de lieux.
APA, Harvard, Vancouver, ISO, and other styles
48

Mimouni, Nada. "Interrogation d'un réseau sémantique de documents : l'intertextualité dans l'accès à l'information juridique." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD084/document.

Full text
Abstract:
Une collection documentaire est généralement représentée comme un ensemble de documents mais cette modélisation ne permet pas de rendre compte des relations intertextuelles et du contexte d’interprétation d’un document. Le modèle documentaire classique trouve ses limites dans les domaines spécialisés où les besoins d’accès à l’information correspondent à des usages spécifiques et où les documents sont liés par de nombreux types de relations. Ce travail de thèse propose deux modèles permettant de prendre en compte cette complexité des collections documentaire dans les outils d’accès à l’information. Le premier modèle est basée sur l’analyse formelle et relationnelle de concepts, le deuxième est basée sur les technologies du web sémantique. Appliquées sur des objets documentaires ces modèles permettent de représenter et d’interroger de manière unifiée les descripteurs de contenu des documents et les relations intertextuelles qu’ils entretiennent
A collection of documents is generally represented as a set of documents but this simple representation does not take into account cross references between documents, which often defines their context of interpretation. This standard document model is less adapted for specific professional uses in specialized domains in which documents are related by many various references and the access tools need to consider this complexity. We propose two models based onformal and relational concept analysis and on semantic web techniques. Applied on documentary objects, these two models represent and query in a unified way documents content descriptors and documents relations
APA, Harvard, Vancouver, ISO, and other styles
49

Noël, Romain. "Contribution à la veille stratégique : DOWSER, un système de découverte de sources Web d’intérêt opérationnel." Thesis, Rouen, INSA, 2014. http://www.theses.fr/2014ISAM0011/document.

Full text
Abstract:
L'augmentation constante du volume d'information disponible sur le Web a rendu compliquée la découverte de nouvelles sources d'intérêt sur un sujet donné. Les experts du renseignement doivent faire face à cette problématique lorsqu'ils recherchent des pages sur des sujets spécifiques et sensibles. Ces pages non populaires sont souvent mal indexées ou non indexées par les moteurs de recherche à cause de leur contenu délicat, les rendant difficile à trouver. Nos travaux, qui s'inscrivent dans ce contenu du Renseignement d'Origine Source Ouverte (ROSO), visent à aider l'expert du renseignement dans sa tâche de découverte de nouvelles sources. Notre approche s'articule autour de la modélisation du besoin opérationnel et de l'exploration ciblée du Web. La modélisation du besoin informationnel permet de guider l'exploration du web pour découvrir et fournir des sources pertinentes à l'expert
The constant growth of the Web in recent years has made more difficult the discovery of new sources of information on a given topic. This is a prominent problem for Expert in Intelligence Analysis (EIA) who are faced with the search of pages on specific and sensitive topics. Because of their lack of popularity or because they are poorly indexed due to their sensitive content, these pages are hard to find with traditional search engine. In this article, we describe a new Web source discovery system called DOWSER. The goal of this system is to provide users with new sources of information related to their needs without considering the popularity of a page unlike classic Information Retrieval tools. The expected result is a balance between relevance and originality, in the sense that the wanted pages are not necessary popular. DOWSER in based on a user profile to focus its exploration of the Web in order to collect and index only related Web documents
APA, Harvard, Vancouver, ISO, and other styles
50

Raymond, David Colin. "Synchronous environments for distance learning : combinning network and collaborative approaches." Toulouse 3, 2006. http://www.theses.fr/2006TOU30032.

Full text
Abstract:
Ce travail propose des solutions pour améliorer les environnements collaboratifs synchrones dans le cadre d'un apprentissage à distance. A travers des expériences d'activités collaboratives synchrones, un modèle a été définit pour représenter les interactions et les communications dans un groupe d'utilisateurs distribués. Ce modèle vise à supporter le développement d'un système de gestion des contenus et des communications. La représentation des flux d'informations dans un groupe d'élèves ouvre la voie au support de stratégies éducatives. D'un point de vue technique, cette représentation permet d'optimiser la qualité des communications selon des critères éducatifs. Le but de cet environnement est d'apporter une réponse équilibrée aux utilisateurs tant sur le plan technique qu'éducatif. Un tel environnement n'a pas été implémenté mais ce travail à participé à l'amélioration de l'environnement collaboratif PLATINE développé au LAAS-CNRS. "" Ce travail propose des solutions pour améliorer les environnements collaboratifs synchrones dans le cadre d'un apprentissage à distance. A travers des expériences d'activités collaboratives synchrones, un modèle a été définit pour représenter les interactions et les communications dans un groupe d'utilisateurs distribués. Ce modèle vise à supporter le développement d'un système de gestion des contenus et des communications. La représentation des flux d'informations dans un groupe d'élèves ouvre la voie au support de stratégies éducatives. D'un point de vue technique, cette représentation permet d'optimiser la qualité des communications selon des critères éducatifs. Le but de cet environnement est d'apporter une réponse équilibrée aux utilisateurs tant sur le plan technique qu'éducatif. Un tel environnement n'a pas été implémenté mais ce travail à participé à l'amélioration de l'environnement collaboratif PLATINE développé au LAAS-CNRS.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography