To see the other types of publications on this topic, follow the link: Système de recommandation sémantique.

Dissertations / Theses on the topic 'Système de recommandation sémantique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Système de recommandation sémantique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lemdani, Roza. "Système hybride d'adaptation dans les systèmes de recommandation." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC050/document.

Full text
Abstract:
Les systèmes de recommandation sont des outils servant à suggérer aux utilisateurs des items pouvant les intéresser. De tels systèmes requièrent la définition d'un algorithme prenant en compte le domaine d'application. Cet algorithme est ensuite exécuté pour chaque utilisateur du système afin de lui générer des recommandations, et ce, sans prendre en compte ses particularités et ses besoins spécifiques.L'objet de cette thèse consiste à proposer une nouvelle approche de recommandation hybride combinant plusieurs algorithmes de recommandation afin d'obtenir une recommandation plus précise. De plus, l'approche proposée repose sur la structure de l'ontologie donnée en entrée du système, ce qui la rend réutilisable, facilement adaptable et applicable à tous les domaines (musique, publications scientifiques, films, etc.).Nous nous sommes également intéressées à la détection du type de recommandations auxquelles l'utilisateur répond le mieux afin d'adapter le processus de recommandation à chaque catégorie d'utilisateur et d'obtenir des recommandations plus ciblées. Notre approche de recommandation permet également d'expliquer les recommandations obtenues, ce qui permet d'augmenter la confiance de l'utilisateur vis-à-vis du système en lui prouvant que ses recommandations lui sont personnellement destinées et de lui donner la possibilité de corriger les explications, ce qui améliore la connaissance de l'utilisateur par le système et aide à écarter les futures recommandations non pertinentes.Le système de recommandation défini a été expérimenté hors-ligne à l'aide d'une validation croisée sur le dataset de MovieLens et en ligne avec de vrais utilisateurs. Les résultats obtenus sont très satisfaisants
Recommender systems are tools used to present users with items that might interest them. Such systems use algorithms that rely on the domain application. These algorithms are then executed for each user in order to find the most relevant recommendations for him, without taking into account his specific needs.In this thesis, we define a hybrid recommender system which combines several recommendation algorithms in order to obtain more accurate recommendations. Moreover, the defined approach relies on the structure of the input ontology, which makes the framework reusable, adaptable and domain-independent (music, research papers, films, etc.).We also had an interest in detecting in which kind of recommendations a user responds better in order to adapt the recommendation process to each user category and obtain more targeted recommendations. Finally, our approach can explain each recommendation, which increases the user confidence in the system by proving him that the recommendations are adapted to him. We also allow the user to correct the explanations in order to help the system to get a better understanding of him and avoid non accurate recommendations in the future.Our recommender system has been experimented online with real users and offline by performing a cross-validation on the MovieLens dataset. The results of the experimentation are very satisfying so far
APA, Harvard, Vancouver, ISO, and other styles
2

Soualah, Alila Fayrouz. "CAMLearn* : une architecture de système de recommandation sémantique sensible au contexte : application au domaine du m-learning." Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS032/document.

Full text
Abstract:
Au vu de l'émergence rapide des nouvelles technologies mobiles et la croissance des offres et besoins d'une société en mouvement en formation, les travaux se multiplient pour identifier de nouvelles plateformes d'apprentissage pertinentes afin d'améliorer et faciliter le processus d'apprentissage à distance. La prochaine étape de l'apprentissage à distance est naturellement le port de l'apprentissage électronique vers les nouveaux systèmes mobiles. On parle alors de m-learning (apprentissage mobile). Jusqu'à présent l'environnement d'apprentissage était soit défini par un cadre pédagogique soit imposé par le contenu d'apprentissage. Maintenant, nous cherchons, à l'inverse, à adapter le cadre pédagogique et le contenu d'apprentissage au contexte de l'apprenant.Nos travaux de recherche portent sur le développement d'une nouvelle architecture pour le m-learning. Nous proposons une approche pour un système m-learning contextuel et adaptatif intégrant des stratégies de recommandation de scénarios de formations sans risque de rupture
Given the rapid emergence of new mobile technologies and the growth of needs of a moving society in training, works are increasing to identify new relevant educational platforms to improve distant learning. The next step in distance learning is porting e-learning to mobile systems. This is called m-learning. So far, learning environment was either defined by an educational setting, or imposed by the educational content. In our approach, in m-learning, we change the paradigm where the system recommends content and adapts learning follow to learner's context
APA, Harvard, Vancouver, ISO, and other styles
3

Benouaret, Idir. "Un système de recommandation contextuel et composite pour la visite personnalisée de sites culturels." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2332/document.

Full text
Abstract:
Notre travail concerne les systèmes d’aide à la visite de musée et l’accès au patrimoine culturel. L’objectif est de concevoir des systèmes de recommandation, implémentés sur dispositifs mobiles, pour améliorer l’expérience du visiteur, en lui recommandant les items les plus pertinents et en l’aidant à personnaliser son parcours. Nous considérons essentiellement deux terrains d’application : la visite de musées et le tourisme. Nous proposons une approche de recommandation hybride et sensible au contexte qui utilise trois méthodes différentes : démographique, sémantique et collaborative. Chaque méthode est adaptée à une étape spécifique de la visite de musée. L’approche démographique est tout d’abord utilisée afin de résoudre le problème du démarrage à froid. L’approche sémantique est ensuite activée pour recommander à l’utilisateur des œuvres sémantiquement proches de celles qu’il a appréciées. Enfin l’approche collaborative est utilisée pour recommander à l’utilisateur des œuvres que les utilisateurs qui lui sont similaires ont aimées. La prise en compte du contexte de l’utilisateur se fait à l’aide d’un post-filtrage contextuel, qui permet la génération d’un parcours personnalisé dépendant des œuvres qui ont été recommandées et qui prend en compte des informations contextuelles de l’utilisateur à savoir : l’environnement physique, la localisation ainsi que le temps de visite. Dans le domaine du tourisme, les points d’intérêt à recommander peuvent être de différents types (monument, parc, musée, etc.). La nature hétérogène de ces points d’intérêt nous a poussé à proposer un système de recommandation composite. Chaque recommandation est une liste de points d’intérêt, organisés sous forme de packages, pouvant constituer un parcours de l’utilisateur. L’objectif est alors de recommander les Top-k packages parmi ceux qui satisfont les contraintes de l’utilisateur (temps et coût de visite par exemple). Nous définissons une fonction de score qui évalue la qualité d’un package suivant trois critères : l’appréciation estimée de l’utilisateur, la popularité des points d’intérêt ainsi que la diversité du package et nous proposons un algorithme inspiré de la recherche composite pour construire la liste des packages recommandés. L’évaluation expérimentale du système que nous avons proposé, en utilisant un data-set réel extrait de Tripadvisor démontre sa qualité et sa capacité à améliorer à la fois la précision et la diversité des recommandations
Our work concerns systems that help users during museum visits and access to cultural heritage. Our goal is to design recommender systems, implemented in mobile devices to improve the experience of the visitor, by recommending him the most relevant items and helping him to personalize the tour he makes. We consider two mainly domains of application : museum visits and tourism. We propose a context-aware hybrid recommender system which uses three different methods : demographic, semantic and collaborative. Every method is adapted to a specific step of the museum tour. First, the demographic approach is used to solve the problem of the cold start. The semantic approach is then activated to recommend to the user artworks that are semantically related to those that the user appreciated. Finally, the collaborative approach is used to recommend to the user artworks that users with similar preferences have appreciated. We used a contextual post filtering to generate personalized museum routes depending on artworks which were recommended and contextual information of the user namely : the physical environment, the location as well as the duration of the visit. In the tourism field, the items to be recommended can be of various types (monuments, parks, museums, etc.). Because of the heterogeneous nature of these points of interest, we proposed a composite recommender system. Every recommendation is a list of points of interest that are organized in a package, where each package may constitute a tour for the user. The objective is to recommend the Top-k packages among those who satisfy the constraints of the user (time, cost, etc.). We define a scoring function which estimates the quality of a package according to three criteria : the estimated appreciation of the user, the popularity of points of interest as well as the diversity of packages. We propose an algorithm inspired by composite retrieval to build the list of recommended packages. The experimental evaluation of the system we proposed using a real world data set crawled from Tripadvisor demonstrates its quality and its ability to improve both the relevance and the diversity of recommendations
APA, Harvard, Vancouver, ISO, and other styles
4

Ben, Ticha Sonia. "Recommandation personnalisée hybride." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0168/document.

Full text
Abstract:
Face à la surabondance des ressources et de l'information sur le net, l'accès aux ressources pertinentes devient une tâche fastidieuse pour les usagers de la toile. Les systèmes de recommandation personnalisée comptent parmi les principales solutions qui assistent l'utilisateur en filtrant les ressources, pour ne lui proposer que celles susceptibles de l’intéresser. L’approche basée sur l’observation du comportement de l’utilisateur à partir de ses interactions avec le e-services est appelée analyse des usages. Le filtrage collaboratif et le filtrage basé sur le contenu sont les principales techniques de recommandations personnalisées. Le filtrage collaboratif exploite uniquement les données issues de l’analyse des usages alors que le filtrage basé sur le contenu utilise en plus les données décrivant le contenu des ressources. Un système de recommandation hybride combine les deux techniques de recommandation. L'objectif de cette thèse est de proposer une nouvelle technique d'hybridation en étudiant les bénéfices de l'exploitation combinée d'une part, des informations sémantiques des ressources à recommander, avec d'autre part, le filtrage collaboratif. Plusieurs approches ont été proposées pour l'apprentissage d'un nouveau profil utilisateur inférant ses préférences pour l’information sémantique décrivant les ressources. Pour chaque approche proposée, nous traitons le problème du manque de la densité des données et le problème du passage à l’échelle. Nous montrons également, de façon empirique, un gain au niveau de la précision des recommandations par rapport à des approches purement collaboratives ou purement basées sur le contenu
Face to the ongoing rapid expansion of the Internet, user requires help to access to items that may interest her or him. A personalized recommender system filters relevant items from huge catalogue to particular user by observing his or her behavior. The approach based on observing user behavior from his interactions with the website is called usage analysis. Collaborative Filtering and Content-Based filtering are the most widely used techniques in personalized recommender system. Collaborative filtering uses only data from usage analysis to build user profile, while content-based filtering relies in addition on semantic information of items. Hybrid approach is another important technique, which combines collaborative and content-based methods to provide recommendations. The aim of this thesis is to present a new hybridization approach that takes into account the semantic information of items to enhance collaborative recommendations. Several approaches have been proposed for learning a new user profile inferring preferences for semantic information describing items. For each proposed approach, we address the sparsity and the scalability problems. We prove also, empirically, an improvement in recommendations accuracy against collaborative filtering and content-based filtering
APA, Harvard, Vancouver, ISO, and other styles
5

Werner, David. "Indexation et recommandation d'informations : vers une qualification précise des items par une approche ontologique, fondée sur une modélisation métier du domaine : application à la recommandation d'articles économiques." Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS078/document.

Full text
Abstract:
La gestion efficace de grandes quantités d’informations est devenue un défi de plus en plus importantpour les systèmes d’information. Tous les jours, de nouvelles sources d’informations émergent surle web. Un humain peut assez facilement retrouver ce qu’il cherche, lorsqu’il s’agit d’un article,d’une vidéo, d’un artiste précis. En revanche, il devient assez difficile, voire impossible, d’avoir unedémarche exploratoire pour découvrir de nouveaux contenus. Les systèmes de recommandationsont des outils logiciels ayant pour objectif d’assister l’humain afin de répondre au problème desurcharge d’informations. Les travaux présentés dans ce document proposent une architecturepour la recommandation efficace d’articles d’actualité. L’approche ontologique utilisée repose surun modèle permettant une qualification précise des items sur la base d’un vocabulaire contrôlé.Contenu dans une ontologie, ce vocabulaire constitue une modélisation formelle de la vue métier surle domaine traité. Réalisés en collaboration avec la société Actualis SARL, ces travaux ont permis lacommercialisation d’un nouveau produit hautement compétitif, FristECO Pro’fil
Effective management of large amounts of information has become a challenge increasinglyimportant for information systems. Everyday, new information sources emerge on the web. Someonecan easily find what he wants if (s)he seeks an article, a video or a specific artist. However,it becomes quite difficult, even impossible, to have an exploratory approach to discover newcontent. Recommender systems are software tools that aim to assist humans to deal withinformation overload. The work presented in this Phd thesis proposes an architecture for efficientrecommendation of news. In this document, we propose an architecture for efficient recommendationof news articles. Our ontological approach relies on a model for precise characterization of itemsbased on a controlled vocabulary. The ontology contains a formal vocabulary modeling a view on thedomain knowledge. Carried out in collaboration with the company Actualis SARL, this work has ledto the marketing of a new highly competitive product, FristECO Pro’fil
APA, Harvard, Vancouver, ISO, and other styles
6

Duthil, Benjamin. "De l'extraction des connaissances à la recommandation." Phd thesis, Montpellier 2, 2012. http://tel.archives-ouvertes.fr/tel-00771504.

Full text
Abstract:
Les technologies de l'information et le succès des services associés (forums, sites spécialisés, etc) ont ouvert la voie à un mode d'expression massive d'opinions sur les sujets les plus variés (e-commerce, critiques artistiques, etc). Cette profusion d'opinions constitue un véritable eldorado pour l'internaute, mais peut rapidement le conduire à une situation d'indécision car,les avis déposés peuvent être fortement disparates voire contradictoires. Pour une gestion fiable et pertinente de l'information contenue dans ces avis, il est nécessaire de mettre en place des systèmes capables de traiter directement les opinions exprimées en langage naturel afin d'en contrôler la subjectivité et de gommer les effets de lissage des traitements statistiques. La plupart des systèmes dits de recommandation ne prennent pas en compte toute la richesse sémantique des critiques et leur associent souvent des systèmes d'évaluation qui nécessitent une implication conséquente et des compétences particulières chez l'internaute. Notre objectif est de minimiser l'intervention humaine dans le fonctionnement collaboratif des systèmes de recommandation en automatisant l'exploitation des données brutes que constituent les avis en langage naturel. Notre approche non supervisée de segmentation thématique extrait les sujets d'intérêt des critiques, puis notre technique d'analyse de sentiments calcule l'opinion exprimée sur ces critères. Ces méthodes d'extraction de connaissances combinées à des outils d'analyse multicritère adaptés à la fusion d'avis d'experts ouvrent la voie à des systèmes de recommandation pertinents, fiables et personnalisés.
APA, Harvard, Vancouver, ISO, and other styles
7

Torres, Diego. "Co-Evolution between Social and Semantic Web." Nantes, 2014. https://archive.bu.univ-nantes.fr/pollux/show/show?id=ece31eb7-483b-4ad1-96bd-847476bfc8d6.

Full text
Abstract:
Le Web social et le Web sémantique ont eu un impact sur la façon dont la création de connaissances est effectuée sur le Web. Le Web social favorise la participation des utilisateurs à créer et modifier des contenus et des connaissances sur le Web. La prolifération de contenu et la nécessité d’une gestion automatisé de l’information a déclenché l’émergence du Web sémantique. Actuellement, le Web social et le Web sémantique coexistent et partagent un thème commun : une meilleure gestion de la connaissance. Cependant, la plupart des informations sur le Web social ne fait pas partie du Web sémantique et l’information du Web sémantique n’est pas utilisée pour améliorer le Web social. Cette thèse présente une approche innovante pour stimuler la co-évolution entre le Web sémantique et le Web social : les utilisateurs et les ordinateurs qui travaillent ensemble afin d’obtenir des avantages mutuels. Nous affirmons que la co-évolution du Web social et du Web sémantique permettra, d’une part d’améliorer la production de l’information sémantique au Web sémantique, et d’une autre part d’améliorer la production de connaissances sur le Web social
Social and Semantic Web has impacted in the manner of knowledge building is fulfill in the Web. The Social Web promoted the participation of users to create and edit Web content and knowledge. The content proliferation and the need to have a better machine management of such information trigger the Semantic Web. Currently, the Social and the Semantic Web are living together and they share a same topic: a better management of knowledge. However, most of the Social Web information is not part of the Semantic Web, and Semantic Web information is not used to improve the Social Web. This thesis introduced an innovative approach to stimulate a co- evolution between the Semantic and Social Web: social and machine forces work together in order to have mutual benefits. We claim that having a co-evolution between Social and Semantic Web will improve the generation of semantic data and a knowledge production improvement in the Social Web
APA, Harvard, Vancouver, ISO, and other styles
8

Lully, Vincent. "Vers un meilleur accès aux informations pertinentes à l’aide du Web sémantique : application au domaine du e-tourisme." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUL196.

Full text
Abstract:
Cette thèse part du constat qu’il y a une infobésité croissante sur le Web. Les deux types d’outils principaux, à savoir le système de recherche et celui de recommandation, qui sont conçus pour nous aider à explorer les données du Web, connaissent plusieurs problématiques dans : (1) l’assistance de la manifestation des besoins d’informations explicites, (2) la sélection des documents pertinents, et (3) la mise en valeur des documents sélectionnés. Nous proposons des approches mobilisant les technologies du Web sémantique afin de pallier à ces problématiques et d’améliorer l’accès aux informations pertinentes. Nous avons notamment proposé : (1) une approche sémantique d’auto-complétion qui aide les utilisateurs à formuler des requêtes de recherche plus longues et plus riches, (2) des approches de recommandation utilisant des liens hiérarchiques et transversaux des graphes de connaissances pour améliorer la pertinence, (3) un framework d’affinité sémantique pour intégrer des données sémantiques et sociales pour parvenir à des recommandations qualitativement équilibrées en termes de pertinence, diversité et nouveauté, (4) des approches sémantiques visant à améliorer la pertinence, l’intelligibilité et la convivialité des explications des recommandations, (5) deux approches de profilage sémantique utilisateur à partir des images, et (6) une approche de sélection des meilleures images pour accompagner les documents recommandés dans les bannières de recommandation. Nous avons implémenté et appliqué nos approches dans le domaine du e-tourisme. Elles ont été dûment évaluées quantitativement avec des jeux de données vérité terrain et qualitativement à travers des études utilisateurs
This thesis starts with the observation that there is an increasing infobesity on the Web. The two main types of tools, namely the search engine and the recommender system, which are designed to help us explore the Web data, have several problems: (1) in helping users express their explicit information needs, (2) in selecting relevant documents, and (3) in valuing the selected documents. We propose several approaches using Semantic Web technologies to remedy these problems and to improve the access to relevant information. We propose particularly: (1) a semantic auto-completion approach which helps users formulate longer and richer search queries, (2) several recommendation approaches using the hierarchical and transversal links in knowledge graphs to improve the relevance of the recommendations, (3) a semantic affinity framework to integrate semantic and social data to yield qualitatively balanced recommendations in terms of relevance, diversity and novelty, (4) several recommendation explanation approaches aiming at improving the relevance, the intelligibility and the user-friendliness, (5) two image user profiling approaches and (6) an approach which selects the best images to accompany the recommended documents in recommendation banners. We implemented and applied our approaches in the e-tourism domain. They have been properly evaluated quantitatively with ground-truth datasets and qualitatively through user studies
APA, Harvard, Vancouver, ISO, and other styles
9

Patel, Namrata. "Mise en œuvre des préférences dans des problèmes de décision." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT286/document.

Full text
Abstract:
Il y a une forte croissance, à nos jours, de «services» intelligents proposés aux clients sur les plates-formes de commerce électronique, destinés à une assistance personnalisée. L'étude de préférences a suscité un grand intérêt dans ce contexte, grâce à leur utilisation dans la résolution de problèmes liés à la prise de décision. En effet, la recherche sur les préférences en intelligence artificielle (IA) propose différentes manières d'aborder ce problème : de l'acquisition des préférences à leur représentation formelle et, éventuellement, à leur gestion suivant plusieurs méthodes de raisonnement. Dans cette thèse, nous adressons la problématique de la mise en œuvre de préférences comparatives pour l'aide à la décision par le développement d'un système interactif «intelligent» de recommandations personnalisées. Nous suivons une tendance récente, et le concevons sur une base de considérations psychologiques, linguistiques et personnelles. Nous contribuons ainsi aux domaines suivants de préférences en IA : (1) leur acquisition, (2) leur représentation, et (3) leur mise en œuvre. Nous examinons d'abord un goulot d'étranglement dans l'acquisition de préférences et proposons une méthode d'acquisition de préférences exprimées en langage naturel (LN), qui permet leur représentation formelle en tant que préférences comparatives. Nous étudions ensuite les aspects théoriques de la représentation et du raisonnement avec les préférences comparatives pour aide à la décision. Finalement, nous décrivons notre outil de recommandations qui utilise : (1) une base de données de produits qualifiée par une analyse de critiques d'utilisateurs, (2) une approche interactive pour guider les utilisateurs à exprimer leurs préférences comparatives, et (3) un moteur de raisonnement qui manipule ces préférences afin de proposer une recommandation basée sur les préférences de l'utilisateur
Intelligent ‘services’ are increasingly used on e-commerce platforms to provide assistance to customers. In this context, preferences have gained rapid interest for their utility in solving problems related with decision making. Research on preferences in AI has shed light on various ways of tackling this problem, ranging from the acquisition of preferences to their formal representation and eventually their proper manipulation. Following a recent trend of stepping back and looking at decision-support systems from the user’s point of view, i.e. designing them on the basis of psychological, linguistic and personal considerations, we take up the task of developing an “intelligent” tool which uses comparative preference statements for personalised decision support. We tackle and contribute to different branches of research on preferences in AI: (1) their acquisition (2) their formal representation and manipulation (3) their implementation. We first address a bottleneck in preference acquisition by proposing a method of acquiring user preferences, expressed in natural language (NL), which favours their formal representation and further manipulation. We then focus on the theoretical aspects of handling comparative preference statements for decision support. We finally describe our tool for product recommendation that uses: (1) a review-based analysis to generate a product database, (2) an interactive preference elicitation unit to guide users to express their preferences, and (3) a reasoning engine that manipulates comparative preference statements to generate a preference-based ordering on outcomes as recommendations
APA, Harvard, Vancouver, ISO, and other styles
10

Galopin, Alexandre. "Modélisation ontologique des recommandations de pratique clinique pour une aide à la décision à niveaux d'abstraction variables." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066202/document.

Full text
Abstract:
Conformément aux principes de la médecine factuelle, les guides de bonne pratique clinique (GBPC) sont élaborés dans un but d'amélioration de la qualité des soins. Pourtant, le suivi des recommandations par les médecins reste faible, même lorsqu'elles sont intégrées dans des systèmes informatisés d'aide à la décision. En effet, elles sont souvent critiquées pour leur manque de flexibilité, et leur incapacité à gérer la singularité des patients rencontrés en pratique clinique. En particulier, leur orientation monopathologique est en inadéquation avec la réalité de patients bien souvent polypathologiques. Nos travaux portent sur la proposition d'une méthode basée sur un raisonnement ontologique pour permettre la conciliation de GBPC pour la prise en charge flexible de patients polypathologiques au sein d'un système d'aide à la décision. Les bases de connaissances reposent sur des règles construites par formalisation des recommandations, dont les critères patients sont organisés par une ontologie du domaine, permettant de produire un graphe des profils cliniques structuré par généralisation. Le raisonnement ontologique permet une juste adaptation des connaissances aux niveaux d'abstraction variables de la description du patient. Cette méthode a été implémentée dans un système d'aide à la décision, appelé GO-DSS, et appliquée à la prise en charge de patients diabétiques et hypertendus, à partir des GBPC produits par la société VIDAL (VIDAL Recos). Le prototype et ses interfaces ont été évalués qualitativement par un échantillon d'utilisateurs comprenant à la fois des informaticiens avec des connaissances médicales et des médecins avec des compétences en informatique
Clinical practice guidelines (CPGs) are elaborated according to evidence-based medicine principles in order to improve healthcare quality. However, even when they are integrated into clinical decision support systems, recommendations are poorly implemented by physicians. Indeed, CPGs are often criticized for their lack of flexibility, and their inability to handle the singularity of patients encountered in clinical practice. In particular, CPGs are usually elaborated for a single pathology whereas patients usually suffer from multiple pathologies and comorbidities. We have proposed a method based on an ontological reasoning to enable the reconciliation of single-pathology CPGs to support the flexible management of patients with multiple pathologies. Knowledge bases are made of decision rules that formalize the content of single-pathology CPGs. Patient criteria are organized by a domain ontology, which allows the generation of a generalization-ordered graph of clinical patient profiles. The ontological reasoning allows to reason at different levels of abstraction to process clinical cases described with different levels of completeness. This method has been implemented in a decision support system called GO-DSS, and applied to the management of patients suffering from both arterial hypertension and type 2 diabetes, on the basis of CPGs produced by the VIDAL company (VIDAL Recos). The prototype and its user interfaces have been qualitatively evaluated by a sample of users including both computer scientists with medical knowledge and physicians with computer skills
APA, Harvard, Vancouver, ISO, and other styles
11

Li, Siying. "Context-aware recommender system for system of information systems." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2602.

Full text
Abstract:
Travailler en collaboration n’est plus une question mais une réalité, la question qui se pose aujourd’hui concerne la mise en œuvre de la collaboration de façon à ce qu’elle soit la plus réussie possible. Cependant, une collaboration réussie n’est pas facile et est conditionnée par différents facteurs qui peuvent l’influencer. Il est donc nécessaire de considérer ces facteurs au sein du contexte de collaboration pour favoriser l’efficacité de collaboration. Parmi ces facteurs, le collaborateur est un facteur principal, qui est étroitement associé à l’efficacité et à la réussite des collaborations. Le choix des collaborateurs et/ou la recommandation de ces derniers en tenant compte du contexte de la collaboration peut grandement influencer la réussite de cette dernière. En même temps, grâce au développement des technologies de l’information, de nombreux outils numériques de collaboration sont mis à la disposition tels que les outils de mail et de chat en temps réel. Ces outils numériques peuvent eux-mêmes être intégrés dans un environnement de travail collaboratif basé sur le web. De tels environnements permettent aux utilisateurs de collaborer au-delà de la limite des distances géographiques. Ces derniers laissent ainsi des traces d’activités qu’il devient possible d’exploiter. Cette exploitation sera d’autant plus précise que le contexte sera décrit et donc les traces enregistrées riches en description. Il devient donc intéressant de développer les environnements de travail collaboratif basé sur le web en tenant d’une modélisation du contexte de la collaboration. L’exploitation des traces enregistrés pourra alors prendre la forme de recommandation contextuelle de collaborateurs pouvant renforcer la collaboration. Afin de générer des recommandations de collaborateurs dans des environnements de travail collaboratifs basés sur le web, cette thèse se concentre sur la génération des recommandations contextuelles de collaborateurs en définissant, modélisant et traitant le contexte de collaboration. Pour cela, nous proposons d’abord une définition du contexte de collaboration et choisissons de créer une ontologie du contexte de collaboration compte tenu des avantages de l’approche de modélisation en l’ontologie. Ensuite, une similarité sémantique basée sur l’ontologie est développée et appliquée dans trois algorithmes différents (i.e., PreF1, PoF1 et PoF2) afin de générer des recommandations contextuelles des collaborateurs. Par ailleurs, nous déployons l’ontologie de contexte de collaboration dans des environnements de travail collaboratif basés sur le web en considérant une architecture de système des systèmes d’informations du point de vue des environnements de travail collaboratif basés sur le web. À partir de cette architecture, un prototype correspondant d’environnement de travail collaboratif basé sur le web est alors construit. Enfin, un ensemble de données de collaborations scientifiques est utilisé pour tester et évaluer les performances des trois algorithmes de recommandation contextuelle des collaborateurs
Working collaboratively is no longer an issue but a reality, what matters today is how to implement collaboration so that it is as successful as possible. However, successful collaboration is not easy and is conditioned by different factors that can influence it. It is therefore necessary to take these impacting factors into account within the context of collaboration for promoting the effectiveness of collaboration. Among the impacting factors, collaborator is a main one, which is closely associated with the effectiveness and success of collaborations. The selection and/or recommendation of collaborators, taking into account the context of collaboration, can greatly influence the success of collaboration. Meanwhile, thanks to the development of information technology, many collaborative tools are available, such as e-mail and real-time chat tools. These tools can be integrated into a web-based collaborative work environment. Such environments allow users to collaborate beyond the limit of geographical distances. During collaboration, users can utilize multiple integrated tools, perform various activities, and thus leave traces of activities that can be exploited. This exploitation will be more precise when the context of collaboration is described. It is therefore worth developing web-based collaborative work environments with a model of the collaboration context. Processing the recorded traces can then lead to context-aware collaborator recommendations that can reinforce the collaboration. To generate collaborator recommendations in web-based Collaborative Working Environments, this thesis focuses on producing context-aware collaborator recommendations by defining, modeling, and processing the collaboration context. To achieve this, we first propose a definition of the collaboration context and choose to build a collaboration context ontology given the advantages of the ontology-based modeling approach. Next, an ontologybased semantic similarity is developed and applied in three different algorithms (i.e., PreF1, PoF1, and PoF2) to generate context-aware collaborator recommendations. Furthermore, we deploy the collaboration context ontology into web-based Collaborative Working Environments by considering an architecture of System of Information Systems from the viewpoint of web-based Collaborative Working Environments. Based on this architecture, a corresponding prototype of web-based Collaborative Working Environment is then constructed. Finally, a dataset of scientific collaborations is employed to test and evaluate the performances of the three context-aware collaborator recommendation algorithms
APA, Harvard, Vancouver, ISO, and other styles
12

Gauthier, Luc-Aurélien. "Inférence de liens signés dans les réseaux sociaux, par apprentissage à partir d'interactions utilisateur." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066639/document.

Full text
Abstract:
Dans cette thèse, nous étudions la sémantique des relations entre les utilisateurs et des forces antagonistes que nous observons naturellement dans diverses relations sociales, comme hostilité ou méfiance. L'étude de ces relations soulève de nombreux problèmes à la fois techniques, puisque l'arsenal mathématique n'est souvent pas adapté aux liens négatifs, mais aussi pratiques à cause de la difficulté rencontrée pour collecter de telles données (expliciter une relation négative est perçu comme malvenu pour de nombreux utilisateurs). Nous nous intéressons alors aux solutions alternatives de collecte afin d'inférer ces relations négatives à partir d'autres contenus. En particulier, nous allons utiliser les jugements communs que les utilisateurs partagent à propos d'items (données des systèmes de recommandation). Nous apportons trois contributions. Dans la première, nous allons aborder le cas des accords sur les items qui peuvent ne pas avoir la même sémantique selon qu'ils concernent des items appréciés ou non par les utilisateurs. Nous verrons que le fait de ne pas aimer un même produit n'est pas synonyme de similarité. Ensuite, nous allons prendre en compte dans notre seconde contribution les distributions de notes des utilisateurs et des items afin de mesurer si les accords ou les désaccords arrivent par hasard ou non, afin notamment d'éviter les conséquences des différents biais utilisateurs et items présents dans ce type de données. Enfin, notre troisième contribution consistera à exploiter ces différents résultats afin de prédire le signe des liens entre utilisateurs à partir des seuls jugements communs à propos des items et sans aucune information sociale négative
In this thesis, we study the semantic of relations between users and, in particular, the antagonistic forces we naturally observe in various social relationships, such as hostility or suspicion. The study of these relationships raises many problems both techniques - because the mathematical arsenal is not really adapted to the negative ties - and practical, due to the difficulty of collecting such data (explaining a negative relationship is perceived as intrusive and inappropriate for many users). That’s why we focus on the alternative solutions consisting in inferring these negative relationships from more widespread content. We use the common judgments about items the users share, which are the data used in recommender systems. We provide three contributions, described in three distinct chapters. In the first one, we discuss the case of agreements about items that may not have the same semantics if they involve appreciated items or not by two users. We will see that disliking the same product does not mean similarity. Afterward, we consider in our second contribution the distributions of user ratings and items ratings in order to measure whether the agreements or disagreements may happen by chance or not, in particular to avoid the user and item biases observed in this type of data. Our third contribution consists in using these results to predict the sign of the links between users from the only positive ties and the common judgments about items, and then without any negative social information
APA, Harvard, Vancouver, ISO, and other styles
13

Ben, Souissi Souhir. "Vers une nouvelle génération d'outils d'aide à la décision s'appliquant à la prévention des risques lors de la prescription des antibiotiques : combinaison des technologies Web sémantique et de l'aide multicritère à la décision." Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0027/document.

Full text
Abstract:
Au vu de la prévalence significative des événements indésirables liés aux médicaments, ainsi que du risque croissant de résistance aux antibiotiques (causée principalement par les prescriptions inappropriées et une utilisation excessive), nous proposons une architecture générale pour des systèmes de recommandation adaptés à ce type de contexte et nous en développons un pour la prescription d’antibiotiques (PARS). Le type de contexte pour lequel l’approche est proposée est caractérisé par des décisions à haut risque et/ou à enjeux importants. Le système ne peut être basé sur l’apprentissage car une base de données de cas n’est pas disponible. Toutefois, des connaissances et des règles de bonnes pratiques existent et de ce fait il convient de développer un système capable de les modéliser et de les mettre en oeuvre. Le système est destiné à un utilisateur qui est le décideur qui doit adapter sa décision à chaque sujet dont les besoins et les caractéristiques sont spécifiques. Le modèle doit pouvoir s’adapter à différents types d’évolutions. L’approche est basée sur la combinaison des technologies web sémantique avec un modèle d’aide multicritère à la décision. Le système comporte deux étapes. Compte tenu de la spécificité du domaine d’application, l’approche évalue d’abord la pertinence d’une alternative (action) pour un sujet et un besoin donnés dans un contexte spécifique. Le premier niveau du modèle d’aide à la décision est de sélectionner selon le besoin l’ensemble des alternatives qui ont le potentiel d’être appropriées. Le deuxième niveau consiste à évaluer et à trier les alternatives dans des catégories en fonction de leur adéquation. Nous proposons une approche qui exploite les schémas de connaissances du web sémantiques (ontologies) et qui structure les règles de recommandation en une méthode de tri adaptée : MR-Sort avec Veto. Cette approche permet de lier et de mettre en correspondance des sources de connaissances hétérogènes exprimées par des experts. En collaboration avec le Centre hospitalier EpiCURA, nous avons appliqué cette approche dans le domaine médical et plus précisément, pour la prescription des antibiotiques. Les performances de l’approche ont été comparées aux recommandations données par EpiCURA. Les résultats ont montré que le système proposé est plus détaillé dans ses recommandations par comparaison aux guidelines en usage au Centre EpiCURA. En prenant éventuellement en compte des caractéristiques supplémentaires des sujets, le modèle est capable de s’adapter à des changements dans le contexte (nouveaux antibiotiques, effets secondaires, développement de germes résistants)
Motivated by the well documented worldwide spread of adverse drug events that are associated to antibiotics usage, as well as the increased danger of antibiotic resistance (caused mainly by inappropriate prescribing and overuse), we propose a general architecture for recommendation systems adapted for this kind of context and we develop a specific system for antibiotic prescription (PARS). The type of context that our architecture covers is characterised by highly risky decisions or decisions with high stakes. Such a system cannot be based on machine learning, since there are no available training data sets or case bases. However, rules of good practice and expert knowledge are available, therefore our system should be able to model and implement them. The proposed solution is intended to be used by a decision maker who must adapt his/her decision both to each subject’s specific needs and characteristics, as well as to different types of evolution. Our approach is based on the combination of semantic technologies with MCDA (Multi-Criteria Decision Aids). The decision support process involves two steps. First, by taking into account the specific application domain, the approach evaluates the relevance of each alternative (action) in order to satisfy the needs of a given subject. The first level of the decision support model aims to select all the alternatives that have the potential to fulfill the subject’s needs. Subsequently, the second level consists of evaluating and sorting the selected alternatives in categories according to their adequacy to the characteristics of the subject. We propose an approach that exploits the knowledge schemes of semantic web technologies (ontologies) and that structures the recommendation rules into a suitable sorting method: the MR-Sort with Veto. By doing so, our solution is able to link and match heterogeneous knowledge sources expressed by experts. In collaboration with the EpiCURA Hospital Center, we have applied this approach in the medical domain and more specifically in the prescription of antibiotics. The system’s recommendations were compared with those expressed in the guidelines currently in use at EpiCURA. The results showed us that PARS allows for a better consideration of the sensitivity of the patients to the adverse effects of antibiotics. Moreover, by taking into account the additional characteristics of the patients, the model is able to adapt to contextual changes (such as new antibiotics, side effects and development of resistant micro-organisms)
APA, Harvard, Vancouver, ISO, and other styles
14

Lisena, Pasquale. "Knowledge-based music recommendation : models, algorithms and exploratory search." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS614.

Full text
Abstract:
Représenter l'information décrivant la musique est une activité complexe, qui implique différentes sous-tâches. Ce manuscrit de thèse porte principalement sur la musique classique et étudie comment représenter et exploiter ses informations. L'objectif principal est l'étude de stratégies de représentation et de découverte des connaissances appliquées à la musique classique, dans des domaines tels que la production de base de connaissances, la prédiction de métadonnées et les systèmes de recommandation. Nous proposons une architecture pour la gestion des métadonnées de musique à l'aide des technologies du Web Sémantique. Nous introduisons une ontologie spécialisée et un ensemble de vocabulaires contrôlés pour les différents concepts spécifiques à la musique. Ensuite, nous présentons une approche de conversion des données, afin d’aller au-delà de la pratique bibliothécaire actuellement utilisée, en s’appuyant sur des règles de mapping et sur l’interconnexion avec des vocabulaires contrôlés. Enfin, nous montrons comment ces données peuvent être exploitées. En particulier, nous étudions des approches basées sur des plongements calculés sur des métadonnées structurées, des titres et de la musique symbolique pour classer et recommander de la musique. Plusieurs applications de démonstration ont été réalisées pour tester les approches et les ressources précédentes
Representing the information about music is a complex activity that involves different sub-tasks. This thesis manuscript mostly focuses on classical music, researching how to represent and exploit its information. The main goal is the investigation of strategies of knowledge representation and discovery applied to classical music, involving subjects such as Knowledge-Base population, metadata prediction, and recommender systems. We propose a complete workflow for the management of music metadata using Semantic Web technologies. We introduce a specialised ontology and a set of controlled vocabularies for the different concepts specific to music. Then, we present an approach for converting data, in order to go beyond the librarian practice currently in use, relying on mapping rules and interlinking with controlled vocabularies. Finally, we show how these data can be exploited. In particular, we study approaches based on embeddings computed on structured metadata, titles, and symbolic music for ranking and recommending music. Several demo applications have been realised for testing the previous approaches and resources
APA, Harvard, Vancouver, ISO, and other styles
15

Lherisson, Pierre-René. "Système de recommandation équitable d'oeuvres numériques. En quête de diversité." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES018/document.

Full text
Abstract:
Les systèmes de recommandation jouent un rôle important dans l'orientation des choix des utilisateurs. La recommandation se fait généralement par une optimisation d'une mesure de précision de l'adéquation entre un utilisateur et un produit. Cependant, plusieurs travaux de recherche ont montré que l’optimisation de la précision ne produisait pas les recommandations les plus utiles pour les utilisateurs. Un système trop précis peut contribuer à confiner les utilisateurs dans leur propre bulle de choix. Ceci peut aussi produire un effet de foule qui va concentrer les usages autour de quelques articles populaires. Par conséquent, il y a un manque de diversité et de nouveauté dans les recommandations et une couverture limitée du catalogue. Par ailleurs, l’utilisateur peut ressentir de la frustration envers ces recommandations monotones et arrêter de se fier au système. Ce type de recommandation va à l’antithèse de l’esprit humain qui peut être friand de nouveauté et de diversité. Même si la routine peut être sécurisante, l’être humain aime sortir des sentiers battus pour, par exemple, découvrir de nouveaux produits, tenter de nouvelles expériences. Cette absence de découverte est préjudiciable pour une plateforme numérique, surtout si cette dernière veut être équitable dans ses recommandations envers tous les producteurs de contenu (par exemple, les artistes, les écrivains, les développeurs de jeux vidéos, les vidéastes). Dans cette thèse, nous présentons deux familles de modèles qui cherchent à produire des résultats qui vont au-delà des aspects de précision pour des systèmes de recommandation pour des produits culturels basés sur le contenu. Les deux modèles que nous présentons reposent sur l’étude du profil de l’utilisateur avant de lui proposer des listes de recommandations contenant des articles nouveaux et divers. Ces approches captent la diversité qu’il y a dans le profil de l’utilisateur et répondent à cette diversité en cherchant à créer une liste diversifiée de recommandations sans trop pénaliser la précision. Le premier modèle repose principalement sur une approche de clustering. Dans ce modèle, nous proposons de la diversité à l’utilisateur tout en restant dans le périmètre de ses goûts. Le second modèle est basé sur une fonction issue de la loi normale. Nous faisons l’hypothèse de l’existence d’une zone intermédiaire définie entre des éléments considérés comme trop similaires et d’autres considérés comme trop différents. Cette zone intermédiaire est une zone propice à la découverte et à l’exploration de genres et d’expériences nouveaux. Nos propositions sont testées sur des jeux de données standards et comparées à des algorithmes de l’état de l’art. Les résultats de nos expériences montrent que nos approches apportent de la diversité et de la nouveauté et sont compétitives par rapport aux méthodes de l’état de l’art. Nous proposons également une expérience utilisateur pour valider notre modèle basé sur la fonction issue de la loi normale. Les résultats des expériences centrées sur l’utilisateur montrent que ce modèle correspond au comportement cognitif de l’être humain ainsi qu’à sa perception de la diversité
Recommender systems play a leading role in user’s choice guidance. The search of accuracy in such systems is generally done through an optimization of a function between the items and the users. It has been proved that maximizing only the accuracy does not produce the most useful recommendation for the users. This can confine individuals inside the bubble of their own choices. Additionally, it tends to emphasize the agglomaration of the users’ behavior on few popular items. Thus, it produces a lack of diversity and novelty in recommendations and a limited coverage of the platform catalog. This can lead to an absence of discovery. Monotony and frustration are also induced for the users. This non-discovery is even more crucial if the platform wants to be fair in its recommendations with all contents’ producers (e.g, music artists, writers, video game developers or videographers). The non diversity, and novelty problem is more important for the users because it has been shown that human mind appreciates when moved outside of its comfort zone. For example, the discovery of new artists, the discovery of music genres for which he is not accustomed. In this thesis we present two families of model that aim to go beyond accuracy in content based recommender system scenario. Our two models are based on a user profile understanding prior to bring diversification. They capture the diversity in the user profile and respond to thisdiversity by looking to create a diverse list of recommendation without loosing to much accuracy. The first model is mainly built upon a clustering approach, while the second model is based on an wavelet function. This wavelet function in our model helps us delimit an area where the user will find item slightly different from what he liked in the past. This model is based on the assumption of the existence of a defined intermediate area between similar and different items. This area is also suitable for discovery. Our proposals are tested on a common experimental design that consider well-known datasets and state-of-the-art algorithm. The results of our experiments show that our approaches indeed bring diversity and novelty and are also competitive against state-of-the-art method. We also propose a user-experiment to validate our model based on the wavelet. The results of user centered experiments conclude that this model corresponds with human cognitive and perceptual behavior
APA, Harvard, Vancouver, ISO, and other styles
16

Ghenname, Mérième. "Le web social et le web sémantique pour la recommandation de ressources pédagogiques." Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET4015/document.

Full text
Abstract:
Ce travail de recherche est conjointement effectué dans le cadre d’une cotutelle entre deux universités : en France l’Université Jean Monnet de Saint-Etienne, laboratoire Hubert Curien sous la supervision de Mme Frédérique Laforest, M. Christophe Gravier et M. Julien Subercaze, et au Maroc l’Université Mohamed V de Rabat, équipe LeRMA sous la supervision de Mme Rachida Ajhoun et Mme Mounia Abik. Les connaissances et les apprentissages sont des préoccupations majeures dans la société d’aujourd’hui. Les technologies de l’apprentissage humain visent à promouvoir, stimuler, soutenir et valider le processus d’apprentissage. Notre approche explore les opportunités soulevées en faisant coopérer le Web Social et le Web sémantique pour le e-learning. Plus précisément, nous travaillons sur l’enrichissement des profils des apprenants en fonction de leurs activités sur le Web Social. Le Web social peut être une source d’information très importante à explorer, car il implique les utilisateurs dans le monde de l’information et leur donne la possibilité de participer à la construction et à la diffusion de connaissances. Nous nous focalisons sur le suivi des différents types de contributions, dans les activités de collaboration spontanée des apprenants sur les réseaux sociaux. Le profil de l’apprenant est non seulement basé sur la connaissance extraite de ses activités sur le système de e-learning, mais aussi de ses nombreuses activités sur les réseaux sociaux. En particulier, nous proposons une méthodologie pour exploiter les hashtags contenus dans les écrits des utilisateurs pour la génération automatique des intérêts des apprenants dans le but d’enrichir leurs profils. Cependant les hashtags nécessitent un certain traitement avant d’être source de connaissances sur les intérêts des utilisateurs. Nous avons défini une méthode pour identifier la sémantique de hashtags et les relations sémantiques entre les significations des différents hashtags. Par ailleurs, nous avons défini le concept de Folksionary, comme un dictionnaire de hashtags qui pour chaque hashtag regroupe ses définitions en unités de sens. Les hashtags enrichis en sémantique sont donc utilisés pour nourrir le profil de l’apprenant de manière à personnaliser les recommandations sur le matériel d’apprentissage. L’objectif est de construire une représentation sémantique des activités et des intérêts des apprenants sur les réseaux sociaux afin d’enrichir leurs profils. Nous présentons également notre approche générale de recommandation multidimensionnelle dans un environnement d’e-learning. Nous avons conçu une approche fondée sur trois types de filtrage : le filtrage personnalisé à base du profil de l’apprenant, le filtrage social à partir des activités de l’apprenant sur les réseaux sociaux, et le filtrage local à partir des statistiques d’interaction de l’apprenant avec le système. Notre implémentation s’est focalisée sur la recommandation personnalisée
This work has been jointly supervised by U. Jean Monnet Saint Etienne, in the Hubert Curien Lab (Frederique Laforest, Christophe Gravier, Julien Subercaze) and U. Mohamed V Rabat, LeRMA ENSIAS (Rachida Ahjoun, Mounia Abik). Knowledge, education and learning are major concerns in today’s society. The technologies for human learning aim to promote, stimulate, support and validate the learning process. Our approach explores the opportunities raised by mixing the Social Web and the Semantic Web technologies for e-learning. More precisely, we work on discovering learners profiles from their activities on the social web. The Social Web can be a source of information, as it involves users in the information world and gives them the ability to participate in the construction and dissemination of knowledge. We focused our attention on tracking the different types of contributions, activities and conversations in learners spontaneous collaborative activities on social networks. The learner profile is not only based on the knowledge extracted from his/her activities on the e-learning system, but also from his/her many activities on social networks. We propose a methodology for exploiting hashtags contained in users’ writings for the automatic generation of learner’s semantic profiles. Hashtags require some processing before being source of knowledge on the user interests. We have defined a method to identify semantics of hashtags and semantic relationships between the meanings of different hashtags. By the way, we have defined the concept of Folksionary, as a hashtags dictionary that for each hashtag clusters its definitions into meanings. Semantized hashtags are thus used to feed the learner’s profile so as to personalize recommendations on learning material. The goal is to build a semantic representation of the activities and interests of learners on social networks in order to enrich their profiles. We also discuss our recommendation approach based on three types of filtering (personalized, social, and statistical interactions with the system). We focus on personalized recommendation of pedagogical resources to the learner according to his/her expectations and profile
APA, Harvard, Vancouver, ISO, and other styles
17

Karoui, Hajer. "Système coopératif de type égal-à-égal pour la recommandation : Application à la gestion et la recommandation de références bibliographiques." Phd thesis, Université Paris-Nord - Paris XIII, 2007. http://tel.archives-ouvertes.fr/tel-00299935.

Full text
Abstract:
Nous explorons la réutilisation et le partage automatique des expériences passées des utilisateurs dans des tâches de RI. Le but est de proposer des recommandations pertinentes à l'utilisateur selon ses intérêts. Nous utilisons le raisonnement à partir de cas (RàPC) comme une méthodologie d'apprentissage et de modélisation de l'expérience des utilisateurs et, l'architecture P2P afin de préserver l'autonomie des utilisateurs. Pour illustrer notre approche, nous avons développé une application pilote COBRAS pour la gestion et la recommandation de références bibliographiques.
Deux problématiques se présentent : comment obtenir les références pertinentes et comment choisir des agents avec qui collaborer ? Pour résoudre ces problèmes, nous nous sommes basés sur l'exploitation des historiques des interactions entre les agents.
Le RàPC est utilisée pour deux finalités :
a)déterminer pour une requête, des agents intéressants à interroger ;
b)chercher pour une requête, des références pertinentes.
APA, Harvard, Vancouver, ISO, and other styles
18

Avillach, Paul. "Du système d'information clinique au système d'information épidémiologique : apport de l'intéropérabilité sémantique." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX20697.

Full text
Abstract:
Les informations médicales recueillies dans le cadre du soin doivent être utilisables pour répondre à d’autres objectifs plus collectifs. Dans ce contexte de réutilisation des données d’un système d’information clinique pour de la recherche en épidémiologie, l’objectif de ce travail est d’étudier l’apport de l'intéropérabilité sémantique à travers un certain nombre de situations concrêtes que nous avons rencontrées et étudiées et qui illustrent la nature des problèmes de cohérence sémantiques liés au traitement des données médicales et de santé.La coexistence, à un moment donné, de plusieurs référentiels sémantiques ne doit pas être considéré comme un obstacle à l'interopérabilité. Des outils génériques peuvent être conçus et développés pour passer de façon transparente d'un composant à un autre avec aussi peu de perte d’information que possible. L’Unified Medical Language System (UMLS) est un de ses outils d’intégration sémantique. Son usage dans le cadre de ces travaux montre le caractère général de cette méthode et son potentiel pour résoudre cette classe de problèmes d’intéropérabilité sémantique.La richesse de chacune des terminologies permet, lorsqu’elles sont associées dans un même référentiel sémantique pivot, d’enrichir l’ensemble des terminologies prises individuellement pour une meilleur représentation des connaissances.L’interopérabilité sémantique améliore la disponibilité et la qualité des données réutilisables pour des recherches en santé publique. Elle permet d’enrichir les données existantes. Elle fournit les moyens d'accéder à de nouvelles sources de données, agrégées de manière valide, permettant des analyses comparatives ou des analyses plus riches
Medical information collected during clinical care must be re-used to address other more collective goals. In this context of re-using data from a clinical information system for epidemiological research, the objective of this work is to study the contribution of semantic interoperability across a number of practical situations we have met and discussed which illustrate the nature of semantic consistency problems associated with processing of medical data.Coexistence at a given time, of several semantic repositories should not be considered as an obstacle to interoperability. Generic tools can be designed and developed to move seamlessly from one component to another with as little loss of information as possible. The Unified Medical Language System (UMLS) is one of the semantic integration tools. Its use in this work shows the generality of this method and its potential for solving this class of semantic interoperability problems.The richness of each of the terminology can, when combined into a single pivot semantic repository, enrich the set of terminologies individually for a better representation of knowledge.Semantic interoperability improves the availability and quality of reusable data for public health research. It also enriches existing data. It provides access to new sources of data, aggregated in a valid manner, allowing benchmarking or richer analysis
APA, Harvard, Vancouver, ISO, and other styles
19

Grossetti, Quentin. "Système de recommandation sur les plateformes de micro-blogging et bulles filtrantes." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS304.

Full text
Abstract:
Avec la croissance sans précédent des publications sur les plateformes de micro-blogging, trouver du contenu intéressant pour un utilisateur est devenu un enjeu majeur. Cependant, en raison des propriétés intrinsèques des plateformes de micro–blogging, comme le flux gigantesque de messages arrivant tous les jours et leur faible durée de vie, il est difficile d’appliquer les méthodes traditionnelles de recommandation comme la factorisation matricielle. Après une étude approfondie d’un large jeu de donnée issu de Twitter, nous présentons un modèle de propagation qui repose sur l’homophilie présente dans le réseau pour recommander des messages aux utilisateurs. Notre approche s’appuie sur la construction d’un graphe de similarités lié aux interactions des utilisateurs. Nous présentons plusieurs expérimentations pour démontrer la qualité de prédiction de notre modèle et sa capacité à passer à l’échelle. Enfin, nous évaluons différents algorithmes de détections de communautés, qui permettent d’évaluer l’impact des systèmes de recommandations sur l’isolement communautaire des utilisateurs. Nous proposons une métrique permettant de quantifier la force des bulles filtrantes et nos résultats montrent que cet effet de bulle filtrante est en réalité limité pour une majorité d’utilisateurs. Il semble que, de façon contre intuitive, dans la majorité des cas les systèmes de recommandation ouvrent les perspectives des utilisateurs. Cependant, une minorité de personnes est concerné par l’effet de bulle et nous proposons donc un modèle reposant sur les liens entre communautés pour adapter les recommandations afin d’être plus en accord avec leur profil communautaire
With the unprecedented growth of user-generated content produced on microblogging platforms, finding interesting content for a given user has become a major issue. However due to the intrinsic properties of microblogging systems, such as the volumetry, the short lifetime of posts and the sparsity of interactions between users and content, recommender systems cannot rely on traditional methods, such as collaborative filtering matrix factorization. After a thorough study of a large Twitter dataset, we present a propagation model which relies on homophily to propose post recommendations. Our approach relies on the construction of a similarity graph based on retweet behaviors on top of the Twitter graph. We then conduct experiments on our real dataset to demonstrate the quality and scalability of our method. Finally, we investigate community detection algorithms and we present a metric to compute the strength of the filter bubble. Our results show that filter bubble effects are in fact limited for a majority of users. We find that, counter-intuitively, in most cases recommender systems tend to open users perspectives. However, for some specific users, the bubble effect is noticeable and we propose a model relying on communities to provide a list of recommendations closer to the user’s usage of the platform
APA, Harvard, Vancouver, ISO, and other styles
20

Fomba, Soumana. "Décision multicritère : un système de recommandation pour le choix de l'opérateur d'agrégation." Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10009/document.

Full text
Abstract:
Les systèmes de recommandation sont de plus en plus populaires. Les travaux issus de cette thèse se situent dans le domaine de l’Aide à la Décision Multi-Critère (MultiCriteria Decision Analysis MCDA). Dans le domaine du MCDA, il existe de nombreuses méthodes d’agrégation. Cette diversité des méthodes d'agrégation et des situations décisionnelles fait qu'il n'existe pas de super méthode applicable dans toutes les situations décisionnelles. La question est alors de savoir comment choisir un opérateur d'agrégation approprié face à un problème de décision donné ? Nous essayons dans cette thèse d'avoir des éléments de réponse à cette question, d’une part en étudiant les systèmes d’aide à la décision, d’autre part en analysant différents opérateurs d’agrégation présents dans la littérature. Ce qui nous a permis de mettre en place un système de recommandation mettant en œuvre plusieurs opérateurs d’agrégation. Lors d’une procédure d’agrégation, l’utilisateur a la possibilité de choisir un opérateur d’agrégation parmi les opérateurs disponibles. Il peut aussi se laisser proposer un opérateur d’agrégation par le système. L’opérateur d’agrégation le plus approprié au problème de décision du décideur est choisi selon plusieurs paramètres
Recommendation systems are becoming more popular. This PhD focusses on MultiCriteriaDecision Analysis (MCDA). For MCDA, it exists multiplication lot of aggregation methods. This diversity of aggregation methods and decision-making situations means that there is no super method applicable in all decision-making situations. The question then is how to choose an appropriate aggregation operator for a given decision problem? In this thesis, we try to have some answers to this question, on the one hand by studying the decision support systems, on the other hand by analyzing different aggregation operators present in the literature. This allowed us to set up a recommendation system implementing several aggregation operators. During an aggregation procedure, the user has the possibility of choosing an aggregation operator from among the available operators. It can also be offered an aggregation operator by the system. The aggregation operator most appropriate to the decision-maker's decision problem is chosen according to several parameters
APA, Harvard, Vancouver, ISO, and other styles
21

Ngo, Ba Hung. "Système de fichiers sémantique basé sur le contexte." Evry, Institut national des télécommunications, 2009. http://www.theses.fr/2009TELE0008.

Full text
Abstract:
Retrouver facilement et a posteriori des informations personnelles (fichiers, pages de Web, photos, courriels) est, de nos jours, indispensable pour l'ensemble des utilisateurs de bureaux informatiques. Malheureusement, les utilisateurs ne disposent pas de méthode unifié pour retrouver ces informations en provenance de multiples sources. Ils doivent jongler entre navigation dans une arborescence de fichiers traditionnelle et recherche à travers des moteurs d'indexation et de recherche sur le bureau informatique. En complément, les systèmes d'étiquetage sont de plus en plus utilisés pour faciliter la recherche de ressources sur Internet. Parmi les caractéristiques de fichiers personnels (propriétés, contenu, contexte) exploitées par les modèles de recherche de fichiers personnels, les contextes de travail des utilisateurs sont une caractéristique pertinente pour aider un utilisateur à retrouver ses fichiers personnels avec succès. Cette thèse propose un modèle de recherche de fichiers personnels, intitulé recherche de fichiers personnels par contexte, pour un système de fichiers sémantique. Un contexte est un ensemble d'étiquettes que l'utilisateur associe au fichier. Pour retrouver un fichier personnel, un utilisateur décrit le contexte de travail, qu'il pense lié au fichier. Le système calcule les contextes existants les plus proches de la requête et fournit une réponse qui peut être raffinée par navigation. Nous développons notre modèle en améliorant le modèle d'étiquetage traditionnel. À partir d'une relation entre étiquettes et de la popularité des étiquettes, nous proposons des algorithmes permettant d'organiser les étiquettes créées par un utilisateur dans un graphe orienté acyclique (DAGoT- Directed Acyclic Graph of Tags en anglais). Ce DAGoT est utilisé comme modèle de données de base pour mettre en œuvre le modèle de recherche de fichiers personnels par contexte. Ce graphe est utilisé par nos algorithmes pour reconnaître les contextes de travail associés aux fichiers personnels, guider l'utilisateur pour reconstruire un contexte de travail et raffiner les requêtes de recherche de fichiers personnels, retrouver de fichiers personnels par contexte
Organizing the information that we call personal files such as files in a home directory, web pages found on the Internet, images, emails for later revisiting is currently required by many computer users. Several information retrieval models are proposed to fullfil this requirement. Each model is characterized by the types of personal files, their organization and the searching method used. Traditional file systems let a user organize his files into a directory tree and retrieve them later by browsing the directory tree. Desktop seach tools such as Google Desktop or Beagle automatically index file properties and file content (keywords) to provide the user with file retrieval by querying on file properties or on file content. Semantic file systems propose a searching method that combines querying with browsing to give to the users the advantages of both searching methods. For informations on the Internet, tagging systems are more and more used to facilitate the re-finding of these Internet ressources. Among personal file characteristics (properties, content, context) exploited by the above retrieval models, the working context of the user has been proved to be relevant to help a user to successfully retrieve his personal files. This work proposes a model for personal file retrieval, called « context-based model for personal file retrieval ». Our model allows a user to associate his personal files with a working context using tags. To retrieve a personal file, the user must describe the working context corresponding to each file. The searching method in our model gives to the users the advantages of both searching methods: browsing and querying. We develop our model by improving traditional tagging models. Based on tag relationships and popularities, we organize tags created by a user into a directed acyclic graph (DAGoT). This DAGoT is used as the basic data model to realize our context-based model for personal file retrieval. We use this graph to recognize working contexts associated to personal files, guide a user to reconstruct his working contexts, refine the searching requests, and retrieve personal files by context
APA, Harvard, Vancouver, ISO, and other styles
22

Belliard, Serge. "Bases neuroanatomiques du système sémantique spécifique aux personnes." Aix-Marseille 2, 2005. http://www.theses.fr/2005AIX20654.

Full text
Abstract:
Nous rapportons les performances de 27 déments sémantiques présentant des lésions temporales antérieures bilatérales asymétriques et de 20 cortectomisés temporaux (lésions temporales antérieures unilatérales), à la reconnaissance et l'identification de visages et de noms célèbres. Nous proposons le schéma suivant: l'identification des personnes s'effectue grâce à des zones de convergence (NIPs) bilatérales situées au niveau de la partie médiane des lobes temporaux antérieurs, qui ont accès à l'ensemble des informations sémantiques stockées au niveau des cortex ayant permis leur acquisition. Les NIPs droits ont un accès privilégié aux informations morphologiques et partagées, les NIPs gauches aux informations biographiques spécifiques. Les NIPs droits sont abordés par les visages et les noms, les NIPs gauches uniquement par les noms. L'absence de reconnaissance implicite chez les déments sémantiques conduit à penser qu'il n'existe pas de voie parallèle d'identification implicite
27 patients with semantic dementia (with bilateral but asymmetric anterior temporal lesions) and 20 patients with unilateral temporal excision for intractable epilepsy recognised then identified famous faces and names. From the results of these experiments, we consider that person identification requires bilateral convergence zones (PINs) which lie on medial part of anterior temporal lobes. Each PIN bind together all semantic features which are stored in secondary cortices but have a preferential access to semantic features stored in homolateral hemisphere. Thus, right PINs have a preferential access to structural and shared biographical features, left PINs to specific biographical features. Right PINs are reached by faces and names, but left PINs only by names. Patients with semantic dementia do not show any sign of cognitive or emotional implicit recognition. This lead us to consider that implicit and explicit recognition occur from the same occipito-temporal identification network
APA, Harvard, Vancouver, ISO, and other styles
23

Meyer, Frank. "Systèmes de recommandation dans des contextes industriels." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00767159.

Full text
Abstract:
Cette thèse traite des systèmes de recommandation automatiques. Les moteurs de recommandation automatique sont des systèmes qui permettent, par des techniques de data mining, de recommander automatiquement à des clients, en fonction de leurs consommations passées, des produits susceptibles de les intéresser. Ces systèmes permettent par exemple d'augmenter les ventes sur des sites web marchands : le site Amazon a une stratégie marketing en grande partie basée sur la recommandation automatique. Amazon a popularisé l'usage de la recommandation automatique par la célèbre fonction de recommandation que nous qualifions d'item-to-items, le fameux : " les personnes qui ont vu/acheté cet articles ont aussi vu/acheté ces articles. La contribution centrale de cette thèse est d'analyser les systèmes de recommandation automatiques dans le contexte industriel, et notamment des besoins marketing, et de croiser cette analyse avec les travaux académiques.
APA, Harvard, Vancouver, ISO, and other styles
24

Frainay, Clément. "Système de recommandation basé sur les réseaux pour l'interprétation de résultats de métabolomique." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30297/document.

Full text
Abstract:
La métabolomique permet une étude à large échelle du profil métabolique d'un individu, représentatif de son état physiologique. La comparaison de ces profils conduit à l'identification de métabolites caractéristiques d'une condition donnée. La métabolomique présente un potentiel considérable pour le diagnostic, mais également pour la compréhension des mécanismes associés aux maladies et l'identification de cibles thérapeutiques. Cependant, ces dernières applications nécessitent d'inclure ces métabolites caractéristiques dans un contexte plus large, décrivant l'ensemble des connaissances relatives au métabolisme, afin de formuler des hypothèses sur les mécanismes impliqués. Cette mise en contexte peut être réalisée à l'aide des réseaux métaboliques, qui modélisent l'ensemble des transformations biochimiques opérables par un organisme. L'une des limites de cette approche est que la métabolomique ne permet pas à ce jour de mesurer l'ensemble des métabolites, et ainsi d'offrir une vue complète du métabolome. De plus, dans le contexte plus spécifique de la santé humaine, la métabolomique est usuellement appliquée à des échantillons provenant de biofluides plutôt que des tissus, ce qui n'offre pas une observation directe des mécanismes physiologiques eux-mêmes, mais plutôt de leur résultante. Les travaux présentés dans cette thèse proposent une méthode pour pallier ces limitations, en suggérant des métabolites pertinents pouvant aider à la reconstruction de scénarios mécanistiques. Cette méthode est inspirée des systèmes de recommandations utilisés dans le cadre d'activités en ligne, notamment la suggestion d'individus d'intérêt sur les réseaux sociaux numériques. La méthode a été appliquée à la signature métabolique de patients atteints d'encéphalopathie hépatique. Elle a permis de mettre en avant des métabolites pertinents dont le lien avec la maladie est appuyé par la littérature scientifique, et a conduit à une meilleure compréhension des mécanismes sous-jacents et à la proposition de scénarios alternatifs. Elle a également orienté l'analyse approfondie des données brutes de métabolomique et enrichie par ce biais la signature de la maladie initialement obtenue. La caractérisation des modèles et des données ainsi que les développements techniques nécessaires à la création de la méthode ont également conduit à la définition d'un cadre méthodologique générique pour l'analyse topologique des réseaux métaboliques
Metabolomics allows large-scale studies of the metabolic profile of an individual, which is representative of its physiological state. Metabolic markers characterising a given condition can be obtained through the comparison of those profiles. Therefore, metabolomics reveals a great potential for the diagnosis as well as the comprehension of mechanisms behind metabolic dysregulations, and to a certain extent the identification of therapeutic targets. However, in order to raise new hypotheses, those applications need to put metabolomics results in the light of global metabolism knowledge. This contextualisation of the results can rely on metabolic networks, which gather all biochemical transformations that can be performed by an organism. The major bottleneck preventing this interpretation stems from the fact that, currently, no single metabolomic approach allows monitoring all metabolites, thus leading to a partial representation of the metabolome. Furthermore, in the context of human health related experiments, metabolomics is usually performed on bio-fluid samples. Consequently, those approaches focus on the footprints left by impacted mechanisms rather than the mechanisms themselves. This thesis proposes a new approach to overcome those limitations, through the suggestion of relevant metabolites, which could fill the gaps in a metabolomics signature. This method is inspired by recommender systems used for several on-line activities, and more specifically the recommendation of users to follow on social networks. This approach has been used for the interpretation of the metabolic signature of the hepatic encephalopathy. It allows highlighting some relevant metabolites, closely related to the disease according to the literature, and led to a better comprehension of the impaired mechanisms and as a result the proposition of new hypothetical scenario. It also improved and enriched the original signature by guiding deeper investigation of the raw data, leading to the addition of missed compounds. Models and data characterisation, alongside technical developments presented in this thesis, can also offer generic frameworks and guidelines for metabolic networks topological analysis
APA, Harvard, Vancouver, ISO, and other styles
25

Jelassi, Mohamed Nidhal. "Un système personnalisé de recommandation à partir de concepts quadratiques dans les folksonomies." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22693/document.

Full text
Abstract:
Les systèmes de recommandation ont acquis une certaine popularité parmi les chercheurs, où de nombreuses approches ont été proposées dans la littérature. Les utilisateurs des folksonomies partagent des items (e.g., livres, films, sites web, etc.) en les annotant avec des tags librement choisis. Avec l'essor du Web 2.0, les utilisateurs sont devenus les principaux acteurs du système étant donné qu'ils sont à la fois les contributeurs et créateurs de l'information. Ainsi, il est important de répondre à leurs besoins en leur proposant une recommandation plus ciblée. Pour ce faire, nous considérons une nouvelle dimension dans une folksonomie classiquement composée de trois dimensions et nous proposons une approche afin de regrouper les utilisateurs ayant des intérêts proches à travers des structures appelées concepts quadratiques. Ensuite, nous utilisons ces structures afin de proposer un nouveau système personnalisé de recommandation. Nous évaluons nos approches sur divers jeux de données du monde réel. Ces expérimentations ont démontré de bons résultats en termes de précision et de rappel ainsi qu'une bonne évaluation sociale. De plus, nous étudions quelques unes des métriques utilisées pour évaluer le systèmes de recommandations, comme la couverture, la diversité, l'adaptivité, la sérendipité ou encore la scalabilité. Par ailleurs, nous menons une étude de cas sur quelques utilisateurs comme complément à notre évaluation afin d'avoir l'avis des utilisateurs sur notre système. Enfin, nous proposons un nouvel algorithme qui permet de mettre à jour un ensemble de concepts triadiques sans avoir à re-scanner l'entière folksonomie. Les premiers résultats comparant les performances de notre proposition par rapport au redémarrage du processus d'extraction des concepts triadiques sur quatre jeux de données du monde réel a démontré son efficacité
Recommender systems are now popular both commercially as well as within the research community, where many approaches have been suggested for providing recommendations. Folksonomies' users are sharing items (e.g., movies, books, bookmarks, etc.) by annotating them with freely chosen tags. Within the Web 2.0 age, users become the core of the system since they are both the contributors and the creators of the information. In this respect, it is of paramount importance to match their needs for providing a more targeted recommendation. For such purpose, we consider a new dimension in a folksonomy classically composed of three dimensions and propose an approach to group users with close interests through quadratic concepts. Then, we use such structures in order to propose our personalized recommendation system of users, tags and resources. We carried out extensive experiments on two real-life datasets, i.e., MovieLens and BookCrossing which highlight good results in terms of precision and recall as well as a promising social evaluation. Moreover, we study some of the key assessment metrics namely coverage, diversity, adaptivity, serendipity and scalability. In addition, we conduct a user study as a valuable complement to our evaluation in order to get further insights. Finally, we propose a new algorithm that aims to maintain a set of triadic concepts without the re-scan of the whole folksonomy. The first results comparing the performances of our proposition andthe running from scratch the whole process over four real-life datasets show its efficiency
APA, Harvard, Vancouver, ISO, and other styles
26

Alchiekh, Haydar Charif. "Les systèmes de recommandation à base de confiance." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0203/document.

Full text
Abstract:
La divergence comportementale des utilisateurs sur le web résulte un problème de fluctuation de performance chez les systèmes de recommandation (SR) qui exploitent ce comportement pour recommander aux utilisateurs des items qu’ils vont apprécier. Ce problème est observé dans l’approche de filtrage collaboratif (FC) qui exploite les notes attribuées par les utilisateurs aux items, et l’approche à base de confiance (SRC) qui exploite les notes de confiance que les utilisateurs attribuent l’un à l’autre. Nous proposons une approche hybride qui augmente le nombre d'utilisateurs bénéficiant de la recommandation, sans perte significative de précision. Par la suite, nous identifions plusieurs caractéristiques comportementales qui permettent de constituer un profil comportemental de l’utilisateur. Ce qui nous permet de classifier les utilisateurs selon leur comportement commun, et d’observer la performance de chaque approche par classe. Par la suite, nous focalisons sur les SRC. Le concept de confiance a été abordé dans plusieurs disciplines. Il n'existe pas véritablement de consensus sur sa définition. Cependant, toutes s'accordent sur son effet positif. La logique subjective (LS) fournit une plateforme flexible pour modéliser la confiance. Nous l’utilisons pour proposer et comparer trois modèles de confiance, dont l’objectif est de prédire à un utilisateur source s’il peut faire confiance à un utilisateur cible. La recommandation peut s’appuyer sur l’expérience personnelle de la source (modèle local), un système de bouche à oreille (modèle collectif), ou encore la réputation du cible (modèle global). Nous comparons ces trois modèles aux termes de la précision, la complexité, et la robustesse face aux attaques malicieuses
Recommender systems (RS) exploit users' behaviour to recommend to them items they would appreciate. Users Behavioral divergence on the web results in a problem of performance fluctuations to (RS). This problem is observed in the approach of collaborative filtering (CF), which exploites the ratings attributed by users to items, and in the trust-based approach (TRS), which exploites the trust relations between the users. We propose a hybrid approach that increases the number of users receiving recommendation, without significant loss of accuracy. Thereafter, we identify several behavioral characteristics that define a user profile. Then we classify users according to their common behavior, and observe the performance of the approaches by class. Thereafter, we focus on the TRS. The concept of trust has been discussed in several disciplines. There is no real consensus on its definition. However, all agree on its positive effect. Subjective logic (LS) provides a flexible platform for modeling trust. We use it to propose and compare three trust models, which aims to predict whether a user source can trust a target user. Trust may be based on the personal experience of the source (local model), or on a system of mouth (collective model), or the reputation of the target (global model). We compare these three models in terms of accuracy, complexity, and robustness against malicious attacks
APA, Harvard, Vancouver, ISO, and other styles
27

Bracops, Martine. "Le système de CAR: étude grammaticale, sémantique et pragmatique." Doctoral thesis, Universite Libre de Bruxelles, 1995. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212501.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Fedele, Carine. "Construction automatisée des compilateurs : le système CIGALE." Nice, 1991. http://www.theses.fr/1991NICE4469.

Full text
Abstract:
La méta-compilation est un sujet depuis longtemps exploré et les idées sont nombreuses. Mais les résultats obtenus ne sont pas encore satisfaisants. Il faut tout d'abord faire la différence entre les méta-compilateurs de langages expérimentaux et ceux de langages d'implémentation. Dans le premier cas, les performances des compilateurs générés ne sont pas importantes, et ces systèmes sont le plus souvent utilisés par des personnes qui ne souhaitent pas s'intéresser à la compilation. Dans le second cas, obtenir un compilateur peu rapide et produisant du code inefficace serait catastrophique. En effet, tous les logiciels reposant sur ce langage d'implémentation auraient des performances inacceptables, par exemple dans le monde industriel. Au contraire les utilisateurs du méta-compilateur sont compétents en compilation et souhaitent seulement que leur tâche soit facilitée. Peu de travaux existent dans ce dernier cas et c'est une lacune. Le système CIGALE est un système d'écriture de compilateurs basé sur le formalisme bien connu des grammaires attribuées. A partir d'une description syntactico-sémantique du langage (l'aspect lexical est implicite), CIGALE génère un compilateur pour ce langage produisant du code EM. Ce code EM est ensuite traité par les différentes phases d'ACK jusqu'à obtention de code efficace pour une machine réelle donnée. La description de la syntaxe du langage se fait grâce à une notation proche de la BNF ; celle de la sémantique est donnée grâce à l'utilisation d'un type abstrait. Ce type abstrait n'est pas figé et l'utilisateur fournira des outils pour les aspects non prévus
Compiler-compilers are a well-known subject and many ideas have been explored. However, results are note entirely satisfactory. First, one should distinguish between compiler-compilers for experimental languages and those for implementation languages. In the first case, the efficiency of the generated compiler sis not important, and these systems are generally used bu people who do not wish to invest in compiler practice. In the second case, a resulting compiler which would be slow and generate inefficient code would be useless: all software products built using this implementation language would have unbearable performances, especially in the software world. On the contrary, users such a compiler-compiler are compiling practitioners and only ask for help in their task. Not much work is done in this last case and it is a pity. For an already long time, a theory of scanning an parsing has been developed. Today, automatically building a lexico-syntactic analyzer is easy. That is not the case for the other parts of the compiling process: contextual analysis and code generation. No « universal » theory is currently accepted by all scientists. The CIGALE system is a compiler writing system based on the well-known formalism of attribute grammars. From a description of the syntax and semantics of the language (the lexical aspect is implicit). CIGALE produces a compiler for this language generating EM code. This code is then processed by the ACK components until this language code is generated for a given actual machine. The language syntax is describing using a notation similar to BNF. The language semantics is described by the use of an abstract data type. This type is not frozen and the user can provide next tools for handling unforeseen language features. The thesis begins with the survey of nine formal semantic notations and of twenty compiler-compilers. The CIGALE system is then thoroughly xplained. The abstract data type for contextual analysis and dynamic semantics is then fully specified, and its use is demonstrated on a real size example. The thesis ends with the description of a higher-level notation deduced from this abstract data type
APA, Harvard, Vancouver, ISO, and other styles
29

Tadlaoui, Mohammed. "Système de recommandation de ressources pédagogiques fondé sur les liens sociaux : Formalisation et évaluation." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI053/document.

Full text
Abstract:
Avec la quantité croissante du contenu pédagogique produit chaque jour par les utilisateurs, il devient très difficile pour les apprenants de trouver les ressources les plus adaptées à leurs besoins. Les systèmes de recommandation sont utilisés dans les plateformes éducatives pour résoudre le problème de surcharge d'information. Ils sont conçus pour fournir des ressources pertinentes à un apprenant en utilisant certaines informations sur les utilisateurs et les ressources. Le présent travail s'inscrit dans le contexte des systèmes de recommandation des ressources pédagogiques, en particulier les systèmes qui utilisent des informations sociales. Nous avons défini une approche de recommandation de ressources éducatives en se basant sur les résultats de recherche dans le domaine des systèmes de recommandation, des réseaux sociaux et des environnements informatiques pour l’apprentissage humain. Nous nous appuyons sur les relations sociales entre apprenants pour améliorer la précision des recommandations. Notre proposition est basée sur des modèles formels qui calculent la similarité entre les utilisateurs d'un environnement d'apprentissage pour générer trois types de recommandation, à savoir la recommandation des 1) ressources populaires, 2) ressources utiles et 3) ressources récemment consultées. Nous avons développé une plateforme d'apprentissage, appelée Icraa, qui intègre nos modèles de recommandation. La plateforme Icraa est un environnement d’apprentissage social qui permet aux apprenants de télécharger, de visualiser et d’évaluer les ressources éducatives. Dans cette thèse, nous présentons les résultats d'une expérimentation menée pendant deux ans qui a impliqué un groupe de 372 apprenants d'Icraa dans un contexte éducatif réel. L'objectif de cette expérimentation est de mesurer la pertinence, la qualité et l'utilité des ressources recommandées. Cette étude nous a permis d'analyser les retours des utilisateurs concernant les trois types de recommandations. Cette analyse a été basée sur les traces des utilisateurs enregistrées avec Icraa et sur un questionnaire. Nous avons également effectué une analyse hors ligne en utilisant un jeu de données afin de comparer notre approche avec quatre algorithmes de référence
With the increasing amount of educational content produced daily by users, it becomes very difficult for learners to find the resources that are best suited to their needs. Recommendation systems are used in educational platforms to solve the problem of information overload. They are designed to provide relevant resources to a learner using some information about users and resources. The present work fits in the context of recommender systems for educational resources, especially systems that use social information. We have defined an educational resource recommendation approach based on research findings in the area of recommender systems, social networks, and Technology-Enhanced Learning. We rely on social relations between learners to improve the accuracy of recommendations. Our proposal is based on formal models that calculate the similarity between users of a learning environment to generate three types of recommendation, namely the recommendation of 1) popular resources; 2) useful resources; and 3) resources recently consulted. We have developed a learning platform, called Icraa, which integrates our recommendation models. The Icraa platform is a social learning environment that allows learners to download, view and evaluate educational resources. In this thesis, we present the results of an experiment conducted for almost two years on a group of 372 learners of Icraa in a real educational context. The objective of this experiment is to measure the relevance, quality and usefulness of the recommended resources. This study allowed us to analyze the user’s feedback on the three types of recommendations. This analysis is based on the users’ traces which was saved with Icraa and on a questionnaire. We have also performed an offline analysis using a dataset to compare our approach with four base line algorithms
APA, Harvard, Vancouver, ISO, and other styles
30

Telechea, Pascal. "Contrôle de concurrence sémantique dans un système multibase de données." Toulouse 3, 1997. http://www.theses.fr/1997TOU30022.

Full text
Abstract:
Actuellement, les organisations sont confrontees aux problemes engendres par des donnees reparties dans un environnement materiel et logiciel heterogene. Un systeme multibase de donnees vise a repondre a ces problemes en proposant un acces uniforme a ces donnees gerees par des systemes de gestion de bases de donnees (sgbd) autonomes. Cette autonomie des sgbd garantie la perennite des applications preexistantes mais constitue le probleme majeur de l'integration de ces sgbd dans un environnement multibase. Elle a notamment des repercussions au niveau de la gestion des transactions et de l'interblocage qui sont les points abordes dans ce document. Nous proposons un systeme multibase de donnees qui integre la semantique des applications tout en preservant les autonomies locales. La semantique permet de definir les conflits directement entre les operations des applications, ce qui favorise les liberations anticipees de certaines ressources locales. Les possibilites d'evolutions paralleles des transactions sont ainsi augmentees. Cette meilleure definition des conflits a aussi des repercussions positives sur la gestion de l'interblocage dans un environnement multibase
APA, Harvard, Vancouver, ISO, and other styles
31

Picot-Clémente, Romain. "Une architecture générique de Systèmes de recommandation de combinaison d'items : application au domaine du tourisme." Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00688994.

Full text
Abstract:
Cette thèse apporte une généralisation du principe de recommandation des systèmes de recommandation. Au lieu de considérer une recommandation comme un item, elle est considérée comme une combinaison constituée de plusieurs items suivant un pattern donné. Une recommandation d'un seul item est alors un cas particulier de ce type de recommandation. L'architecture de système de recommandation proposé se base sur une architecture dérivée des travaux en systèmes hypermédia adaptatifs. Trois couches sont définies : une couche sémantique, une couche utilisateur et une couche intelligence. La couche sémantique est constituée de deux sous-couches, une sous-couche modélisant le contenu suivant la connaissance générale du domaine et une sous-couche modélisant le contenu suivant la connaissance spécifique à l'application, plus précisément spécifique aux possibles contraintes des utilisateurs dans l'application. Cette deuxième partie permet de prendre en compte le savoir-faire du fournisseur de l'offre dans les propositions du système de recommandation. La couche utilisateur modélise l'utilisateur au sein du système de recommandation et la couche intelligence contient le processus de recommandation. Nous proposons de décomposer ce dernier en deux sous-processus principaux, un processus dit de projection des individus du domaine sur les profils utilisateurs et un processus de recherche combinatoire. Le premier apporte une pondération, appelée note dans la plupart des systèmes de recommandation, donnant les intérêts probables des utilisateurs pour les différents items. Le processus de recherche combinatoire recherche parmi la multitude de combinaisons possibles, une solution convenable (optimale si possible) à proposer à l'utilisateur. Cette architecture de système de recommandation combinatoire est appliquée au domaine touristique pour l'entreprise Côte-d'Or Tourisme impliquée dans le contrat de recherche. Le but de cette application est de proposer à l'utilisateur un ensemble d'offres touristiques sous forme de séjour. Ce problème touristique amène à la définition formelle d'un problème d'optimisation combinatoire qui est une variante d'un sous-problème du problème de sac à dos. Pour résoudre ce genre de problème, il est nécessaire d'utiliser une métaheuristique afin de tendre vers une bonne solution en un temps raisonnable. Nous présentons un algorithme basé sur le recuit simulé et un algorithme multi-objectif pour la résolution de ce problème. L'instanciation de chaque couche de l'architecture pour le système touristique est décrite en détail. Enfin, cette thèse présente une application mobile faisant office d'interface utilisateur avec le système de recommandation touristique et elle présente les développements techniques nécessaires à ce projet, étant donné son contexte industriel.
APA, Harvard, Vancouver, ISO, and other styles
32

You, Wei. "Un système à l'approche basée sur le contenu pour la recommandation personnalisée d'articles de recherche." Compiègne, 2011. http://www.theses.fr/2011COMP1922.

Full text
Abstract:
La recommandation personnalisée d'article de recherche filtre les publications selon les centres d'intérêt spécifiques en recherche des utilisateurs, et, bien menée, pourrait considérablement alléger le problème de la surcharge d'informations. Le filtrage basé sur le contenu est une solution prometteuse pour cette tâche parce qu'elle exploite efficacement la nature textuelle des articles de recherche. En général, la recommandation d'articles de recherche basée sur le contenu pose trois questions essentielles : la représentation des articles candidats, la construction du profil utilisateur, et la conception d'un modèle qui permette de comparer la représentation du contenu des articles candidats avec la représentation des intérêts de l'utilisateur cible. Dans cette thèse, nous développons tout d'abord une technique d'extraction automatique d'expressions-clés pour représenter les articles scientifiques. Cette technique améliore les approches existantes en utilisant une localisation plus précise des expressions-clés potentielles et une nouvelle stratégie pour éliminer le chevauchement dans la liste de sortie. Cette technique est un acteur majeur du système : en effet, non seulement elle fournit une représentation de l'article candidat, mais elle est également réutilisée pour la construction de l'ontologie de domaine, et pour l'analyse des articles appartenant à l'histoire des utilisateurs. Ensuite, pour la construction du profil utilisateur, nous proposons une nouvelle approche basée sur les ontologies. Le profil ontologique de l'utilisateur peut être décrit comme suit : tous les utilisateurs partagent une ontologie de domaine commune qui représente la base de connaissances des utilisateurs. Pour chaque utilisateur, nous créons alors une instance personnelle de l'ontologie étendue pour représenter ses besoins spécifiques. Cette instance personnelle contient tous les concepts intéressants pour l'utilisateur, et chaque concept est annoté par un score d'intérêt qui reflète le degré d'intérêt de l'utilisateur pour ce concept. On distingue les chercheurs chevronnés et les jeunes chercheurs en dérivant leurs intérêts en recherche individuelle à partir des différents ensembles de leur histoire. Nous utilisons également la structure des ontologies et appliquons l'algorithme de propagation nommé "spreading activation" pour déduire les intérêts possibles de l'utilisateur. Finalement, nous explorons un nouveau modèle pour produire des recommandations en recourant à la théorie Dempster-Shafer. On observe que quand un chercheur veut décider si oui ou non un article de recherche l'intéresse, il peut considérer le texte de l'article comme une suite d'expressions. Les expressions relatives à ses centres d'intérêt en recherche encouragent une lecture poussée de l'article, tandis que les expressions relevant de sujets qui ne l'intéressent pas diminuent son intérêt pour l'article. Notre modèle simule ce processus d'évaluation. Du point de vue de la théorie de croyance, les termes clés extraits à partir d'un article candidat peuvent être considérés comme des sources de croyance. A ces parts de croyance, notre modèle associe des degrés d'intérêt de l'utilisateur. Dés lors, comme ces croyances s'accumulent et se renforcent, une inclination prend forme et devient graduellement plus nette. Différentes d'autres mesures basées sur la similarité entre la représentation des articles candidats et les profils utilisateur, nos recommandations, produites en combinant toutes les parts de croyance, peuvent directement mesurer à quel point l'utilisateur pourrait être intéressé par l'article candidat. Les résultats expérimentaux montrent que le système que nous avons développé surpasse la plupart des approches actuelles. De plus, la méthode proposée est suffisamment générique pour permettre la résolution d'autres tâches de recommandation
Personalized research paper recommendation filters the publications according to the specific research interests of users, which could significantly alleviate the information overload problem. Content-based filtering is a promising solution for this task because it can effectively exploit the textual-nature of research papers. A content-based recommender system usually concerns three essential issues: item representation, user profiling, and a model that provides recommendations by comparing candidate item's content representation with the target user's interest representation. In this dissertation, we first propose an automatic keyphrase extraction technique for scientific documents, which improves the existing approaches by using a more precise location for potential keyphrases and a new strategy for eliminating the overlap in the output list. This technique helps to implement the representation of candidate papers and the analysis of users' history papers. Then for modeling the users' information needs, we present a new ontology-based approach. The basic idea is that each user is represented as an instance of a domain ontology in which concepts are assigned interest scores reflecting users' degree of interest. We distinguish senior researchers and junior researchers by deriving their individual research interests from different history paper sets. We also takes advantage of the structure of the ontology and apply spreading activation model to reason about the interests of users. Finally, we explore a novel model to generate recommendations by resorting to the Dempster-Shafer theory. Keyphrases extracted from the candidate paper are considered as sources of evidence. Each of them are linked to different levels of user interest and the strength of each link is quantified. Different from other similarity measures between user profiles and candidate papers, our recommendation result produced by combining all evidence is able to directly indicate the possibility that a user might be interested in the candidate paper. Experimental results show that the system we developed for personalized research paper recommendation outperforms other state-of-the-art approaches. The proposed method can be used as a generic way for addressing different types of recommendation problems
APA, Harvard, Vancouver, ISO, and other styles
33

Stan, Johann. "Un cadre de développement sémantique pour la recherche sociale." Phd thesis, Université Jean Monnet - Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00708781.

Full text
Abstract:
Cette thèse présente un système permettant d'extraire les interactions partagées dans les réseaux sociaux et de construire un profil dynamique d'expertise pour chaque membre dudit réseau social. La difficulté principale dans cette partie est l'analyse de ces interactions, souvent très courtes et avec peu de structure grammaticale et linguistique. L'approche que nous avons mis en place propose de relier les termes importants de ces messages à des concepts dans une base de connaissance sémantique, type Linked Data. Cette connexion permet en effet d'enrichir le champ sémantique des messages en exploitant le voisinage sémantique du concept dans la base de connaissances. Notre première contribution dans ce contexte est un algorithme qui permet d'effectuer cette liaison avec une précision plus augmentée par rapport à l'état de l'art, en considérant le profil de l'utilisateur ainsi que les messages partagés dans la communauté dont il est membre comme source supplémentaire de contexte. La deuxième étape de l'analyse consiste à effectuer l'expansion sémantique du concept en exploitant les liens dans la base de connaissance. Notre algorithme utilise une heuristique basant sur le calcul de similarité entre les descriptions des concepts pour ne garder que ceux les plus pertinents par rapport au profil de l'utilisateur. Les deux algorithmes mentionnés précédemment permettent d'avoir un ensemble de concepts qui illustrent les centres d'expertise de l'utilisateur. Afin de mesurer le degré d'expertise de l'utilisateur qui s'applique sur chaque concept dans son profil, nous appliquons la méthode-standard vectoriel et associons à chaque concept une mesure composée de trois éléments : (i) le tf-idf, (ii) le sentiment moyen que l'utilisateur exprime par rapport au dit concept et (iii) l'entropie moyen des messages partagés contenant ledit concept. L'ensemble des trois mesures combinées permet d'avoir un poids unique associé à chaque concept du profil. Ce modèle de profil vectoriel permet de trouver les " top-k " profils les plus pertinents par rapport à une requête. Afin de propager ces poids sur les concepts dans l'expansion sémantique, nous avons appliqué un algorithme de type propagation sous contrainte (Constrained Spreading Activation), spécialement adapté à la structure d'un graphe sémantique. L'application réalisée pour prouver l'efficacité de notre approche, ainsi que d'illustrer la stratégie de recommandation est un système disponible en ligne, nommé " The Tagging Beak " (http://www.tbeak.com). Nous avons en effet développé une stratégie de recommandation type Q&A (question - réponse), où les utilisateurs peuvent poser des questions en langage naturel et le système recommande des personnes à contacter ou à qui se connecter pour être notifié de nouveaux messages pertinents par rapport au sujet de la question.
APA, Harvard, Vancouver, ISO, and other styles
34

Draidi, Fady. "Recommandation Pair-à-Pair pour Communautés en Ligne à Grande Echelle." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00766963.

Full text
Abstract:
Les systèmes de recommandation (RS) et le pair-à-pair (P2) sont complémen-taires pour faciliter le partage de données à grande échelle: RS pour filtrer et person-naliser les requêtes des utilisateurs, et P2P pour construire des systèmes de partage de données décentralisés à grande échelle. Cependant, il reste beaucoup de difficultés pour construire des RS efficaces dans une infrastructure P2P. Dans cette thèse, nous considérons des communautés en ligne à grande échelle, où les utilisateurs notent les contenus qu'ils explorent et gardent dans leur espace de travail local les contenus de qualité pour leurs sujets d'intérêt. Notre objectif est de construire un P2P-RS efficace pour ce contexte. Nous exploitons les sujets d'intérêt des utilisateurs (extraits automatiquement des contenus et de leurs notes) et les don-nées sociales (amitié et confiance) afin de construire et maintenir un overlay P2P so-cial. La thèse traite de plusieurs problèmes. D'abord, nous nous concentrons sur la conception d'un P2P-RS qui passe à l'échelle, appelé P2Prec, en combinant les ap-proches de recommandation par filtrage collaboratif et par filtrage basé sur le contenu. Nous proposons alors de construire et maintenir un overlay P2P dynamique grâce à des protocoles de gossip. Nos résultats d'expérimentation montrent que P2Prec per-met d'obtenir un bon rappel avec une charge de requêtes et un trafic réseau accep-tables. Ensuite, nous considérons une infrastructure plus complexe afin de construire et maintenir un overlay P2P social, appelé F2Frec, qui exploite les relations sociales entre utilisateurs. Dans cette infrastructure, nous combinons les aspects filtrage par contenu et filtrage basé social, pour obtenir un P2P-RS qui fournit des résultats de qualité et fiables. A l'aide d'une évaluation de performances extensive, nous mon-trons que F2Frec améliore bien le rappel, ainsi que la confiance dans les résultats avec une surcharge acceptable. Enfin, nous décrivons notre prototype de P2P-RS que nous avons implémenté pour valider notre proposition basée sur P2Prec et F2Frec.
APA, Harvard, Vancouver, ISO, and other styles
35

Fechter, Stéphane. "Sémantique des traits orientés objet de Focal." Paris 6, 2005. http://www.theses.fr/2005PA066203.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Rivière, Françoise. "La semeiologie dans le système stoi͏̈cien." Lyon 3, 1990. http://www.theses.fr/1990LYO31012.

Full text
Abstract:
La semeiologie dans le systeme stoicien propose le signe comme cle de lecture de la doctrine du portique. L'etude se fonde presqu'exclusivement sur les temoignages des stoiciens eux-memes, tout particulierement les anciens stoiciens et les stoiciens romains. La theorie du "melange total" oriente l'analyse vers les differents lieux du systeme : la logique, la physique et l'ethique. Le signe apparait comme la manifestation permanente du principe vital dans le monde. Il presente surtout l'interet d'exhiber le lien qui unit les differentes parties du tout, les phenomenes, les evenements, les etres. Mais, bien que son existence soit une donnee de base, son apprehension fait parfois probleme parce qu'il incombe aux hommes d'en faire l'usage qui convient. Or, il arrive que le signe soit sinon conteste dans sa realite, du moins perdu pour ceux qui ne parviennent pas a le saisir. Au terme d'analyses ponctuelles sur les themes de la dialectique propositionnelle, de l'art mantique et de la mort volontaire, le signe finit par s'inscrire dans une perspective eminemment ethique et temoigne pour le stoicisme d'une vision continuiste de l'univers
Semeiology in the stoic system propounds the sign as a key in order to understand the stoic doctrine. The study is almost exclusively founded on statements of stoics themselves, particularly the first stoics and the roman stoics. The "whole mixing theory" directs the analysis towords different "places" of the system : logic, physics and ethics. The sign appears as the permanent manifestation of the vital principle in the world. It especially offers the advantage to produce the bond wich joins the different parts of the whole, phenomenous, events, beings. But its apprehension sometimes does sums although its reality is a data, because it is men's duty to make a correct use of it. Now if the existence of the sign is uncontested, it is sometimes lost for these whocan't succed in seizing it. At the term of punctual analysis about dialectics of propositions about divination and about suicide, the sign comes to ethical perspective and places stoicism in mind of the world as a continuity
APA, Harvard, Vancouver, ISO, and other styles
37

Szilagyi, Ioan. "Technologies sémantiques pour un système actif d’apprentissage." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA1008/document.

Full text
Abstract:
Les méthodes d’apprentissage évoluent et aux modèles classiques d’enseignement viennent s’ajouter de nouveaux paradigmes, dont les systèmes d’information et de communication, notamment le Web, sont une partie essentielle. Afin améliorer la capacité de traitement de l’information de ces systèmes, le Web sémantique définit un modèle de description de ressources (Resource Description Framework – RDF), ainsi qu’un langage pour la définition d’ontologies (Web Ontology Language – OWL). Partant des concepts, des méthodes, des théories d’apprentissage, en suivant une approche systémique, nous avons utilisé les technologies du Web sémantique pour réaliser une plateforme d’apprentissage capable d’enrichir et de personnaliser l’expérience de l’apprenant. Les résultats de nos travaux sont concrétisés dans la proposition d’un prototype pour un Système Actif et Sémantique d’Apprentissage (SASA). Suite à l’identification et la modélisation des entités participant à l’apprentissage, nous avons construit six ontologies, englobant les caractéristiques de ces entités. Elles sont les suivantes : (1) ontologie de l’apprenant, (2) ontologie de l’objet pédagogique, (3) ontologie de l’objectif d’apprentissage, (4) ontologie de l’objet d’évaluation, (5) ontologie de l’objet d’annotation et (6) ontologie du cadre d’enseignement. L’intégration des règles au niveau des ontologies déclarées, cumulée avec les capacités de raisonnement des moteurs d’inférences incorporés au niveau du noyau sémantique du SASA, permettent l’adaptation du contenu d’apprentissage aux particularités des apprenants. L’utilisation des technologies sémantiques facilite l’identification des ressources d’apprentissage existant sur le Web ainsi que l’interprétation et l’agrégation de ces ressources dans le cadre du SASA
Learning methods keep evolving and new paradigms are added to traditional teaching models where the information and communication systems, particularly the Web, are an essential part. In order to improve the processing capacity of information systems, the Semantic Web defines a model for describing resources (Resource Description Framework - RDF), and a language for defining ontologies (Web Ontology Language – OWL). Based on concepts, methods, learning theories, and following a systemic approach, we have used Semantic Web technologies in order to provide a learning system that is able to enrich and personalize the experience of the learner. As a result of our work we are proposing a prototype for an Active Semantic Learning System (SASA). Following the identification and modeling of entities involved in the learning process, we created the following six ontologies that summarize the characteristics of these entities: (1) learner ontology, (2) learning object ontology, (3) learning objective ontology, (4) evaluation object ontology, (5) annotation object ontology and (6) learning framework ontology. Integrating certain rules in the declared ontologies combined with reasoning capacities of the inference engines embedded in the kernel of the SASA, allow the adaptation of learning content to the characteristics of learners. The use of semantic technologies facilitates the identification of existing learning resources on the web as well as the interpretation and aggregation of these resources within the context of SASA
APA, Harvard, Vancouver, ISO, and other styles
38

Aleksandrova, Marharyta. "Factorisation de matrices et analyse de contraste pour la recommandation." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0080/document.

Full text
Abstract:
Dans de nombreux domaines, les données peuvent être de grande dimension. Ça pose le problème de la réduction de dimension. Les techniques de réduction de dimension peuvent être classées en fonction de leur but : techniques pour la représentation optimale et techniques pour la classification, ainsi qu'en fonction de leur stratégie : la sélection et l'extraction des caractéristiques. L'ensemble des caractéristiques résultant des méthodes d'extraction est non interprétable. Ainsi, la première problématique scientifique de la thèse est comment extraire des caractéristiques latentes interprétables? La réduction de dimension pour la classification vise à améliorer la puissance de classification du sous-ensemble sélectionné. Nous voyons le développement de la tâche de classification comme la tâche d'identification des facteurs déclencheurs, c'est-à-dire des facteurs qui peuvent influencer le transfert d'éléments de données d'une classe à l'autre. La deuxième problématique scientifique de cette thèse est comment identifier automatiquement ces facteurs déclencheurs? Nous visons à résoudre les deux problématiques scientifiques dans le domaine d'application des systèmes de recommandation. Nous proposons d'interpréter les caractéristiques latentes de systèmes de recommandation basés sur la factorisation de matrices comme des utilisateurs réels. Nous concevons un algorithme d'identification automatique des facteurs déclencheurs basé sur les concepts d'analyse par contraste. Au travers d'expérimentations, nous montrons que les motifs définis peuvent être considérés comme des facteurs déclencheurs
In many application areas, data elements can be high-dimensional. This raises the problem of dimensionality reduction. The dimensionality reduction techniques can be classified based on their aim: dimensionality reduction for optimal data representation and dimensionality reduction for classification, as well as based on the adopted strategy: feature selection and feature extraction. The set of features resulting from feature extraction methods is usually uninterpretable. Thereby, the first scientific problematic of the thesis is how to extract interpretable latent features? The dimensionality reduction for classification aims to enhance the classification power of the selected subset of features. We see the development of the task of classification as the task of trigger factors identification that is identification of those factors that can influence the transfer of data elements from one class to another. The second scientific problematic of this thesis is how to automatically identify these trigger factors? We aim at solving both scientific problematics within the recommender systems application domain. We propose to interpret latent features for the matrix factorization-based recommender systems as real users. We design an algorithm for automatic identification of trigger factors based on the concepts of contrast analysis. Through experimental results, we show that the defined patterns indeed can be considered as trigger factors
APA, Harvard, Vancouver, ISO, and other styles
39

Dudognon, Damien. "Diversité et système de recommandation : application à une plateforme de blogs à fort trafic (convention CIFRE n°20091274)." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2546/.

Full text
Abstract:
Les systèmes de recommandation ont pour objectif de proposer automatiquement aux usagers des objets en relation avec leurs intérêts. Ces outils d'aide à l'accès à l'information sont de plus en plus présents sur les plateformes de contenus. Dans ce contexte, les intérêts des usagers peuvent être modélisés à partir du contenu des documents visités ou des actions réalisées (clics, commentaires,. . . ). Cependant, ces intérêts ne peuvent être modélisés en cas de démarrage à froid, c'est-à-dire pour un usager inconnu du système ou un nouveau document. Cette modélisation s'avère donc complexe à obtenir, et demeure parfois incomplète, conduisant à des recommandations bien souvent éloignées des intérêts réels des usagers. De plus, les approches existantes ne sont généralement pas en mesure de garantir des performances satisfaisantes sur des plateformes à fort trafic et hébergeant une volumétrie de données conséquente. Pour tendre vers des recommandations plus pertinentes, nous proposons un modèle de système de recommandation qui construit une liste de recommandations répondant à un large spectre d'intérêts potentiels, et ce même dans un contexte où le système ne possède que peu d'informations sur l'usager. L'originalité de notre modèle est qu'il repose sur la notion de diversité. Cette diversité est obtenue en agrégeant le résultat de différentes mesures de sélection pour construire la liste de recommandations finale. Après avoir démontré l'intérêt de notre approche en utilisant des corpus des références, ainsi qu'au travers d'une évaluation auprès d'usagers réels, nous évaluons notre modèle sur la plateforme de blogs OverBlog. Nous validons ainsi notre proposition dans un contexte industriel à grande échelle
Recommender Systems aim at automatically providing objects related to user's interests. These tools are increasingly used on content platforms to help the users to access information. In this context, user's interests can be modeled from the visited content and/or user's actions (clicks, comments, etc). However, these interests can not be modeled for an unknown user (cold start issue). Therefore, modeling is complex and recommendations are often far away from the real user's interests. In addition, existing approaches are generally not able to guarantee good performances on platforms with high trafic and which host a significant volume of data. To obtain more relevant recommendations for each user, we propose a recommender system model that builds a list of recommendations aiming at covering a large range of interests, even when only few information about the user is available. The recommender system model we propose is based on diversity. It uses different interest measures and an aggregation function to build the final set of recommendations. We demonstrate the interest of our approach using reference collections and through a user study. Finally, we evaluate our model on the OverBlog platform to validate its scalability in an industrial context
APA, Harvard, Vancouver, ISO, and other styles
40

Meilender, Thomas. "Un wiki sémantique pour la gestion des connaissances décisionnelles - Application à la cancérologie." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00919997.

Full text
Abstract:
Les connaissances décisionnelles sont un type particulier de connaissances dont le but est de décrire des processus de prise de décision. En cancérologie, ces connaissances sont généralement regroupées dans des guides de bonnes pratiques cliniques. Leur publication est assurée par des organismes médicaux suite à un processus d'édition collaboratif complexe. L'informatisation des guides a conduit à la volonté de formaliser l'ensemble des connaissances contenues de manière à pouvoir alimenter des systèmes d'aide à la décision. Ainsi, leur édition peut être vue comme une problématique d'acquisition des connaissances. Dans ce contexte, le but de cette thèse est de proposer des méthodes et des outils permettant de factoriser l'édition des guides et leur formalisation. Le premier apport de cette thèse est l'intégration des technologies du Web social et sémantique dans le processus d'édition. La création du wiki sémantique OncoLogiK a permis de mettre en œuvre cette proposition. Ainsi, un retour d'expérience et des méthodes sont présentés pour la migration depuis une solution Web statique. Le deuxième apport consiste à proposer une solution pour exploiter les connaissances décisionnelles présentes dans les guides. Ainsi, le framework KCATOS définit un langage d'arbres de décision simple pour lequel une traduction reposant sur les technologies du Web sémantique est développée. KCATOS propose en outre un éditeur d'arbres, permettant l'édition collaborative en ligne. Le troisième apport consiste à concilier dans un même système les approches pour la création des guides de bonnes pratiques informatisés : l'approche s'appuyant sur les connaissances symbolisée par KCATOS et l'approche documentaire d'OncoLogiK. Leur fonctionnement conjoint permet de proposer une solution bénéficiant des avantages des deux approches. De nombreuses perspectives sont exposées. La plupart d'entre elles visent à améliorer les services aux utilisateurs et l'expressivité de la base de connaissances. En prenant en compte le travail effectué et les perspectives, un modèle réaliste visant à faire du projet Kasimir un système d'aide à la décision complet est proposé.
APA, Harvard, Vancouver, ISO, and other styles
41

Calvier, François-Élie. "Découverte de mappings dans un système pair-à-pair sémantique : application à SomeRDFS." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00530075.

Full text
Abstract:
La richesse des réponses aux requêtes posées aux systèmes pair-à-pair de gestion de données (PDMS) dépend du nombre de mappings entre les ontologies des différents pairs. Augmenter ce nombre permet d'améliorer les réponses aux requêtes. C'est à ce problème que nous nous intéressons dans cette thèse. Il s'agit de découvrir des liens sémantiques entre les ontologies des différents pairs du système. Ce problème, connu sous le nom d'alignement d'ontologies, est spécifique dans les systèmes pair-à-pair, au sein desquels les ontologies ne sont pas a priori complètement connues, le nombre d'ontologies à aligner est très important et l'alignement doit s'opérer en l'absence de contrôle centralisé. Nous proposons des techniques semi-automatiques pour identifier : (1) des raccourcis de mappings correspondant à une composition de mappings existants et (2) des mappings nouveaux ne pouvant être inférés en l'état actuel du système. Ces techniques sont basées sur l'exploitation des mécanismes de raisonnement des PDMS et sur des critères de filtrage restreignant le nombre de couples d'éléments à aligner. Les raccourcis de mappings sont identifiés à partir de l'analyse de la trace des requêtes posées par les utilisateurs, mais également après application de critères estimant leur utilité. La découverte de nouveaux mappings consiste à identifier les éléments de l'ontologie d'un pair donné qui permettent d'identifier des mises en correspondance jugées intéressantes puis à sélectionner les éléments de pairs distants avec lesquels il est pertinent de les aligner. Les techniques d'alignement proposées sont soit des adaptations de techniques existantes soit des techniques innovantes tirant parti des spécificités de notre cadre de travail
APA, Harvard, Vancouver, ISO, and other styles
42

Sirri, Louah. "L'organisation du système lexico-sémantique dans le cerveau monolingue et bilingue en développement." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015PA05H103/document.

Full text
Abstract:
L'objectif de cette thèse est d'étudier le développement du système lexico-sémantique chez les enfants monolingues et bilingues. La question posée est la suivante : quand et comment les significations des mots commencent à être reliées entre elles et à s'intégrer dans un système sémantique interconnecté. Dans un premier temps, trois études ont été menées chez des enfants monolingues français. L'Etude 1, a pour but d'observer si les mots sont organisés selon des liens taxonomiques (e.g., cochon - cheval). L'Etude 2 explore si l'effet d'amorçage sémantique est sous-tendu par des mécanismes cognitifs, comme les processus d'activation automatique et contrôlé. Puis enfin, l'Etude 3 observe si les mots sont organisés en fonction de leur distance de similarité sémantique (e.g., vache - mouton versus vache - cerf). Dans un deuxième temps, deux études ont été conduites chez des enfants apprenant deux langues simultanément. L'Etude 4 vise à déterminer si les mots sont taxonomiquement liés dans chacune des langues. L'Etude 5 explore si les mots présentés dans une langue activent leurs représentations sémantiques dans l'autre langue et vice versa. Dans le but de répondre à ces questions, le traitement lexico-sémantique a été étudié en utilisant deux techniques : l'eye-tracking et les potentiels évoqués (PEs). Ces deux techniques enregistrent lors de la présentation des mots des réponses comportementales (Etude 3) et neuronales (Etude 1, 2, 4 et 5) de haute résolution temporelle. Les Etudes 1 et 2 montrent que chez les monolingues les mots sont liés taxonomiquement à l'âge de 18 et 24 mois. Durant le développement du langage, les deux processus d'activation automatique et contrôlé sont impliqués dans le traitement des mots (Etude 2). L'Etude 3 montre qu'à 24 mois, les mots sont organisés dans le système lexico-sémantique en développement selon la distance des similarités sémantiques. L'Etude 4 montre que chez les enfants bilingues, le traitement sémantique ne diffère pas selon les deux langues, mais la topographie des PEs varie selon la langue traitée. L'Etude 5 montre que les mots présentés dans une langue activent leurs représentations sémantiques dans la deuxième langue et vice versa. Toutefois, la topographie des PEs est modulée selon la direction de traduction. Ces résultats suggèrent que l'acquisition de deux langues, bien qu'elle soit très précoce, requière deux ressources neuronales bien distinctes, sous-tendant ainsi le traitement lexico-sémantique des langues dominante et non-dominante
The present doctoral research explored the developing lexical-semantic system in monolingual and bilingual toddlers. The question of how and when word meanings are first related to each other and become integrated into an interconnected semantic system was investigated. Three studies were conducted with monolingual French learning children which aimed at exploring how words are organized, that is, according to taxonomic relationships (e.g., pig - horse) and to semantic similarity distances between words (e.g., cow - sheep versus cow - deer), and whether cognitive mechanisms, such as automatic activation and controlled processes, underlie priming effects. An additional two studies conducted with children learning two languages simultaneously, aimed at determining, first, whether taxonomically related word meanings, in each of the two languages, are processed in a similar manner. The second goal was to explore whether words presented in one language activate words in another language, and vice versa. In an attempt to answer these questions, lexical-semantic processing was explored by two techniques: eye-tracking and event-related potentials (ERPs) techniques. Both techniques provide high temporal resolution measures of word processing but differ in terms of responses. Eye-movement measurements (Study III) reflect looking preferences in response to spoken words and their time-course, whereas ERPs reflect implicit brain responses and their activity patterns (Study I, II, IV, and V). Study I and II revealed that words are taxonomically organized at 18 and 24-month-olds. Both automatic and controlled processes were shown to be involved in word processing during language development (Study II). Study III revealed that at 24-month-olds, categorical and feature overlap between items underpin the developing lexical-semantic system. That is, lexical-items in each semantic category are organized according to graded similarity distances. Productive vocabulary skills influenced word recognition and were related to underlying cognitive mechanisms. Study IV revealed no differences in terms of semantic processing in the bilinguals¿ two languages, but the ERP distribution across the scalp varied according to the language being processed. Study V showed that words presented in one language activate their semantic representations in the second language and the other way around. The distribution of the ERPs depended, however, on the direction of translation. The results suggest that even early dual language experience yields distinct neural resources underlying lexical-semantic processing in the dominant and non-dominant languages during language acquisition
APA, Harvard, Vancouver, ISO, and other styles
43

Mulatéro, Frédéric. "Ramasse-mièttes et contrôle de concurrence sémantique dans un système multibase de données." Toulouse 3, 1997. http://www.theses.fr/1997TOU30069.

Full text
Abstract:
Un systeme d'informations (si) performant doit offrir un acces generalise aux donnees de l'entreprise quels que soient leur type et leur localisation. En effet, les organisations visent une competitivite accrue, c'est-a-dire collecter l'information pour la redistribuer le plus vite possible. Aussi veulent-elles perenniser les gains en optimisant les echanges de donnees. Elles se confrontent alors au probleme du mariage du patrimoine informatique aux nouvelles technologies sans sacrifier cet acquis. Un systeme multibase de donnees (smbd) repond aux besoins esquisses precedemment. Un smbd fournit un acces uniforme a des donnees gerees par des systemes de gestion de bases de donnees (sgbd) autonomes et repartis sur les sites d'un reseau. En outre, les applications attendent du si le maintien de la coherence des donnees distribuees en depit de leur partage et des pannes. La transaction constitue l'unite de traitement coherent et robuste. Or, une execution incorrecte dans le modele classique de transactions peut s'averer juste du point de vue applicatif. Cela se traduit par une perte significative de concurrence. Les transactions imbriquees ouvertes augmentent le parallelisme en integrant la semantique des applications. Dans ce contexte de donnees partagees et distribuees, une application ne peut plus detruire explicitement une donnee. La persistance par accessibilite simplifie leur destruction par l'usage d'un ramasse-miettes (rm). Un rm detecte toute donnee qui n'est plus utilisee afin de recuperer les ressources consommees. Ce document propose d'abord une architecture multiniveau et decentralisee pour un smbd muni d'un controle de concurrence semantique. Les donnees d'un sgbd sont complexes, i. E. Qu'elles designent des donnees elles-memes complexes gerees par d'autres sgbd. Une autre difficulte reside dans l'independance des sgbd sur le plan transactionnel. Une solution est ensuite apportee a l'integration d'un rm au sein de cette architecture. L'obstacle principal est lie a la durabilite et l'atomicite des transactions. Le rm traite les structures cycliques de donnees distribuees et repose sur l'execution parallele de plusieurs rm distribues de type marquage-balayage. Chaque rm s'execute a partir de n'importe quel site et navigue d'un sgbd a l'autre selon les references externes des donnees. Le protocole durm a ete prouve et implante.
APA, Harvard, Vancouver, ISO, and other styles
44

Malanda, Paul. "Sémantique et syntaxe du système verbal dans "la vida de Lazarillo de Tormes"." Paris 10, 1994. http://www.theses.fr/1994PA100116.

Full text
Abstract:
Le présent travail est une étude linguistique. Il décrit la situation du système verbal dans la "vida de Lazarillo de Tormes", texte du XVIème siècle. Sa description porte sur la sémantique et sur la syntaxe de ce système verbal apportant des informations sur : les catégories de mode, du temps, de la personne, de l'aspect, de la voix par une désinence ou une forme présentée par un verbe. Son but est de contribuer à la meilleure connaissance de ce sous-système de la langue espagnole classique et à son bon usage
The present work is a linguistic study of the verbal system found in the sixteenth century narrative, "la vida de Lazarillo de Tormes". This study is concerned with the syntax and the semantics of the verbal system in "la vida de Lazarillo de Tormes". It seeks to shed light on the following: the different categories of mood, of tense, of person, of aspect (of verb), of voice as manifested in flexional endings or in the form taken by a verb. The work aims at contributing to better understanding and use of this sub-system which characterizes classical Spanish
APA, Harvard, Vancouver, ISO, and other styles
45

Calvier, François-Elie. "Découverte de mappings dans un système Pair à Pair sémantique : Application à SomeRDFS." Paris 11, 2010. http://www.theses.fr/2010PA112098.

Full text
Abstract:
La richesse des réponses aux requêtes posées aux systèmes pair-à-pair de gestion de données (PDMS) dépend du nombre de mappings entre les ontologies des différents pairs. Augmenter ce nombre permet d'améliorer les réponses aux requêtes. C'est à ce problème que nous nous intéressons dans cette thèse. Il s'agit de découvrir des liens sémantiques entre les ontologies des différents pairs du système. Ce problème, connu sous le nom d'alignement d'ontologies, est spécifique dans les systèmes pair-à-pair, au sein desquels les ontologies ne sont pas a priori complètement connues, le nombre d'ontologies à aligner est très important et l'alignement doit s'opérer en l'absence de contrôle centralisé. Nous proposons des techniques semi-automatiques pour identifier : (1) des raccourcis de mappings correspondant à une composition de mappings existants et (2) des mappings nouveaux ne pouvant être inférés en l'état actuel du système. Ces techniques sont basées sur l'exploitation des mécanismes de raisonnement des PDMS et sur des critères de filtrage restreignant le nombre de couples d'éléments à aligner. Les raccourcis de mappings sont identifiés à partir de l'analyse de la trace des requêtes posées par les utilisateurs, mais également après application de critères estimant leur utilité. La découverte de nouveaux mappings consiste à identifier les éléments de l'ontologie d'un pair donné jugés intéressants puis à sélectionner les éléments de pairs distants avec lesquels il est pertinent de les aligner. Les techniques d'alignement proposées sont soit des adaptations de techniques existantes soit des techniques innovantes tirant parti des spécificités de notre cadre de travail
The richness of answers to queries asked to peer to peer data management systems (PDMS) depends on the number of mappings between ontologies of different peers. Increasing this number can improve responses to queries. This is the problem considered in this thesis. We aims at discovering semantic links between ontologies of different peers. This problem, known as ontology alignment, is specific in peer-to-peer systems in which ontologies are not completely known a priori, the number of ontologies to align is very large and alignment should be done without any centralized control. We propose semi-automatic techniques for identifying: (1) mapping shortcut corresponding to a composition of existing mappings and (2) new mappings which can not be inferred in the current state of the system. These techniques are based on the use of reasoning mechanisms of PDMS and filtering criteria restricting the number of pairs of elements to align. Mapping shortcuts are identified from the analysis of trace of queries asked by users, but also after application of criteria considering their usefulness. The discovery of new mappings consists in identifying the elements of the ontology of a given peer that are judged interesting and then in selecting the elements from distant peer with which it is relevant to align them. The proposed alignment techniques are either adaptations of existing technology or innovative techniques exploiting the specificities of our framework
APA, Harvard, Vancouver, ISO, and other styles
46

Hadjadj, Mohammed. "Modélisation de la Langue des Signes Française : Proposition d’un système à compositionalité sémantique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS560/document.

Full text
Abstract:
La reconnaissance de la langue des signes française (LSF) comme une langue à part entière en 2005 a créé un besoin important de développement d’outils informatiques pour rendre l’information accessible au public sourd. Dans cette perspective, cette thèse a pour cadre la modélisation linguistique pour un système de génération de la LSF. Nous présentons dans un premier temps les différentes approches linguistiques ayant pour but la description linguistique des langues des signes (LS). Nous présentons ensuite les travaux effectués en informatique pour les modéliser.Dans un deuxième temps, nous proposons une approche permettant de prendre en compte les caractéristiques linguistiques propres au LS tout en respectant les contraintes d’un processus de formalisation. En étudiant des liens entre des fonctions sémantiques et leurs formes observées dans les corpus LSF, nous avons identifié plusieurs règles de production. Nous présentons finalement le fonctionnement des règles comme étant un système susceptible de modéliser un énoncé entier en LSF
The recognition of French Sign Language (LSF) as a natural language in 2005 has created an important need for the development of tools to make information accessible to the deaf public. With this prospect, this thesis aims at linguistic modeling for a system of generation of LSF. We first present the different linguistic approaches aimed at describing the sign language (SL). We then present the models proposed in computer science. In a second step, we propose an approach allowing to take into account the linguistic properties of the SL while respecting the constraints of a formalisation process.By studying the links between semantic functions and their observed forms in LSF Corpora, we have identified several production rules. We finally present the rule functioning as a system capable of modeling an entire utterance in LSF
APA, Harvard, Vancouver, ISO, and other styles
47

Essayeh, Aroua. "Une approche de personnalisation de la recherche d'information basée sur le Web sémantique." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0003.

Full text
Abstract:
Le travail de cette thèse s’inscrit dans le cadre de la recherche d’information (RI) et plus précisément la recherche d’information personnalisée. En effet, avec la prolifération des données de différentes sources et malgré la diversité de méthodes et d’approches de la recherche d’information classique, cette dernière n’est plus considérée aujourd’hui comme un moyen efficace pour répondre aux exigences de l’utilisateur considéré comme l’acteur principal de tout système de recherche d’information (SRI). Dans ce travail de thèse, nous adressons deux principaux problèmes liés à la RI personnalisée : (1) la formalisation et la mise en œuvre d’un modèle utilisateur et (2) la formulation de la requête de recherche dans le but d’améliorer les résultats retournés à l'utilisateur en fonction de sa perception et de ses préférences. Pour atteindre ces objectifs, nous avons proposé une approche de recherche d’information guidée par les ontologies et basée sur l’utilisation sémantique des informations. En effet, notre contribution se décline en trois principaux points : (1) la modélisation et la construction de profil utilisateur suivant une approche ontologique modulaire. Ce modèle permet de capturer les informations relatives à l’utilisateur, de les modéliser suivant l’approche sémantique dans le but de les réutiliser pour des tâches de raisonnement et d’inférence ; (2) la reformulation sémantique de la requête de recherche en exploitant les concepts, les relations syntaxiques et non syntaxiques entre les concepts et les propriétés ; et finalement, (3) la recommandation des résultats qui consiste à proposer des résultats de recherche en se basant sur l’ensemble des communautés utilisateurs construites par l’approche de classification non supervisée « Fuzzy K-mode » améliorée. Ces communautés sont aussi modélisées sémantiquement dans l’ontologie modulaire de profil. Ensuite, afin de valider l’approche proposée, nous avons mis en œuvre un système pour la recherche des itinéraires dans le transport public. Enfin, cette thèse propose des perspectives de recherche sur la base des limites rencontrées
This PhD thesis reports on a recent study in the field of information retrieval (IR), more specifically personalized IR. Traditional IR uses various methods and approaches. However, given the proliferation of data from different sources, traditional IR is no longer considered to be an effective means of meeting users’ requirements. (‘Users’ here refers to the main actor in an IR system.) In this thesis, we address two main problems related to personalized IR: (1) the development and implementation of a user model; and (2) the formulation of a search query to improve the results returned to users according to their perceptions and preferences. To achieve these goals, we propose a semantic information search approach, based on the use of semantic information and guided by ontologies. The contribution of our work is threefold. First, it models and constructs user profiles following a modular ontological approach; this model allows the capture of information related to the user, and models the data according to the semantic approach so that the data can be re-used for reasoning and inference tasks. Second, it provides evidence for reformulating a query by exploiting concepts, hierarchical and non-hierarchical relationships between concepts and properties. Third, based on our findings, we recommend search results that are informed by the user’s communities, built by the improved unsupervised classification approach called the ‘Fuzzy K-mode’. These communities are also semantically modeled with modular profile ontology. To validate our proposed approach, we implemented a system for searching the itineraries for public transport. Finally, this thesis proposes research perspectives based on the limitations we encountered
APA, Harvard, Vancouver, ISO, and other styles
48

Ben, Ellefi Mohamed. "La recommandation des jeux de données basée sur le profilage pour le liage des données RDF." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Full text
Abstract:
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
APA, Harvard, Vancouver, ISO, and other styles
49

Labbé, Vincent. "Modélisation et apprentissage des préférences appliqués à la recommandation dans les systèmes d'impression." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00814267.

Full text
Abstract:
Cette thèse porte sur la modélisation et l'apprentissage automatique des préférences, dans le contexte industriel de l'impression en grand format. En particulier, nous nous intéressons à l'automatisation de la configuration d'impression. De par la palette des comportements possibles, cette fonctionnalité n'est triviale, ni à concevoir, ni à utiliser. Nous proposons une nouvelle approche pour en améliorer les deux aspect complémentaires : évolutivité et utilisabilité. Notre réalisation principale est un système de recommandation adaptatif, basé sur trois contributions originales : une modélisation de la configuration d'impression grand format à partir d'un modèle de préférence, sous la forme de problèmes d'optimisation sous contraintes, un modèle des préférences de l'imprimeur, sous la forme de fonctions d'utilité additive linéaires par morceaux, basée sur une famille d'attributs adaptée, un algorithme d'apprentissage automatique d'ordonnancements à partir de données comparatives. Basé sur l'algorithme rankSVM (noyau linéaire), notre méthode d'apprentissage permet d'adapter la complexité de l'espace de description des données, tout en conservant la linéarité
APA, Harvard, Vancouver, ISO, and other styles
50

Plaice, John. "Sémantique et compilation de LUSTRE, un langage déclaratif synchrone." Grenoble INPG, 1988. http://www.theses.fr/1988INPG0032.

Full text
Abstract:
Le langage étudie est un langage de programmation des systèmes temps réel fonde sur une interprétation synchrone des réseaux a flux de données. Son compilateur a été conçu entièrement à partir de descriptions formelles de la sémantique du langage. L'originalité principale du compilateur est qu'il tient d'une part aux vérifications statiques de cohérence temporelle et d'autre part à la génération de code séquentiel, par synthèse du contrôle sous forme d'automate fini
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography