Добірка наукової літератури з теми "Recommandation de données d'apprentissage"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Recommandation de données d'apprentissage".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Recommandation de données d'apprentissage":

1

Gaffield, Scott M. "Justice Not Done : The Hanging of Elizabeth Workman." Canadian journal of law and society 20, no. 1 (April 2005): 171–92. http://dx.doi.org/10.1353/jls.2006.0007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
RésuméDans l'histoire judiciaire du Canada, une seule femme fut exécutée contre la recommandation du jury : Elizabeth Workman. Pendue en 1873 à Sarnia, en Ontario, cette mère de classe ouvrière et immigrante avait été condamnée du meurtre de son époux. Cet article vise à approfondir notre compréhension de la pendaison d'Elizabeth Workman en répondant à un ensemble de questions reliées : Pourquoi fut-elle condamnée? Pourquoi le jury recommanda-t-il qu'elle soit graciée? Pourquoi cette recommandation ne fut-elle pas acceptée? Pour répondre de manière fondée à ces interrogations, un corpus substantiel de sources primaires et secondaires a été consulté, incluant le dossier judiciaire, des données de recensements, des quotidiens locaux ainsi que des travaux scientifiques plus récents sur le contexte social et légal du procès et de l'exécution. Ces données suggèrent qu'EIizabeth Workman est devenue la seule femme à être exécutée contrairement à la recommandation d'un jury suite à une convergence d'actions individuelles, du contexte social et de la culture et pratique légales.
2

Lubis, Nuriaty Prasetya, Junita Friska, and Zulherman Zulherman. "Développement De La Méthode De Français Basé Sur Google Classroom En Classe XI Au SMA Negeri 21 Medan." HEXAGONE Jurnal Pendidikan, Linguistik, Budaya dan Sastra Perancis 10, no. 2 (December 29, 2021): 34. http://dx.doi.org/10.24114/hxg.v10i2.30299.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche est la recherche de développement en utilisant la méthode de Borg & Gall (2005) qui vise à déterminer le processus et l’efficacité du media E-learning basés sur Google Classroom en classe XI, SMA Negeri 21 Medan. La méthode utilisée pour analyser les données est une technique qualitative. Toutes les données recueillies ont été analysées à l'aide de techniques statistiques descriptives qui ont été exprimées dans la distribution des scores et des catégories d’échelle. Le processus d’apprentissage en utilisant le Google Classroom en Classe XI à SMA Negeri 21 Medan, à savoir : la phase d’analyse, phase de conception, phase de développement, phase de mise en œuvre et phase d’évaluation. Les résultats de la validation par le validateur en matériaux est la valeur moyenne 77,95 % (bien) et la valeur du média d'apprentissage de Google Classroom est 77, 72 %, (bien). Ensuite description de données des résultats des tests d’utilisation se compose de données sur les résultats du test d'utilisation des médias par l'enseignant. La moyenne est 81.06 % (très bien). Les données sur le résultat de l'utilisation des médias par les lycéens se compose du test individuel est la moyenne 87, 3 % (très bien), le test en petit groupe est la moyenne 89 % (très bien), le test d’essai limité est la moyenne 91,7 % (très bien). La valeur moyenne des résultats d'apprentissage avec l'apprentissage utilisant les médias d'apprentissage de Google Classroom a obtenu le score le plus élevé au post-test de 100,00, meilleur que le score le plus élevé au pré-test de 77,00.Mots-­‐‑clés : E-learning, Google Classroom, L’apprentissage De Français.
3

Jerbi, Houssem, Geneviève Pujolle, Franck Ravat, and Olivier Teste. "Recommandation de requêtes dans les bases de données multidimensionnelles annotées." Ingénierie des systèmes d'information 16, no. 1 (February 2011): 113–38. http://dx.doi.org/10.3166/isi.16.1.113-138.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Quach, Caroline, and Shelley Deeks. "La vaccination contre la COVID-19 : pourquoi allonger l’intervalle entre les doses?" Official Journal of the Association of Medical Microbiology and Infectious Disease Canada 6, no. 2 (July 2021): 79–84. http://dx.doi.org/10.3138/jammi-2021-0323.fr.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le 3 mars 2021, devant la morbidité et la mortalité continues causées par la maladie à coronavirus 2019 (COVID-19) et l’offre insuffisante de vaccins autorisés et disponibles contre la COVID-19 au Canada, le Comité consultatif national de l’immunisation a publié une forte recommandation préconisant un intervalle prolongé entre les doses des vaccins, afin d’optimiser le nombre de personnes protégées le plus rapidement possible. La recommandation du comité, qui a pris la forme d’une réponse rapide en raison de l’urgence de la situation, repose sur l’examen des données probantes, les principes immunologiques, l’expérience des vaccins, les études de modélisation et les principes d’éthique, d’équité, de faisabilité et d’acceptabilité. De nombreuses questions et inquiétudes ont été soulevées depuis. Le présent article vise à mieux expliquer les motifs de cette recommandation et à fournir aux dispensateurs de soins l’information dont ils ont besoin pour soutenir leurs patients pendant le déploiement de la vaccination.
5

Goupil, Georgette, Michelle Comeau, and Pierre Michaud. "Étude descriptive et exploratoire sur les services offerts aux élèves en difficulté d’apprentissage." Articles 20, no. 4 (October 10, 2007): 645–56. http://dx.doi.org/10.7202/031760ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Cet article présente une étude menée auprès de 70 directions d'école primaire sur les services offerts aux élèves en difficulté d'apprentissage. Les données, recueillies par entrevue, ont été dépouillées par analyse de contenu. Les résultats obtenus révèlent que les directions jouent un rôle important dans l'attribution des services aux enfants en difficulté d'apprentissage. Ils indiquent aussi que les services d'orthopédagogie sont offerts en général sous forme de dénombrement flottant et non directement dans les classes ordinaires. L'article décrit également les procédures utilisées dans les écoles pour offrir les services : processus de référence, plans d'intervention personnalisés, projets, etc.
6

Racine, Guylaine. "La construction de savoirs d'expérience chez des intervenantes d'organismes communautaires pour femmes sans-abri : un processus participatif, collectif et non planifié1." Nouvelles pratiques sociales 13, no. 1 (October 2, 2002): 69–84. http://dx.doi.org/10.7202/000006ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Cet article présente les résultats d'une étude portant sur la description du processus d'apprentissage expérientiel d'intervenantes oeuvrant dans des organismes communautaires pour femmes sans-abri. L'analyse des données révèle que les savoirs d'expérience de ces intervenantes se construisent progressivement, à travers un processus de réflexion sur l'action suscité par des situations problématiques qui surgissent de la pratique. L'analyse met également en relief le rôle central du collectif d'intervenantes dans la construction de ces savoirs. Ces résultats permettent de revitaliser le concept d'apprentissage expérientiel : plutôt qu'un processus individuel de production de savoirs, il est possible de l'envisager sous l'angle d'une co-construction de savoirs à laquelle participent des actrices concernées par un même objet.
7

Giardina, Max, Denis Harvey, and Martine Mottet. "L’évaluation des SAMI (système d’apprentissage multimédia interactif) : de la théorie à la pratique." Articles 24, no. 2 (April 30, 2008): 335–53. http://dx.doi.org/10.7202/502015ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Cet article traite de la mise au point d'une stratégie de collecte de données visant à regrouper et à analyser les facteurs sous-jacents au développement d'une interactivité significative dans des situations d'apprentissage médiatisé. Les auteurs ont conçu un modèle adapté d'analyse axée principalement sur une approche qualitative; ils ont utilisé à cette fin des méthodes intégrant la technique de l'entrevue, l'observation directe et l'analyse de protocoles. Celles-ci ont permis de cerner les facteurs perceptifs, transactionnels, cognitifs, pédagogiques et évaluatifs qui peuvent diriger la prise de décision des concepteurs de systèmes d'apprentissage multimédia interactifs. Des mises à l'essai de ce modèle à l'aide de concepteurs issus des milieux de formation scolaire ont indiqué la pertinence et le raffinement des analyses possibles.
8

Chehata, Nesrine, Karim Ghariani, Arnaud Le Bris, and Philippe Lagacherie. "Apport des images pléiades pour la délimitation des parcelles agricoles à grande échelle." Revue Française de Photogrammétrie et de Télédétection, no. 209 (January 29, 2015): 165–71. http://dx.doi.org/10.52638/rfpt.2015.220.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les pratiques et les arrangements spatiaux des parcelles agricoles ont un fort impact sur les flux d'eau dans les paysages cultivés . Afin de surveiller les paysages à grande échelle, il ya un fort besoin de délimitation automatique ou semi-automatique des parcelles agricoles. Cet article montre la contribution des images satellitaires à très haute résolution spatiales, telles que Pléiades, pour délimiter le parcellaire agricole de manière automatique .On propose une approche originale utilisant une classification binaire supervisée des limites. Une approche d'apprentissage actif est proposée afin d'adapter le modèle de classifieur au contexte local permettant ainsi la délimitation parcellaire à grande échelle.Le classifieur des Forêts Aléatoires est utilisé pour la classification et la sélection des attributs . Le concept de marge non supervisée est utilisé comme mesure d'incertitude dans l'algorithme d'apprentissage actif. En outre, un étiquetage automatique des pixels incertains est proposé en utilisant une approche hybride qui combinant une approche région et le concept de marge.Des résultats satisfaisants sont obtenus sur une image Pléiades. Différentes stratégies d'apprentissage sont comparées et discutées . Pour un cas d'étude opérationnel, un modèle global ou bien un modèle simple enrichi peuvent être utilisés en fonction des données de terrain disponibles.
9

Lavoie-Tremblay, Mélanie, and Malcolm Anderson. "Le programme de Formation en recherche pour cadres qui exercent dans la santé (FORCES): Perceptions de la première cohorte de boursiers." Healthcare Management Forum 20, no. 2 (July 2007): 14–19. http://dx.doi.org/10.1016/s0840-4704(10)60508-x.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La Fondation canadienne de la recherche sur les services de santé (FCRSS) et ses partenaires ont créé un programme de formation novateur qui vient à l'appui des cadres qui utilisent des données probantes de recherche pour éclairer la prise de décisions. Le présent article décrit le programme de Formation en recherche pour cadres qui exercent dans la santé (FORCES) et les perceptions de sa première cohorte de boursiers ( n = 24). Malgré les défis de gestion du temps requis pour participer à cette activité d'apprentissage, qui se déroule dans un climat de confiance et qui suscite et encourage le réseautage, les boursiers ont été en mesure d'acquérir et d'appliquer une base de connaissances considérables permettant la prise de décisions éclairées par des données probantes.
10

Weisser, Marc. "Les problèmes d’arithmétique : traits de surface, modes de résolution et taux de réussite." Articles 25, no. 2 (October 17, 2007): 375–99. http://dx.doi.org/10.7202/032006ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Cette étude s'intéresse à l'effet que des modifications superficielles de l'énoncé d'un problème d'arithmétique pourraient avoir soit sur les taux de réussite, soit sur les modes de résolution. À structure mathématique constante, on s'aperçoit que la présence de grands nombres, de mots inducteurs, de même que la présentation des données numériques dans l'ordre de leur future utilisation diminuent le taux de succès. On constate également un phénomène d'apprentissage autonome concernant les démarches mises en oeuvre, allant dans le sens d'un accroissement de l'efficacité conjugué à une diminution de la dépense cognitive.

Дисертації з теми "Recommandation de données d'apprentissage":

1

Joshi, Bikash. "Algorithmes d'apprentissage pour les grandes masses de données : Application à la classification multi-classes et à l'optimisation distribuée asynchrone." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM046/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est de développer des algorithmes d'apprentissage adaptés aux grandes masses de données. Dans un premier temps, nous considérons le problème de la classification avec un grand nombre de classes. Afin d'obtenir un algorithme adapté à la grande dimension, nous proposons un algorithme qui transforme le problème multi-classes en un problème de classification binaire que nous sous-échantillonnons de manière drastique. Afin de valider cette méthode, nous fournissons une analyse théorique et expérimentale détaillée.Dans la seconde partie, nous approchons le problème de l'apprentissage sur données distribuées en introduisant un cadre asynchrone pour le traitement des données. Nous appliquons ce cadre à deux applications phares : la factorisation de matrice pour les systèmes de recommandation en grande dimension et la classification binaire
This thesis focuses on developing scalable algorithms for large scale machine learning. In this work, we present two perspectives to handle large data. First, we consider the problem of large-scale multiclass classification. We introduce the task of multiclass classification and the challenge of classifying with a large number of classes. To alleviate these challenges, we propose an algorithm which reduces the original multiclass problem to an equivalent binary one. Based on this reduction technique, we introduce a scalable method to tackle the multiclass classification problem for very large number of classes and perform detailed theoretical and empirical analyses.In the second part, we discuss the problem of distributed machine learning. In this domain, we introduce an asynchronous framework for performing distributed optimization. We present application of the proposed asynchronous framework on two popular domains: matrix factorization for large-scale recommender systems and large-scale binary classification. In the case of matrix factorization, we perform Stochastic Gradient Descent (SGD) in an asynchronous distributed manner. Whereas, in the case of large-scale binary classification we use a variant of SGD which uses variance reduction technique, SVRG as our optimization algorithm
2

Labiadh, Mouna. "Méthodologie de construction de modèles adaptatifs pour la simulation énergétique des bâtiments." Thesis, Lyon, 2021. http://www.theses.fr/2021LYSE1158.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La modélisation prédictive au sein des bâtiments est essentielle pour le contrôle intelligent, la coordination et la planification efficaces des réseaux d'énergie. L'un des moyens de modélisation prédictive utilise l'apprentissage automatique. En plus de leur bonne performance, ces approches sont rapides et permettent une intégration facile du bâtiment dans des systèmes intelligents. Cependant, un modèle d'apprentissage précis s'appuie essentiellement sur la disponibilité des données historiques en quantité suffisante, notamment quand l'apprentissage profond est utilisé. Dans le domaine d'énergie des bâtiments, les données historiques ne sont pas disponibles pour l'entraînement, notamment dans le cas des bâtiments nouvellement construits et nouvellement rénovés. En outre, il est fréquent d'évaluer l'efficacité énergétiques des bâtiments avant leur construction ou rénovation. Dans de tels cas, on dispose uniquement d'une description contextuelle du bâtiment futur et de sa conception. Cette thèse s'intéresse à la tâche de modélisation prédictive de la consommation énergétique des bâtiments quand aucune donnée historique n'est disponible. Pour cela, des données collectées à partir de plusieurs différents bâtiments sources sont exploitées. Ceci est de plus en plus pertinent compte tenu la croissance des initiatives de données ouvertes dans plusieurs secteurs, dont celui de l'énergie. Ainsi, l'idée est de transférer la connaissance entre les modèles de bâtiments. Peu de travaux de recherche sont menés à l'intersection des domaines de modélisation de l'énergie des bâtiments et le transfert d'apprentissage. Le traitement de données multi-sources constitue un défi majeur, vu l'écart de concept qui peut exister entre les différents sources et aussi entre chaque source et cible. Comme contribution, on propose une méthodologie de modélisation prédictive adaptative aux requêtes des utilisateurs. Le premier processus est responsable de la recommandation de données d'apprentissage pertinentes vis-à-vis un bâtiment cible, seulement en utilisant une description contextuelle minimale sur ce dernier (métadonnées). La description contextuelle est modélisée en tant que requête utilisateur. Pour permettre des recommandations spécifiques à la tâche cible, notre approche se base sur l'apprentissage profond de métrique de similarité. Le second processus est responsable de l'entraînement de plusieurs modèles prédictifs sur les données d'apprentissage recommandées par le processus précédent. Ces modèles sont combinés avec une méthode ensembliste pour assurer une bonne performance. L'implémentation de la méthodologie est basée sur les microservices. Les processus indépendants sont, par conséquent, modélisés en tant que microservices à but unique et à source de données séparée. Les métadonnées des bâtiments et leurs séries temporelles recueillies auprès de nombreuses sources sont intégrées au sein d'une vue unifiée et basée sur des ontologies. Les évaluations expérimentales de la méthodologie valident son efficacité et son applicabilité à la tâche de modélisation énergétique des bâtiments. Par ailleurs, vu le caractère générique de sa conception, la méthodologie peut être réutilisée dans d'autres applications dans divers secteurs
Predictive modeling of energy consumption in buildings is essential for intelligent control and efficient planning of energy networks. One way to perform predictive modeling is through machine learning approaches. Alongside their good performance, these approaches are time efficient and facilitates the integration of buildings into smart environments. However, accurate machine learning models rely heavily on collecting relevant building operational data in a sufficient amount, notably when deep learning is used. In the field of buildings energy, historical data are not available for training, such is the case in newly built or newly renovated buildings. Moreover, it is common to verify the energy efficiency of buildings before construction or renovation. For such cases, only a contextual description about the future building and its design is available. The goal of this dissertation is to address the predictive modeling tasks of building energy consumption when no historical data are available for the given target building. To that end, existing data collected from multiple different source buildings are leveraged. This is increasingly relevant with the growth of open data initiatives in various sectors, namely building energy. The main idea is to transfer knowledge across building models. There is little research at the intersection of building energy modeling and knowledge transfer. An important challenge arises when dealing with multi-source data, since large domain shift may exist between different sources and also between each source and the target. As a contribution, a two-fold query-adaptive methodology is developed for cross-building predictive modeling. The first process recommends relevant training data to a target building solely by using a minimal contextual description on it (metadata). Contextual descriptions are provided as user queries. To enable a task-specific recommendation, a deep similarity learning framework is used. The second process trains multiple predictive models based on recommended training data. These models are combined together using an ensemble learning framework to ensure a robust performance. The implementation of the proposed methodology is based on microservices. Logically independent workflows are modeled as microservices with single purposes and separate data sources. Building metadata and time series data collected from multiple sources are integrated into an unified ontology-based view. Experimental evaluation of the predictive model factory validates the effectiveness and the applicability for the use case of building energy modeling. Moreover, because of its generic design, the methodology for query-adaptive cross-domain predictive modeling can be re-used for a diverse range of use cases in different fields
3

Servajean, Maximilien. "Recommandation diversifiée et distribuée pour les données scientifiques." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20216/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans de nombreux domaines, les nouvelles technologies d'acquisition de l'information ou encore de mesure (e.g. serres de phénotypage robotisées) ont engendré une création phénoménale de données. Nous nous appuyons en particulier sur deux cas d'application réels: les observations de plantes en botanique et les données de phénotypage en biologie. Cependant, nos contributions peuvent être généralisées aux données du Web. Par ailleurs, s'ajoute à la quantité des données leur distribution. Chaque utilisateur stocke en effet ses données sur divers sites hétérogènes (e.g. ordinateurs personnels, serveurs, cloud), données qu'il souhaite partager. Que ce soit pour les observations de botanique ou pour les données de phénotypage en biologie, des solutions collaboratives, comprenant des outils de recherche et de recommandation distribués, bénéficieraient aux utilisateurs. L'objectif général de ce travail est donc de définir un ensemble de techniques permettant le partage et la découverte de données, via l'application d'approches de recherche et de recommandation, dans un environnement distribué (e.g. sites hétérogènes).Pour cela, la recherche et la recommandation permettent aux utilisateurs de se voir présenter des résultats, ou des recommandations, à la fois pertinents par rapport à une requête qu'ils auraient soumise et par rapport à leur profil. Les techniques de diversification permettent de présenter aux utilisateurs des résultats offrant une meilleure nouveauté tout en évitant de les lasser par des contenus redondants et répétitifs. Grâce à la diversité, une distance entre toutes les recommandations est en effet introduite afin que celles-ci soient les plus représentatives possibles de l'ensemble des résultats pertinents. Peu de travaux exploitent la diversité des profils des utilisateurs partageant les données. Dans ce travail de thèse, nous montrons notamment que dans certains scénarios, diversifier les profils des utilisateurs apporte une nette amélioration en ce qui concerne la qualité des résultats~: des sondages montrent que dans plus de 75% des cas, les utilisateurs préfèrent la diversité des profils à celle des contenus. Par ailleurs, afin d'aborder les problèmes de distribution des données sur des sites hétérogènes, deux approches sont possibles. La première, les réseaux P2P, consiste à établir des liens entre chaque pair (noeud du réseau): étant donné un pair p, ceux avec lesquels il a établi un lien représentent son voisinage. Celui-ci est utilisé lorsque p soumet une requête q, pour y répondre. Cependant, dans les solutions de l'état de l'art, la redondance des profils des pairs présents dans les différents voisinages limitent la capacité du système à retrouver des résultats pertinents sur le réseau, étant donné les requêtes soumises par les utilisateurs. Nous montrons, dans ce travail, qu'introduire de la diversité dans le calcul du voisinage, en augmentant la couverture, permet un net gain en termes de qualité. En effet, en tenant compte de la diversité, chaque pair du voisinage a une plus forte probabilité de retourner des résultats nouveaux à l'utilisateur courant: lorsqu'une requête est soumise par un pair, notre approche permet de retrouver jusqu'à trois fois plus de bons résultats sur le réseau. La seconde approche de la distribution est le multisite. Généralement, dans les solutions de l'état de l'art, les sites sont homogènes et représentés par de gros centres de données. Dans notre contexte, nous proposons une approche permettant la collaboration de sites hétérogènes, tels que de petits serveurs d'équipe, des ordinateurs personnels ou de gros sites dans le cloud. Un prototype est issu de cette contribution. Deux versions du prototype ont été réalisées afin de répondre aux deux cas d'application, en s'adaptant notamment aux types des données
In many fields, novel technologies employed in information acquisition and measurement (e.g. phenotyping automated greenhouses) are at the basis of a phenomenal creation of data. In particular, we focus on two real use cases: plants observations in botany and phenotyping data in biology. Our contributions can be, however, generalized to Web data. In addition to their huge volume, data are also distributed. Indeed, each user stores their data in many heterogeneous sites (e.g. personal computers, servers, cloud); yet he wants to be able to share them. In both use cases, collaborative solutions, including distributed search and recommendation techniques, could benefit to the user.Thus, the global objective of this work is to define a set of techniques enabling sharing and discovery of data in heterogeneous distributed environment, through the use of search and recommendation approaches.For this purpose, search and recommendation allow users to be presented sets of results, or recommendations, that are both relevant to the queries submitted by the users and with respect to their profiles. Diversification techniques allow users to receive results with better novelty while avoiding redundant and repetitive content. By introducing a distance between each result presented to the user, diversity enables to return a broader set of relevant items.However, few works exploit profile diversity, which takes into account the users that share each item. In this work, we show that in some scenarios, considering profile diversity enables a consequent increase in results quality: surveys show that in more than 75% of the cases, users would prefer profile diversity to content diversity.Additionally, in order to address the problems related to data distribution among heterogeneous sites, two approaches are possible. First, P2P networks aim at establishing links between peers (nodes of the network): creating in this way an overlay network, where peers directly connected to a given peer p are known as his neighbors. This overlay is used to process queries submitted by each peer. However, in state of the art solutions, the redundancy of the peers in the various neighborhoods limits the capacity of the system to retrieve relevant items on the network, given the queries submitted by the users. In this work, we show that introducing diversity in the computation of the neighborhood, by increasing the coverage, enables a huge gain in terms of quality. By taking into account diversity, each peer in a given neighborhood has indeed, a higher probability to return different results given a keywords query compared to the other peers in the neighborhood. Whenever a query is submitted by a peer, our approach can retrieve up to three times more relevant items than state of the art solutions.The second category of approaches is called multi-site. Generally, in state of the art multi-sites solutions, the sites are homogeneous and consist in big data centers. In our context, we propose an approach enabling sharing among heterogeneous sites, such as small research teams servers, personal computers or big sites in the cloud. A prototype regrouping all contributions have been developed, with two versions addressing each of the use cases considered in this thesis
4

Collobert, Ronan. "Algorithmes d'Apprentissage pour grandes bases de données." Paris 6, 2004. http://www.theses.fr/2004PA066063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Pradel, Bruno. "Evaluation des systèmes de recommandation à partir d'historiques de données." Paris 6, 2013. http://www.theses.fr/2013PA066263.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente différents protocoles d'évaluations permettantune meilleure estimation des erreurs de systèmes de recommandationsconstruits à partir d'historiques de données d'utilisateurs (ie sansinteractions directes avec les utilisateurs du système). Dans un premier chapitre de contribution, nous présentons lesrésultats d'une étude de cas d'un système de recommandation uniquementbasé sur les données d'achats d'un magasin de bricolage. Larecommandation est une tâche complexe qui à été souvent assimiléeuniquement à tache de prédiction de notes. Dans cette étude, nouscherchons à prédire les achats qu'un client va effectuer et non lanote qu'il attribuerait à un produit. Les données de notes étantindisponibles pour bon nombre d'industriels, cela correspond à uneapplication fréquemment rencontrée en pratique mais pourtant rarementtraitée dans la littérature. Dans ce cadre, nous évaluons lesperformances de plusieurs algorithmes de filtrage collaboratif del'état de l'art. Nous montrons comment certaines modifications desprotocoles d'apprentissages et de tests, ainsi que l'apportd'information de contexte, aboutit à de fortes variations desperformances entre algorithmes et à une sélection de modèle différente. Dans les chapitres suivants, nous abordons la problématique del'évaluation d'algorithmes de filtrage collaboratif à partir denotes. Dans un deuxième chapitre, nous détaillons notre participationau challenge de recommandation contextuelle de films CAMRa. Cechallenge propose deux modifications du protocole classique deprédiction de notes: les algorithmes sont évalués en considérant desmesures d'ordonnancement et les notes sont échantillonnées en test demanière temporelle sur deux périodes spécifiques de l'année: lasemaine de Noël et de la cérémonie des Oscars. Nous proposons unalgorithme de recommandations personnalisées qui prend en compte lesvariations temporelles de la popularité des items. La dernière contribution de cette thèse étudie l'influence duprocessus d'observations des notes sur les mesures de performancesTopK (rappel/ précision). Les utilisateurs choisissent les itemsqu'ils veulent noter, ainsi les notes sont obtenues par un processusd'observations non aléatoires. D'une part, certains items reçoiventbeaucoup plus de notes que les autres, et d'autre part, les notes"positives" sont sur-observés car les utilisateurs notent plusfréquemment les items qu'ils aiment. Nous proposons une analysethéorique de ces phénomènes et présentons également des résultatsd'expériences effectuées à l'aide de données Yahoo! réunissant desnotes collectées à la fois de manière classique et de manièrealéatoire. Nous montrons notamment qu'une prise en compte des notesmanquantes comme négatives en apprentissage aboutit à de bonnesperformances sur les mesures TopK, mais que ces performances peuventêtre trompeuses en favorisant des algorithmes modélisant la popularitédes items plus que les réelles préférences des utilisateurs
This thesis presents various experimental protocols leading to abetter offline estimation of errors in recommender systems. As a first contribution, results form a case study of a recommendersystem based on purchased data will be presented. Recommending itemsis a complex task that has been mainly studied considering solelyratings data. In this study, we put the stress on predicting thepurchase a customer will make rather than the rating he will assign toan item. While ratings data are not available for many industries andpurchases data widely used, very few studies considered purchasesdata. In that setting, we compare the performances of variouscollaborative filtering models from the litterature. We notably showthat some changes the training and testing phases, and theintroduction of contextual information lead to major changes of therelative perfomances of algorithms. The following contributions will focus on the study of ratings data. Asecond contribution will present our participation to the Challenge onContext-Aware Movie Recommendation. This challenge provides two majorchanges in the standard ratings prediction protocol: models areevaluated conisdering ratings metrics and tested on two specificsperiod of the year: Christmas and Oscars. We provides personnalizedrecommendation modeling the short-term evolution of the popularitiesof movies. Finally, we study the impact of the observation process of ratings onranking evaluation metrics. Users choose the items they want to rateand, as a result, ratings on items are not observed at random. First,some items receive a lot more ratings than others and secondly, highratings are more likely to be oberved than poor ones because usersmainly rate the items they likes. We propose a formal analysis ofthese effects on evaluation metrics and experiments on the Yahoo!Musicdataset, gathering standard and randomly collected ratings. We showthat considering missing ratings as negative during training phaseleads to good performances on the TopK task, but these performancescan be misleading favoring methods modeling the popularities of itemsmore than the real tastes of users
6

Ben, Ellefi Mohamed. "La recommandation des jeux de données basée sur le profilage pour le liage des données RDF." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
7

Shu, Wu. "Contributions à la détection des anomalies et au développement des systèmes de recommandation." Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6563.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le forage de données, appelé également "Découverte de connaissance dans les bases de données" , est un jeune domaine de recherche interdisciplinaire. Le forage de données étudie les processus d'analyse de grands ensembles de données pour en extraire des connaissances, et les processus de transformation de ces connaissances en des structures faciles à comprendre et à utiliser par les humains. Cette thèse étudie deux tâches importantes dans le domaine du forage de données : la détection des anomalies et la recommandation de produits. La détection des anomalies est l'identification des données non conformes aux observations normales. La recommandation de produit est la prédiction du niveau d'intérêt d'un client pour des produits en se basant sur des données d'achats antérieurs et des données socio-économiques. Plus précisément, cette thèse porte sur 1) la détection des anomalies dans de grands ensembles de données de type catégorielles; et 2) les techniques de recommandation à partir des données de classements asymétriques. La détection des anomalies dans des données catégorielles de grande échelle est un problème important qui est loin d'être résolu. Les méthodes existantes dans ce domaine souffrnt d'une faible efficience et efficacité en raison de la dimensionnalité élevée des données, de la grande taille des bases de données, de la complexité élevée des tests statistiques, ainsi que des mesures de proximité non adéquates. Cette thèse propose une définition formelle d'anomalie dans les données catégorielles ainsi que deux algorithmes efficaces et efficients pour la détection des anomalies dans les données de grande taille. Ces algorithmes ont besoin d'un seul paramètre : le nombre des anomalies. Pour déterminer la valeur de ce paramètre, nous avons développé un critère en nous basant sur un nouveau concept qui est l'holo-entropie. Plusieurs recherches antérieures sur les systèmes de recommandation ont négligé un type de classements répandu dans les applications Web, telles que le commerce électronique (ex. Amazon, Taobao) et les sites fournisseurs de contenu (ex. YouTube). Les données de classements recueillies par ces sites se différencient de celles de classements des films et des musiques par leur distribution asymétrique élevée. Cette thèse propose un cadre mieux adapté pour estimer les classements et les préférences quantitatives d'ordre supérieur pour des données de classements asymétriques. Ce cadre permet de créer de nouveaux modèles de recommandation en se basant sur la factorisation de matrice ou sur l'estimation de voisinage. Des résultats expérimentaux sur des ensembles de données asymétriques indiquent que les modèles créés avec ce cadre ont une meilleure performance que les modèles conventionnels non seulement pour la prédiction de classements, mais aussi pour la prédiction de la liste des Top-N produits.
8

Elati, Mohamed. "Apprentissage de réseaux de régulation génétique à partir de données d'expression." Paris 13, 2007. http://www.theses.fr/2007PA132031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Bonis, Thomas. "Algorithmes d'apprentissage statistique pour l'analyse géométrique et topologique de données." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS459/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on s'intéresse à des algorithmes d'analyse de données utilisant des marches aléatoires sur des graphes de voisinage, ou graphes géométriques aléatoires, construits à partir des données. On sait que les marches aléatoires sur ces graphes sont des approximations d'objets continus appelés processus de diffusion. Dans un premier temps, nous utilisons ce résultat pour proposer un nouvel algorithme de partitionnement de données flou de type recherche de modes. Dans cet algorithme, on définit les paquets en utilisant les propriétés d'un certain processus de diffusion que l'on approche par une marche aléatoire sur un graphe de voisinage. Après avoir prouvé la convergence de notre algorithme, nous étudions ses performances empiriques sur plusieurs jeux de données. Nous nous intéressons ensuite à la convergence des mesures stationnaires des marches aléatoires sur des graphes géométriques aléatoires vers la mesure stationnaire du processus de diffusion limite. En utilisant une approche basée sur la méthode de Stein, nous arrivons à quantifier cette convergence. Notre résultat s'applique en fait dans un cadre plus général que les marches aléatoires sur les graphes de voisinage et nous l'utilisons pour prouver d'autres résultats : par exemple, nous arrivons à obtenir des vitesses de convergence pour le théorème central limite. Dans la dernière partie de cette thèse, nous utilisons un concept de topologie algébrique appelé homologie persistante afin d'améliorer l'étape de "pooling" dans l'approche "sac-de-mots" pour la reconnaissance de formes 3D
In this thesis, we study data analysis algorithms using random walks on neighborhood graphs, or random geometric graphs. It is known random walks on such graphs approximate continuous objects called diffusion processes. In the first part of this thesis, we use this approximation result to propose a new soft clustering algorithm based on the mode seeking framework. For our algorithm, we want to define clusters using the properties of a diffusion process. Since we do not have access to this continuous process, our algorithm uses a random walk on a random geometric graph instead. After proving the consistency of our algorithm, we evaluate its efficiency on both real and synthetic data. We then deal tackle the issue of the convergence of invariant measures of random walks on random geometric graphs. As these random walks converge to a diffusion process, we can expect their invariant measures to converge to the invariant measure of this diffusion process. Using an approach based on Stein's method, we manage to obtain quantitfy this convergence. Moreover, the method we use is more general and can be used to obtain other results such as convergence rates for the Central Limit Theorem. In the last part of this thesis, we use the concept of persistent homology, a concept of algebraic topology, to improve the pooling step of the bag-of-words approach for 3D shapes
10

Aleksandrova, Marharyta. "Factorisation de matrices et analyse de contraste pour la recommandation." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0080/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans de nombreux domaines, les données peuvent être de grande dimension. Ça pose le problème de la réduction de dimension. Les techniques de réduction de dimension peuvent être classées en fonction de leur but : techniques pour la représentation optimale et techniques pour la classification, ainsi qu'en fonction de leur stratégie : la sélection et l'extraction des caractéristiques. L'ensemble des caractéristiques résultant des méthodes d'extraction est non interprétable. Ainsi, la première problématique scientifique de la thèse est comment extraire des caractéristiques latentes interprétables? La réduction de dimension pour la classification vise à améliorer la puissance de classification du sous-ensemble sélectionné. Nous voyons le développement de la tâche de classification comme la tâche d'identification des facteurs déclencheurs, c'est-à-dire des facteurs qui peuvent influencer le transfert d'éléments de données d'une classe à l'autre. La deuxième problématique scientifique de cette thèse est comment identifier automatiquement ces facteurs déclencheurs? Nous visons à résoudre les deux problématiques scientifiques dans le domaine d'application des systèmes de recommandation. Nous proposons d'interpréter les caractéristiques latentes de systèmes de recommandation basés sur la factorisation de matrices comme des utilisateurs réels. Nous concevons un algorithme d'identification automatique des facteurs déclencheurs basé sur les concepts d'analyse par contraste. Au travers d'expérimentations, nous montrons que les motifs définis peuvent être considérés comme des facteurs déclencheurs
In many application areas, data elements can be high-dimensional. This raises the problem of dimensionality reduction. The dimensionality reduction techniques can be classified based on their aim: dimensionality reduction for optimal data representation and dimensionality reduction for classification, as well as based on the adopted strategy: feature selection and feature extraction. The set of features resulting from feature extraction methods is usually uninterpretable. Thereby, the first scientific problematic of the thesis is how to extract interpretable latent features? The dimensionality reduction for classification aims to enhance the classification power of the selected subset of features. We see the development of the task of classification as the task of trigger factors identification that is identification of those factors that can influence the transfer of data elements from one class to another. The second scientific problematic of this thesis is how to automatically identify these trigger factors? We aim at solving both scientific problematics within the recommender systems application domain. We propose to interpret latent features for the matrix factorization-based recommender systems as real users. We design an algorithm for automatic identification of trigger factors based on the concepts of contrast analysis. Through experimental results, we show that the defined patterns indeed can be considered as trigger factors

Книги з теми "Recommandation de données d'apprentissage":

1

Prud'Homme, Roger. Données d'observation et gestion de l'apprentissage: Guide à l'intention des communautés d'apprentissage professionnelles. Québec (Québec): Presses de l'Université du Québec, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

L' Ordinateur, le traitement de texte et les bases de données comme outils d'apprentissage. Sainte-Foy, Qué: Éditions du 24 juillet, 1987.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Recommandation de données d'apprentissage":

1

ROCHDI, Sara, and Nadia EL OUESDADI. "Les étudiants et les pratiques numériques informelles: échange et collaboration sur le réseau social Facebook." In Langue(s) en mondialisation, 127–36. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5204.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'arrivée du Web2.0 (web sémantique) en 2000, a vu la création d'un nouveau type d'application qui a changé la manière d'apprentissage. Avec cette technologie, on assiste aujourd'hui au développement : des objets connectés pour la diffusion des connaissances et la construction des compétences, comme l’a avancé Marcel Lebrun (2007 :66) [1] « les technologies de l’information et de la communication fournissent des moyens novateurs non seulement pour la diffusion des connaissances, mais aussi pour la découverte des stratégies d’apprentissage qui favorisent la construction des compétences». Ainsi qu’à l'apparition de nouvelles applications particulièrement les réseaux sociaux. En effet, les réseaux sociaux sont au cœur des nouvelles technologies de l’information et de la communication, du fait qu'ils permettent la mise en relation des individus pour échanger, collaborer, communiquer, étudier et diffuser l'information à travers plusieurs modalités d'apprentissage tel que le réseau social Facebook. Ce dernier est très utilisé chez les étudiants de la filière d'études françaises. Les apprenants ne se considèrent pas seulement comme des consommateurs mais des participants au développement des contenus au sein des groupes. Le présent article a pour objectif de donner d’une part un aperçu théorique sur l’apprentissage en ligne, l’éducation informelle, l’apprentissage collaboratif et les avantages des réseaux sociaux en rapport avec les courants d’apprentissage et d’autre part d'identifier l'usage de l'utilisation du réseau social Facebook dans le parcours d' apprentissage des étudiants de département de langue française à l'université marocaine afin de répondre à notre question de recherche : quel est l'apport de l'usage de Facebook dans l'apprentissage des étudiants ? Nous avons effectué une recherche qualitative pour présenter les données qui sont issues en premier lieu de traces d’activités relevées dans divers groupes d’études françaises, afin d’analyser les effets de l'usage de Facebook par les étudiants à travers leurs attitudes et leurs interactions. Et en deuxième lieu d’une interview menée avec quelques étudiants pour connaitre leurs opinions vis-à-vis de cette modalité d’apprentissage. La recherche montre que les étudiants utilisent le réseau social Facebook pour collaborer, et aussi pour échanger des informations et des connaissances avec leurs camarades

Тези доповідей конференцій з теми "Recommandation de données d'apprentissage":

1

Pajot, T., S. Ketoff, and L. Bénichou. "Chirurgie implantaire guidée : acquisition, planification, modélisation et production d'un guide chirurgical. Mise en place d'une chaine numérique pour la création interne et l'utilisation de guides chirurgicaux." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction : Devenue incontournable de nos jours pour la réhabilitation de patients présentant des édentements unitaires, partiels ou totaux, la chirurgie implantaire a connu ces dernières années de nombreuses évolutions. Même si les mesures radiographiques et l'analyse des modèles d'étude physiques sont toujours les ressources les plus utilisées par les praticiens pour recueillir les différentes données nécessaires à la prise en charge du patient, la révolution numérique et l'avènement de l'impression en trois dimensions (3D) ont récemment beaucoup fait évoluer les pratiques et offrent de nouveaux horizons. C'est dans cet esprit qu'une chaine méthodologique complétement numérique a été mise en place pour la création de guides chirurgicaux implantaires à l'aide d'une imprimante 3D. OBSERVATION : L'auteur évoquera les différents éléments utilisés dans le service nécessaires à la mise en place de cette chaine digitale (Cone Beam, caméra d'empreintes optiques intra-orale, logiciel de planification, imprimante 3D) avant de présenter différents cas réalisés à l'aide de celle-ci. DISCUSSION : L'utilisation d'une telle chaine dans un service hospitalier n'est pas simple et son impact difficile à évaluer. L'auteur reviendra donc dans un premier temps sur les différents problèmes rencontrés lors de la création des différents guides chirurgicaux (un point sera notamment fait sur la législation concernant l'utilisation de ces guides imprimés en 3D dans et par un établissement hospitalier). Dans un second temps, on évaluera également l'intérêt de se doter d'une telle chaine numérique : l'intérêt financier (pour l'hôpital mais aussi pour le patient), le temps imparti à la prise en charge du patient (nombre et durée des consultations, temps dédié à la planification implantaire), et l'intérêt chirurgical (notamment l'évaluation de la précision de la thérapeutique implantaire). CONCLUSION : Les nouvelles technologies font évoluer nos pratiques. Si elles nécessitent initialement un investissement financier et humain important (temps d'adaptation, courbe d'apprentissage ), elles permettent à terme et utilisées dans de bonnes indications de faciliter et d'améliorer la prise en charge des patients.

До бібліографії