Littérature scientifique sur le sujet « Gestion des données basée sur des connaissances »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Gestion des données basée sur des connaissances ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Gestion des données basée sur des connaissances":

1

Razouk, Abdelwahab Aït, et Mohamed Bayad. « La gestion stratégique des ressources humaines dans les PME françaises ». Revue internationale P.M.E. 23, no 2 (8 septembre 2011) : 131–57. http://dx.doi.org/10.7202/1005764ar.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Dans cet article, nous avons tenté de comprendre l’évolution de la gestion stratégique des ressources humaines dans les petites et moyennes entreprises en France. Le but de cette recherche est double. Premièrement, nous avons répondu aux appels de plusieurs auteurs demandant de multiplier les études de la GRH dans les PME. Deuxièmement, nous avons essayé d’enrichir nos connaissances de la GSRH dans un autre contexte que celui de l’Amérique du Nord ou celui des grandes entreprises. Cette recherche est basée sur une analyse dynamique à partir de données longitudinales de 388 PME françaises sur la période 1998-2005. Les résultats montrent une progression des pratiques stratégiques RH et un recul des pratiques administratives RH. Ce résultat est important puisqu’il démontre que les PME peuvent également adopter des pratiques flexibles en termes de GRH.
2

Gaudreault, Sébastien, et Raef Gouiaa. « La gouvernance des informations numériques personnelles au Canada : Qui devrait gouverner ? » Revue Management & ; Innovation N° 9, no 3 (26 mars 2024) : 81–109. http://dx.doi.org/10.3917/rmi.209.0081.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les organisations prennent de plus en plus conscience que les données sont plus qu’une résultante des processus d’affaires et les voient davantage comme un actif et un facteur clé de succès. Ces dernières années, grâce aux avancées réalisées dans des domaines comme l’intelligence artificielle et les analyses prédictives, on utilise les données de manière beaucoup plus intensive et dans un contexte qui n’est pas nécessairement celui pour lequel les données ont été collectées. Les données provenant de différentes sources sont collectées et croisées pour générer de la valeur. La gouvernance devient alors essentielle pour s’assurer de la protection des données, notamment personnelles, et de leur bonne utilisation. La présente étude vise principalement deux objectifs. Premièrement, statuer sur qui devrait gouverner la gestion des données numérisées personnelles et deuxièmement, proposer, sur la base des objectifs recherchés par l’encadrement de la gestion des données numérisées personnelles, des recommandations de modification au niveau de la gestion des données numériques personnelles. Notre recherche a un intérêt académique et pratique. Répondant à une question d’actualité au Québec et au Canada, elle veut élargir le champ des connaissances en matière de gestion des données numériques personnelles. Plus spécifiquement et au niveau académique, cette recherche permettra de proposer des recommandations qui pourraient un jour faire l’objet d’une loi visant à établir de meilleures pratiques dans l’industrie. Au niveau pratique, nous formulons des recommandations pour modifier les lois actuelles canadiennes afin d’établir une balance entre les besoins des entreprises privée et publique et ceux du public et des consommateurs.
3

Panla, Koffi. « Connaissances endogènes d’utilisation de Daniellia oliveri (Rolfe) Hutch. & ; Dalziel (Fabaceae) par les populations des zones écologiques II et III du Togo ». Revue Ecosystèmes et Paysages 3, no 2 (30 décembre 2023) : 1–20. http://dx.doi.org/10.59384/recopays.tg3217.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les forêts tropicales regorgent de nombreuses espèces ligneuses dont différents organes contribuent de façon significative à la santé, à l’alimentation des populations locales et à l’économie nationale. Cependant, l’importance socioéconomique de certaines espèces comme D. oliveri reste à déterminer. Ainsi, une étude ethnobotanique, réalisée dans les zones écologiques II et III du Togo a permis de répertorier les usages des or-ganes de D. oliveri par les populations locales. L’objectif de cette étude vise à contri-buer à une meilleure connaissance des usages des produits du D. oliveri en vue de sa meilleure valorisation et de sa gestion durable. Il s’agit d’évaluer la variation des con-naissances endogènes des usages du D. oliveri suivant les caractéristiques socio-démographiques et de déterminer la convergence d’usage interethnique de différentes parties de l’espèce. La démarche méthodologique est basée sur la collecte des données par des enquêtes ethnobotaniques semi-structurées, par interviews individuelles et par focus group de 411 personnes appartenant à 11 ethnies dans soixante-quinze (75) villages. Les résultats de l’étude ont montré que l’espèce est utilisée par les différents groupes sociolinguistiques et socioprofessionnels. Ainsi, 35 usages spécifiques répartis dans 7 catégories d’usage ont été identifiés. Les parties de la plante les plus utilisées sont le bois (84,18 %) et les feuilles (68,37 %). Les résultats montrent aussi une varia-tion significative des connaissances d’usage au sein des 11 ethnies (p ˂ 0,001). Par contre le sexe, la fonction et le niveau d’instruction n’influent pas sur le niveau de connaissance. L’importance des usages des organes de l'espèce témoigne de l'urgence et de la nécessité de la mise en œuvre d’une stratégie d’utilisation rationnelle en vue d’une gestion durable des ressources forestières du Togo.
4

Kasongo Yakusu, Emmanuel, Dominique Louppe, Franck S. Monthe, Olivier J. Hardy, Félicien Bola Mbele Lokanda, Wannes Hubau, Jan Van Den Bulcke, Joris Van Acker, Hans Beeckman et Nils Bourland. « Enjeux et amélioration de la gestion des espèces du genre Entandrophragma, arbres africains devenus vulnérables ». BOIS & ; FORETS DES TROPIQUES 339 (17 avril 2019) : 75. http://dx.doi.org/10.19182/bft2019.339.a31717.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Par la qualité de leur bois et leurs nombreux usages traditionnels, les espèces du genre Entandrophragma font l’objet d’une intense exploitation, susceptible de compromettre leur pérennité en l’absence de gestion durable. La présente étude dresse un état de la situation de cinq espèces commerciales principales de ce genre : Entandrophragma angolense, E. congoense (souvent assimilée par erreur à E. angolense), E. candollei, E. cylindricum et E. utile. Elle propose des pistes de recherche pour améliorer les stratégies de gestion durable au sein de ce genre. L’étude est principalement basée sur les données scientifiques (publications), économiques (statistiques de production et d’exportation) et juridiques (lois et réglementations), mais aussi sur les plans d’aménagement et les rapports d’inventaire. Les connaissances sur leur gestion sont encore fragmentaires alors qu’elles sont considérées comme vulnérables dans la liste rouge de l’UICN. La forte exploitation industrielle ou artisanale de ces espèces ne s’effectue pas toujours dans le respect d’un plan d’aménagement validé, ni de la durée minimum des rotations qui permettraient l’un et l’autre un taux de reconstitution pérennisant cette ressource. Leur gestion durable exige notamment le développement et le respect de mesures d’aménagement pour rendre leur exploitation renouvelable à long terme. Cette exploitation doit s’appuyer sur une gestion adéquate des peuplements naturels et sur le reboisement ainsi que sur des mesures de conservation. Les recherches à développer doivent intéresser leur vitesse de croissance face aux évolutions climatiques, l’évaluation de leurs stocks (production, biomasse, carbone), l’actualisation de leur distribution spatiale, l’amélioration de leur régénération naturelle, les processus de leur reproduction, leurs propriétés anatomiques et technologiques, autant de pistes pertinentes pour garantir la pérennité des espèces exploitables du genre Entandrophragma.
5

ADJACOU, Dowo Michée, Thierry Dehouegnon HOUEHANOU, Gérard Nounagnon GOUWAKINNOU et Armand Kuyema NATTA. « Connaissances ethnoécologiques des variétés locales de Mangifera indica L. dans l’Atacora au Bénin : usages, diversité et perceptions du changement climatique ». Annales de l’Université de Parakou - Série Sciences Naturelles et Agronomie 12, no 1 (30 juin 2022) : 15–28. http://dx.doi.org/10.56109/aup-sna.v12i1.107.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les variétés locales de Mangifera indica sont des anciens fruitiers, cultivés en Afrique de l’Ouest et qui contribuent à la sécurité alimentaire. Malgré les diverses potentialités et atouts de ces variétés, elles sont peu connues de la recherche comparativement aux variétés améliorées. Pour une valorisation, une conservation et une gestion durable de cette importante ressource phytogénétique au Bénin, une étude ethnoécologique a été conduite et vise à documenter les connaissances locales liées aux usages des variétés locales, leurs caractéristiques distinctives et les perceptions sur l’effet des changements climatiques. Ainsi, une enquête ethnoécologique basée sur une approche participative a été conduite dans 15 villages choisis dans trois communes de l’Atacora : Natitingou, Tanguiéta, et Toucountouna. Au total, 115 personnes ont été enquêtées à base d’un questionnaire semi-structuré. Les données ont été traitées avec les indices ethnobotaniques et analysées avec le test exact de Fisher, le test Khi-2 d’indépendance et les analyses multivariées. L’étude a révélé que la population reconnaît deux variétés locales et que les raisons liées aux choix de ces variétés sont la facilité d’acquisition des fruits et la contribution de l’espèce au revenu. La forme des fruits était le principal critère de différenciation des deux variétés. L’alimentation et la médecine traditionnelle constituent les deux catégories d’usages les plus importantes suivies des bois d’énergie et le service d’ombrage. La population percevait le changement climatique à travers principalement la rareté des pluies, les poches de sécheresse, l’arrêt précoce des pluies et le retard des pluies alors que les pertes de fruits et les pourritures de fruit sont perçues comme les principaux effets du changement climatique sur l’espèce. Les connaissances ethnoécoloqiques évaluées peuvent servir de base pour une caractérisation morphologique et d’outils pour la gestion durable et la conservation des variétés locales de Mangifera indica au Bénin.
6

Lavoie-Tremblay, Mélanie, et Malcolm Anderson. « Le programme de Formation en recherche pour cadres qui exercent dans la santé (FORCES) : Perceptions de la première cohorte de boursiers ». Healthcare Management Forum 20, no 2 (juillet 2007) : 14–19. http://dx.doi.org/10.1016/s0840-4704(10)60508-x.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
La Fondation canadienne de la recherche sur les services de santé (FCRSS) et ses partenaires ont créé un programme de formation novateur qui vient à l'appui des cadres qui utilisent des données probantes de recherche pour éclairer la prise de décisions. Le présent article décrit le programme de Formation en recherche pour cadres qui exercent dans la santé (FORCES) et les perceptions de sa première cohorte de boursiers ( n = 24). Malgré les défis de gestion du temps requis pour participer à cette activité d'apprentissage, qui se déroule dans un climat de confiance et qui suscite et encourage le réseautage, les boursiers ont été en mesure d'acquérir et d'appliquer une base de connaissances considérables permettant la prise de décisions éclairées par des données probantes.
7

Grenier, Stéphane, Marie Suzanne Badji, Serigne Touba Mbacké Gueye et Micheline Petit. « Impacts de la crise du logement sur le recrutement et la rétention de la main-d’œuvre en Abitibi-Témiscamingue et stratégies pour y répondre et y remédier ». Revue Organisations & ; territoires 32, no 3 (15 janvier 2024) : 130–50. http://dx.doi.org/10.1522/revueot.v32n3.1681.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cet article utilise une méthode mixte basée sur une analyse descriptive pour approfondir la connaissance de l’Abitibi-Témiscamingue et sur une consultation évaluative pour identifier les impacts de la crise du logement sur les entreprises de cette région administrative québécoise. Les portraits des MRC ont été réalisés à partir de données secondaires provenant de diverses sources pour caractériser les territoires, leur population, l’emploi, la main-d’œuvre et le logement. Un questionnaire soumis à un échantillon d’entreprises a permis de compléter les portraits en ce qui a trait aux impacts de la crise du logement sur les activités, sur le fonctionnement et sur le développement des entreprises participantes, puis de documenter les stratégies déployées et proposées aux élus pour en limiter les effets et pour consolider le recrutement et la rétention des employés. À partir d’une revue de littérature, des modèles inspirants de gestion, de conception et de développement de logements sociaux et abordables ont été identifiés ailleurs au Canada et dans le reste du monde pour pallier la crise du logement en Abitibi-Témiscamingue.
8

Sasseville, J. L., et G. de Marsily. « Les sciences de l'eau : présent et futur ». Revue des sciences de l'eau 11 (12 avril 2005) : 223–41. http://dx.doi.org/10.7202/705340ar.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les sciences de l'eau connaissent actuellement un développement accéléré. Plusieurs facteurs contribuent à cet élargissement de la base de connaissances explicatives et instrumentales sur l'eau. On note, par exemple, 1. les investissements accrus dans la mise au point de systèmes de mesure permettant l'étude approfondie des propriétés de l'eau, 2. l'expansion considérable des approches mathématique et systémique à l'interprétation des données, ou encore 3. les progrès récents des outils informatiques qui ont favorisé le développement et l'usage des modèles de prédiction et ainsi, l'amélioration significative des connaissances sur la chimie, la biologie et la toxicologie. D'un autre côté, la croissance et la diversification des problèmes sociaux reliés à la raréfaction de l'eau viennent multiplier les domaines d'application des connaissances en vue de trouver des solutions durables aux problèmes. Dans cet article, on s'interroge, dans un tel contexte d'élargissement, sur l'évolution des sciences de l'eau au cours des prochaines années en mettant en évidence les problèmes socio-économiques dont la solution fait appel aux connaissances actuelles, à leur raffinement par les applications ou encore, à de nouvelles capacités techniques d'interprétation des phénomènes hydrologiques. On y distingue entre les activités qui seront entreprises pour résoudre des questions scientifiques fondamentales pouvant se justifier par des retombées possibles pour la société (la poussée scientifique) de celles qui seront engagées pour élaborer des solutions à des problèmes socio-économiques d'importance (les besoins socio-économiques de connaissances). On met ensuite en évidence les facteurs qui interviendront pour favoriser l'épanouissement des initiatives scientifiques, et on évalue l'effet de ces facteurs sur l'orientation de ces initiatives. On pose ainsi l'hypothèse que ce serait surtout la solution des problèmes socio-économiques, en conjugaison avec les aptitudes scientifiques actuelles, qui orienteront les développements des sciences de l'eau dans l'avenir. Enfin, on présente une approche émergente pouvant aider à comprendre l'évolution des sciences de l'eau. Ce modèle de représentation de la dynamique des initiatives scientifiques est caractérisé par deux pôles d'attraction relevant de la solution des problèmes sociaux reliés à la ressource : l'un en relation avec les besoins de connaissances pour la gestion de l'eau et l'autre lié aux besoins spécifiques de connaissances pour l'administration publique de l'eau.
9

RAKOTOMALALA, Fety Abel. « Mesure et suivi de la dynamique du couvert forestier : cas de l'écorégion des forêts humides de l’Est de Madagascar ». BOIS & ; FORETS DES TROPIQUES 348 (9 juillet 2021) : 107–8. http://dx.doi.org/10.19182/bft2021.348.a36756.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
La quantification fine et à large échelle des dynamiques du couvert forestier est indispensable dans la gestion des ressources naturelles. Elle fournit les connaissances pour lutter contre la perte de la biodiversité et réduire les émissions de gaz à effet de serre. À Madagascar, plusieurs études récentes ont montré l’importance de la déforestation, principalement liée à l’agriculture par abattis-brûlis. Cependant, la définition nationale des forêts n’a jamais été prise en compte dans leur processus de traitement des données. Par ailleurs, il n’existe pas ou peu d’informations sur l’étendue et l’importance des processus de dégradation et de régénération forestières. Ainsi, l’objectif de la présente thèse consiste à quantifier la déforestation, la dégradation et la régénération forestières dans l’écorégion des forêts humides de l’Est de Madagascar entre 2000 et 2015. Une approche basée sur la détection de changements d’images multidates a été appliquée pour estimer et analyser le niveau de déforestation. L’estimation de la dégradation et de la régénération a principalement été effectuée en faisant simultanément l’analyse de l’évolution du couvert et du stock de carbone forestier. La déforestation a été estimée à 90 171 ha/an entre 2000 et 2005, à 27 103 ha/an entre 2005 et 2010, à 33 978 ha/an entre 2010 et 2013 et à 80 626 ha/an entre 2013 et 2015. La dégradation forestière a été estimée à 20 327 ha/an et la régénération à 7 997 ha/an entre 2000 et 2015. La validation de ces résultats a été réalisée par inspection visuelle des points sur des images de haute résolution spatiale. La précision globale de la carte de déforestation a été évaluée à 90 % tandis que, pour la dégradation et la régénération, elle a été estimée à 88,5 %. La présente thèse propose ainsi des éléments méthodologiques innovants associant l’analyse des données de télédétection spatiale et des données de terrain pour le suivi de la déforestation, la dégradation et la régénération forestières à Madagascar. Elle contribue également à fournir les informations statistiques nécessaires à la mise en place du système national de suivi du couvert forestier.
10

Descroix, L., J. F. Nouvelot, J. Estrada et T. Lebel. « Complémentarités et convergences de méthodes de régionalisation des précipitations : application à une région endoréique du Nord-Mexique ». Revue des sciences de l'eau 14, no 3 (12 avril 2005) : 281–305. http://dx.doi.org/10.7202/705421ar.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
La connaissance des champs pluviométriques annuels est importante dans les zones arides et semi-arides où la gestion de l'eau est un exercice permanent d'aménagement de la pénurie, comme cela est le cas au Nord du Mexique. On se propose de montrer ici qu'une meilleure connaissance des disponibilités en eau peut s'appuyer sur la détermination de régions pluviométriquement homogènes à partir de diverses méthodes complémentaires ou convergentes. Pour définir des régions homogènes, on part de la répartition des stations par rapport à la régression pluviométrie/altitude. Des analyses factorielles en composantes principales et des correspondances permettent également de proposer des régions homogènes suivant des variables définies et disponibles pour toutes les stations. On s'appuie aussi sur les régimes pluviométriques pour déterminer d'autres régionalisations. Parallèlement on a pu utiliser la répartition des stations par rapport au gradient altitudinal pour créer des régions dont l'homogénéité vis-à-vis des précipitations a pu être vérifiée par la Méthode du Vecteur Régional (MVR), basée sur le principe de la pseudo-proportionnalité des données de postes proches. La comparaison des résultats obtenus par chacune des méthodes permet de constater que dans la région traitée, les limites entre régions " homogènes " sont souvent les mêmes, bien que les modes de détermination soient différents. Enfin, les différences apportent une information supplémentaire pour la compréhension des mécanismes locaux ou régionaux de la répartition des champs de pluie.

Thèses sur le sujet "Gestion des données basée sur des connaissances":

1

L'Héritier, Cécile. « Une approche de retour d’expérience basée sur l’analyse multicritère et l’extraction de connaissances : Application au domaine humanitaire ». Thesis, Nîmes, 2020. http://www.theses.fr/2020NIME0001.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Ce sujet de recherche est centré sur la problématique de gestion des connaissances et des savoir-faire au sein d’une l’organisation humanitaire intervenant en situations d’urgence. Dans le contexte d’une ONG, possédant une grande richesse immatérielle, la capitalisation – et à plus grande échelle de la gestion de connaissance – répond à des enjeux à la fois opérationnels et stratégiques. Les objectifs de ce travail de recherche consistent donc, dans une première phase, à définir, développer puis tester et valider des méthodes et outils adaptés pour mener une capitalisation au sein de l’organisation grâce au retour d’expérience. Dans un second temps, l’exploitation et l’analyse des récits et des données extraites permettront de définir les processus de décision qui ont été impliqués pour résoudre une situation d’urgence donnée. Plus précisément, il s’agira d’expliquer pourquoi et comment les décisions ont été prises en situation d’urgence. L’objectif sera de dégager, non pas une somme d’information mais une manière de réfléchir et de raisonner, transférable et réutilisable permettant de résoudre d’autres situations présentant des similitudes. L’ensemble de ce travail fournira des éléments et outils permettant l’amélioration des pratiques et leur diffusion ou transmission en facilitant et en rendant plus efficace la formation au sein de l’organisation. Le retour d’expérience, RETEX, sera abordé comme un des éléments d’une démarche de progrès, et non comme une évaluation formulant un jugement sur l’action par rapport à un cadre règlementaire. La capitalisation doit révéler la manière qui a permis d’atteindre le but, sans en juger la qualité. En effet, ici, l’objectif du RETEX n’est pas de mettre en lumière un dysfonctionnement, mais de mettre en place un historique des activités et processus déployés et de porter un regard critique sur leur gestion. Compte tenu, de la différence de contexte entre ONG et structures industrielles privées ; il est primordial d’extrapoler et d’adapter les méthodes de RETEX existantes pour l’industrie. Il s’agit donc ici de développer une méthodologie adaptée pour répondre aux problématiques spécifiques des organisations humanitaires. La méthodologie proposée sera testée et validée avec une ou plusieurs études de cas et permettra la formalisation de l'expérience, essentielle pour la rendre exploitable. Le travail s’attachera également à identifier et analyser les indicateurs de prise de décision dans les différents retours d’expérience et études de cas traités pour être en mesure d’expliquer la décision et en extraire une façon de réfléchir, et de éléments de l’ordre méthodologique
Because of its critical impacts on performance and competitivity, organizations’ knowledge is today considered to be an invaluable asset. In this context, the development of methods and frameworks aiming at improving knowledge preservation and exploitation is of major interest. Within Lessons Learned framework – which proposes relevant methods to tackle these challenges –, we propose to work on an approach mixing Knowledge Representation, Multiple-Criteria Decision Analysis and Inductive Reasoning for inferring general learnings by analyzing past experiences. The proposed approach, which is founded on a specific case-based reasoning, intends to study the similarities of past experiences – shared features, patterns – and their potential influence on the overall success of cases through the identification of a set of criteria having a major contribution on this success. For the purpose of highlighting this potential causal link to infer general learnings, we envisage relying on inductive reasoning techniques. The considered work will be developed and validated through the scope of a humanitarian organization, Médecins Sans Frontières, with a focus on the logistical response in emergency situations
2

You, Wei. « Un système à l'approche basée sur le contenu pour la recommandation personnalisée d'articles de recherche ». Compiègne, 2011. http://www.theses.fr/2011COMP1922.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
La recommandation personnalisée d'article de recherche filtre les publications selon les centres d'intérêt spécifiques en recherche des utilisateurs, et, bien menée, pourrait considérablement alléger le problème de la surcharge d'informations. Le filtrage basé sur le contenu est une solution prometteuse pour cette tâche parce qu'elle exploite efficacement la nature textuelle des articles de recherche. En général, la recommandation d'articles de recherche basée sur le contenu pose trois questions essentielles : la représentation des articles candidats, la construction du profil utilisateur, et la conception d'un modèle qui permette de comparer la représentation du contenu des articles candidats avec la représentation des intérêts de l'utilisateur cible. Dans cette thèse, nous développons tout d'abord une technique d'extraction automatique d'expressions-clés pour représenter les articles scientifiques. Cette technique améliore les approches existantes en utilisant une localisation plus précise des expressions-clés potentielles et une nouvelle stratégie pour éliminer le chevauchement dans la liste de sortie. Cette technique est un acteur majeur du système : en effet, non seulement elle fournit une représentation de l'article candidat, mais elle est également réutilisée pour la construction de l'ontologie de domaine, et pour l'analyse des articles appartenant à l'histoire des utilisateurs. Ensuite, pour la construction du profil utilisateur, nous proposons une nouvelle approche basée sur les ontologies. Le profil ontologique de l'utilisateur peut être décrit comme suit : tous les utilisateurs partagent une ontologie de domaine commune qui représente la base de connaissances des utilisateurs. Pour chaque utilisateur, nous créons alors une instance personnelle de l'ontologie étendue pour représenter ses besoins spécifiques. Cette instance personnelle contient tous les concepts intéressants pour l'utilisateur, et chaque concept est annoté par un score d'intérêt qui reflète le degré d'intérêt de l'utilisateur pour ce concept. On distingue les chercheurs chevronnés et les jeunes chercheurs en dérivant leurs intérêts en recherche individuelle à partir des différents ensembles de leur histoire. Nous utilisons également la structure des ontologies et appliquons l'algorithme de propagation nommé "spreading activation" pour déduire les intérêts possibles de l'utilisateur. Finalement, nous explorons un nouveau modèle pour produire des recommandations en recourant à la théorie Dempster-Shafer. On observe que quand un chercheur veut décider si oui ou non un article de recherche l'intéresse, il peut considérer le texte de l'article comme une suite d'expressions. Les expressions relatives à ses centres d'intérêt en recherche encouragent une lecture poussée de l'article, tandis que les expressions relevant de sujets qui ne l'intéressent pas diminuent son intérêt pour l'article. Notre modèle simule ce processus d'évaluation. Du point de vue de la théorie de croyance, les termes clés extraits à partir d'un article candidat peuvent être considérés comme des sources de croyance. A ces parts de croyance, notre modèle associe des degrés d'intérêt de l'utilisateur. Dés lors, comme ces croyances s'accumulent et se renforcent, une inclination prend forme et devient graduellement plus nette. Différentes d'autres mesures basées sur la similarité entre la représentation des articles candidats et les profils utilisateur, nos recommandations, produites en combinant toutes les parts de croyance, peuvent directement mesurer à quel point l'utilisateur pourrait être intéressé par l'article candidat. Les résultats expérimentaux montrent que le système que nous avons développé surpasse la plupart des approches actuelles. De plus, la méthode proposée est suffisamment générique pour permettre la résolution d'autres tâches de recommandation
Personalized research paper recommendation filters the publications according to the specific research interests of users, which could significantly alleviate the information overload problem. Content-based filtering is a promising solution for this task because it can effectively exploit the textual-nature of research papers. A content-based recommender system usually concerns three essential issues: item representation, user profiling, and a model that provides recommendations by comparing candidate item's content representation with the target user's interest representation. In this dissertation, we first propose an automatic keyphrase extraction technique for scientific documents, which improves the existing approaches by using a more precise location for potential keyphrases and a new strategy for eliminating the overlap in the output list. This technique helps to implement the representation of candidate papers and the analysis of users' history papers. Then for modeling the users' information needs, we present a new ontology-based approach. The basic idea is that each user is represented as an instance of a domain ontology in which concepts are assigned interest scores reflecting users' degree of interest. We distinguish senior researchers and junior researchers by deriving their individual research interests from different history paper sets. We also takes advantage of the structure of the ontology and apply spreading activation model to reason about the interests of users. Finally, we explore a novel model to generate recommendations by resorting to the Dempster-Shafer theory. Keyphrases extracted from the candidate paper are considered as sources of evidence. Each of them are linked to different levels of user interest and the strength of each link is quantified. Different from other similarity measures between user profiles and candidate papers, our recommendation result produced by combining all evidence is able to directly indicate the possibility that a user might be interested in the candidate paper. Experimental results show that the system we developed for personalized research paper recommendation outperforms other state-of-the-art approaches. The proposed method can be used as a generic way for addressing different types of recommendation problems
3

Bruneau, Marina. « Une méthodologie de Reverse Engineering à partir de données hétérogènes pour les pièces et assemblages mécaniques ». Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2267/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette thèse traite d'une méthodologie de Reverse Engineering (RE) d'assemblages mécaniques à partir de données hétérogènes dans un contexte routinier. Cette activité consiste à partir d'un produit ou d'un assemblage, à récupérer la donnée numérique en partant de la donnée physique dans le but de reconstruire sa ma­quette numérique. Plusieurs techniques de numérisation peuvent être employées et permettent de générer des données de différents types (ex : nuage de points, photographies). Ces dernières sont utilisées comme données d'entrée à notre pro­cessus de RE et peuvent aussi être associées à des données liées au produit, exis­tantes au préalable, telles que des mises en plan ou encore une version antérieure de la maquette numérique du produit. Le traitement de l'ensemble de ces don­nées, dites "hétérogènes", requiert une solution qui soit capable de gérer d'une part, l'hétérogénéité des données et des informations qu'elles contiennent et d'autre part, l'incomplétude de certaines données qui est liée au bruit ou à la technologie utilisée pour numériser l'assemblage (ex : scanner ou photographie). Enfin la pertinence des informations extraites lors de la phase de traitement doit permettre, dans cer­tains cas, de générer des modèles CAO paramétrés, propres à l'activité de RE de l'entreprise ou du domaine d'application. L'état de l'art sur la reconnaissance de formes dans des données hétérogènes ainsi que sur la gestion de connaissances dans le cadre d'activités routinières, pro­pose des approches qui traitent soit d'un seul type de données, soit du RE de pièce unique ou soit elles ne permettent pas d'obtenir un modèle CAO qui soit exploitable (paramétrage géométrique des entités) pour une activité de RE. Cette thèse propose une méthodologie nommée Heterogeneous Data Integration for Reverse Engineering (HDI-RE) et qui se décompose en trois étapes : la seg­mentation, la signature et la comparaison avec une base de connaissances. Le but de cette méthode est d'automatiser le processus de RE et notamment en ce qui concerne les étapes de reconnaissance de composants dans les données d'entrée et d'aide à la reconstruction de modèles CAO (paramétrés ou non) en récupérant des informations géométriques et topologiques dans des données d'entrée. Pour cela, ces dernières sont segmentées afin d'en extraire des informations qui sont en­ suite formalisées sous la forme de signatures. Les signatures générées sont ensuite comparées à une base de connaissances comportant un ensemble de signatures de différents types et appartenant à des produits ou objets déjà connus. Le calcul des similarités issu de la comparaison permet d'identifier les composants présents dans les données en entrée. L'apport scientifique de ces travaux repose principalement sur l'utilisation de sig­natures qui, en fonction du souhait de l'utilisateur, permettent de reconstruire une maquette numérique en sortie du processus de RE avec trois niveaux d'information : un niveau global, un niveau géométrique et topologique ou un niveau fonctionnel. Par rapport à chaque niveau et du type de données traité, un mécanisme de signa­ture dédié est proposé
This thesis deals with a methodology of Reverse Engineering (RE) of mechanical assemblies from heterogeneous data in a routine context. This activity consists, from the existing data of a part or an assembly, in rebuilding their digital mock-up. The data used in entrance of our process of RE can be drawings, photos, points clouds or another existing version of the digital mock-up. The proposed approach, called Heterogeneous Data Integration for Reverse Engineering (HDI-RE), is divided into three steps : the segmentation, the signature and the comparison of the initial data with a knowledge database. The signatures of the studied object are compared with the signatures of the same type existing in the database in order to extract components ordered by similarity (distance with the object). The parameterized digital mock-up which is the most similar to the object is then extracted and its parameters identified from the initial data. Data set processing, called "heterogeneous" data, requires a solution which is able to manage on one hand, the heterogeneousness of the data and the information which they contain and on the other hand, the incompleteness of some data which are in link with the noise (into points cloud) or with the technology used to digitize the assembly (ex: scanner or photography)
4

Romero, Julien. « Harvesting commonsense and hidden knowledge from web services ». Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT032.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
In this thesis, we harvest knowledge of two different types from online resources . The first one is commonsense knowledge, i.e. intuitive knowledge shared by most people like ``the sky is blue''. We extract salient statements from query logs and question-answering by carefully designing question patterns. Next, we validate our statements by querying other web sources such as Wikipedia, Google Books, or image tags from Flickr. We aggregate these signals to create a final score for each statement. We obtain a knowledge base, QUASIMODO, which, compared to its competitors, has better precision and captures more salient facts.Dans cette thèse, nous collectons sur le web deux types de connaissances. Le premier porte sur le sens commun, i.e. des connaissances intuitives partagées par la plupart des gens comme ``le ciel est bleu''. Nous utilisons des logs de requêtes et des forums de questions-réponses pour extraire des faits essentiels grâce à des questions avec une forme particulière. Ensuite, nous validons nos affirmations grâce à d'autres ressources comme Wikipedia, Google Books ou les tags d'images sur Flickr. Finalement, nous groupons tous les signaux pour donner un score à chaque fait. Nous obtenons une base de connaissance, QUASIMODO, qui, comparée à ses concurrents, montre une plus grande précision et collecte plus de faits essentiels.Le deuxième type de connaissances qui nous intéresse sont les connaissances cachées, i.e. qui ne sont pas directement données par un fournisseur de données. En effet, les services web donnent généralement un accès partiel à l'information. Il faut donc combiner des méthodes d'accès pour obtenir plus de connaissances: c'est de la réécriture de requête. Dans un premier scénario, nous étudions le cas où les fonctions ont la forme d'un chemin, la base de donnée est contrainte par des "dépendences d'inclusion unitaires" et les requêtes sont atomiques. Nous montrons que le problème est alors décidable en temps polynomial. Ensuite, nous retirons toutes les contraites et nous créons un nouvelle catégorie pertinente de plans: les "smart plans". Nous montrons qu'il est décidable de les trouver
In this thesis, we harvest knowledge of two different types from online resources . The first one is commonsense knowledge, i.e. intuitive knowledge shared by most people like ``the sky is blue''. We extract salient statements from query logs and question-answering by carefully designing question patterns. Next, we validate our statements by querying other web sources such as Wikipedia, Google Books, or image tags from Flickr. We aggregate these signals to create a final score for each statement. We obtain a knowledge base, QUASIMODO, which, compared to its competitors, has better precision and captures more salient facts.The other kind of knowledge we investigate is hidden knowledge, i.e. knowledge not directly given by a data provider. More concretely, some Web services allow accessing the data only through predefined access functions. To answer a user query, we have to combine different such access functions, i.e., we have to rewrite the query in terms of the functions. We study two different scenarios: In the first scenario, the access functions have the shape of a path, the knowledge base respects constraints called ``Unary Inclusion Dependencies'', and the query is atomic. We show that the problem is decidable in polynomial time, and we provide an algorithm with theoretical evidence. In the second scenario, we remove the constraints and create a new class of relevant plans called "smart plans". We show that it is decidable to find these plans and we provide an algorithm
5

Pérution-Kihli, Guillaume. « Data Management in the Existential Rule Framework : Translation of Queries and Constraints ». Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. https://ged.scdi-montpellier.fr/florabium/jsp/nnt.jsp?nnt=2023UMONS030.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Le contexte général de ce travail est la problématique de la conception de systèmes de haute qualité intégrant plusieurs sources de données via une couche sémantique codée dans un langage de représentation et de raisonnement sur les connaissances. Nous considérons les systèmes de gestion de données basés sur des connaissances (KBDM), qui sont structurés en trois couches : la couche de données, qui comprend les sources de données, la couche de connaissances (ou ontologique), et les mappings entre les deux. Les mappings et les connaissances sont exprimés dans le cadre des règles existentielles. Une des difficultés intrinsèques à la conception d'un système KBDM est la nécessité de comprendre le contenu des sources de données. Les sources de données sont souvent fournies avec des requêtes et des contraintes typiques, à partir desquelles on peut tirer des informations précieuses sur leur sémantique, tant que cette information est rendue intelligible aux concepteurs du système KBDM. Cela nous amène à notre question centrale : est-il possible de traduire les requêtes et les contraintes des données au niveau de la connaissance tout en préservant leur sémantique ? Les principales contributions de cette thèse sont les suivantes. Nous étendons les travaux antérieurs sur la traduction de requêtes sur les données vers l'ontologie avec de nouvelles techniques pour le calcul de traductions de requêtes parfaites, minimalement complètes ou maximalement adéquates. En ce qui concerne la traduction des contraintes sur les données vers l'ontologie, nous définissons un cadre général et l'appliquons à plusieurs classes de contraintes. Enfin, nous fournissons un opérateur de réécriture de requêtes adéquat et complet pour les règles existentielles disjonctives et les mappings disjonctifs, ainsi que des résultats d'indécidabilité, qui sont d'un intérêt indépendant
The general context of this work is the issue of designing high-quality systems that integrate multiple data sources via a semantic layer encoded in a knowledge representation and reasoning language. We consider knowledge-based data management (KBDM) systems, which are structured in three layers: the data layer, which comprises the data sources, the knowledge (or ontological) layer, and the mappings between the two. Mappings and knowledge are expressed within the existential rule framework. One of the intrinsic difficulties in designing a KBDM is the need to understand the content of data sources. Data sources are often provided with typical queries and constraints, from which valuable information about their semantics can be drawn, as long as this information is made intelligible to KBDM designers. This motivates our core question: is it possible to translate data queries and constraints at the knowledge level while preserving their semantics?The main contributions of this thesis are the following. We extend previous work on data-to-ontology query translation with new techniques for the computation of perfect, minimally complete, or maximally sound query translations. Concerning data-to-ontology constraint translation, we define a general framework and apply it to several classes of constraints. Finally, we provide a sound and complete query rewriting operator for disjunctive existential rules and disjunctive mappings, as well as undecidability results, which are of independent interest
6

Antoine, Emilien. « Distributed data management with a declarative rule-based language webdamlog ». Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00933808.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Our goal is to enable aWeb user to easily specify distributed data managementtasks in place, i.e. without centralizing the data to a single provider. Oursystem is therefore not a replacement for Facebook, or any centralized system,but an alternative that allows users to launch their own peers on their machinesprocessing their own local personal data, and possibly collaborating with Webservices.We introduce Webdamlog, a datalog-style language for managing distributeddata and knowledge. The language extends datalog in a numberof ways, notably with a novel feature, namely delegation, allowing peersto exchange not only facts but also rules. We present a user study thatdemonstrates the usability of the language. We describe a Webdamlog enginethat extends a distributed datalog engine, namely Bud, with the supportof delegation and of a number of other novelties of Webdamlog such as thepossibility to have variables denoting peers or relations. We mention noveloptimization techniques, notably one based on the provenance of facts andrules. We exhibit experiments that demonstrate that the rich features ofWebdamlog can be supported at reasonable cost and that the engine scales tolarge volumes of data. Finally, we discuss the implementation of a Webdamlogpeer system that provides an environment for the engine. In particular, a peersupports wrappers to exchange Webdamlog data with non-Webdamlog peers.We illustrate these peers by presenting a picture management applicationthat we used for demonstration purposes.
7

Yassir-Montet, Djida. « Une Approche hybride de gestion des connaissances basée sur les ontologies : application aux incidents informatiques ». Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0110/these.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Le travail développé dans cette thèse concerne la problématique de gestion des connaissances au sein des organisations. Le but est de proposer des aides méthodologiques et des outils facilitant la capitalisation et la réutilisation des connaissances produites et/ou utilisées par les acteurs d’une entreprise. Nous avons proposé une approche hybride basée sur une ontologie du domaine. La mise en œuvre de cette approche privilégie l’utilisation des techniques du web sémantique tels que XML et OWL. Dans ce contexte, nous avons conçu une mémoire d’entreprise pouvant s’interfacer avec le système d’information de l’entreprise. En nous plaçant dans le contexte d’applications logicielles produites et/ ou mises en production par le CIRTIL, organisme attaché à la sécurité sociale, pour le compte de ses clients qui sont les URSSAF, nous avons élaboré une ontologie du domaine des incidents informatiques. Cette ontologie est considérée comme un modèle qui permet, en plus des représentations formelles et consensuelles des connaissances du domaine, un accès unique aux ressources de connaissances via une terminologie partageable et non ambiguë tout en offrant des mécanismes de raisonnement sur les connaissances modélisées
The work developped in this thesis deals with the problem of knowledge management within the organizations. Its aim is to propose methodological assistances and tools fa-cilitating the capitalization and reuse of knowledge producted and/or used by the actors of a company. We have suggested a hybrid approach based on a domain ontology. Set-tling down this approach requires the use of the techniques of the semantic Web such as XML and OWL. In this context, we have designed a corporate memory being able to interface with the information system of the company. Looking focustly on the context of software applications produced and/or being in production by the CIRTIL, organiza-tion attached to the social security in France for the account of its customers which are the URSSAF, we have developed a domain ontology of tha data-processing incidents. This ontology is regarded as a model which allows not only formal and consensual rep-resentations of knowledge of the field, but also a single access to knowledge resources thanks a shareable and nonambiguous terminology while offering mechanisms of rason-ing on modelled knowledge
8

Chamekh, Fatma. « L’évolution du web de données basée sur un système multi-agents ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE3083/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette thèse porte sur la modélisation d’un système d’aide à l’évolution du web de données en utilisant un système multi-agents. Plus particulièrement, elle a pour but de guider l’utilisateur dans sa démarche de modification d’une base de connaissances RDF. Elle aborde les problématiques suivantes : intégrer de nouveaux triplets résultant de l'annotation des documents, proposer le changement adéquat dans les deux niveaux, ontologie et données, en se basant sur des mesures de similarités, analyser les effets de changements sur la qualité des données et la gestion des versions en prenant en considération d'éventuels conflits. Cette question de recherche complexe engendre plusieurs problématiques dont les réponses sont dépendantes les unes des autres. Pour cela, nous nous sommes orientées vers le paradigme agent pour décomposer le problème. Il s’agit de répartir les tâches dans des agents. La coopération entre les agents permet de répondre au besoin de dépendance évoqué ci-dessus pour bénéficier de l’aspect dynamique et combler les inconvénients d’un système modulaire classique. Le choix d’un tel écosystème nous a permis de proposer une démarche d’évaluation de la qualité des données en employant un modèle d’argumentation. Il s’agit d’établir un consensus entre les agents pour prendre en considération les trois dimensions intrinsèques : la cohérence, la concision la complétude, la validation syntaxique et sémantique. Nous avons modélisé les métriques d’évaluation de chaque dimension sous forme d’arguments. L’acceptation ou pas d’un argument se décide via les préférences des agents.Chaque modification donne lieu à une nouvelle version de la base de connaissances RDF. Nous avons choisi de garder la dernière version de la base de connaissances. Pour cette raison, nous avons choisi de préserver les URI des ressources. Pour garder la trace des changements, nous annotons chaque ressource modifiée. Néanmoins, une base de connaissances peut être modifiée par plusieurs collaborateurs ce qui peut engendrer des conflits. Ils sont conjointement le résultat d’intégration de plusieurs données et le chevauchement des buts des agents. Pour gérer ces conflits, nous avons défini des règles. Nous avons appliqué notre travail de recherche au domaine de médecine générale
In this thesis, we investigate the evolution of RDF datasets from documents and LOD. We identify the following issues : the integration of new triples, the proposition of changes by taking into account the data quality and the management of differents versions.To handle with the complexity of the web of data evolution, we propose an agent based argumentation framework. We assume that the agent specifications could facilitate the process of RDF dataset evolution. The agent technology is one of the most useful solution to cope with a complex problem. The agents work as a team and are autonomous in the sense that they have the ability to decide themselves which goals they should adopt and how these goals should be acheived. The Agents use argumentation theory to reach a consensus about the best change alternative. Relatively to this goal, we propose an argumentation model based on the metric related to the intrinsic dimensions.To keep a record of all the occured modifications, we are focused on the ressource version. In the case of a collaborative environment, several conflicts could be generated. To manage those conflicts, we define rules.The exploited domain is general medecine
9

Jaillet, Simon. « Catégorisation automatique de documents textuels : D'une représentation basée sur les concepts aux motifs séquentiels ». Montpellier 2, 2005. http://www.theses.fr/2005MON20030.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Ouertani, Mohamed Zied. « DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception ». Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00163113.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.
C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.
Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.

Livres sur le sujet "Gestion des données basée sur des connaissances":

1

Ontario. Esquisse de cours 12e année : Mathématiques de la gestion des données mdm4u cours préuniversitaire. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Ontario. Esquisse de cours 12e année : Gestion d'une entreprise bog4e. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Ontario. Esquisse de cours 12e année : Environnement et gestion des ressources cgr4e cours préemploi. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Ontario. Esquisse de cours 12e année : Environnement et gestion des ressources cgr4m cours préuniversitaire. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Ontario. Esquisse de cours 12e année : Sciences de l'activité physique pse4u cours préuniversitaire. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Ontario. Esquisse de cours 12e année : Technologie de l'information en affaires btx4e cours préemploi. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Ontario. Esquisse de cours 12e année : Études informatiques ics4m cours préuniversitaire. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Ontario. Esquisse de cours 12e année : Mathématiques de la technologie au collège mct4c cours précollégial. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ontario. Esquisse de cours 12e année : Sciences snc4m cours préuniversitaire. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Ontario. Esquisse de cours 12e année : English eae4e cours préemploi. Vanier, Ont : CFORP, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Actes de conférences sur le sujet "Gestion des données basée sur des connaissances":

1

Fricain, J. C. « Mucites : une prise en charge basée sur la preuve ». Dans 66ème Congrès de la SFCO. Les Ulis, France : EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601008.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les mucites sont des inflammations muqueuses secondaires à un traitement anticancéreux : radiothérapie, chimiothé- rapie, thérapie ciblée. Les mucites se développent sur l’ensemble du tractus digestif, de la bouche à lanus. La sévérité des mucites orales conditionne lalimentation et par conséquent le pronostic de la maladie. Le traitement des mucites orales reste très dépendant des centres doncologie et des habitudes locales. L’objectif de cette présentation est de faire un état des lieux des connaissances actuelles sur les mucites et de leurs traitements en mettant en exergue les données de médecine basée sur la preuve de ce domaine thérapeutique.

Rapports d'organisations sur le sujet "Gestion des données basée sur des connaissances":

1

Tea, Céline. REX et données subjectives : quel système d'information pour la gestion des risques ? Fondation pour une culture de sécurité industrielle, avril 2012. http://dx.doi.org/10.57071/170rex.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
2

Brinkerhoff, Derick W., Sarah Frazer et Lisa McGregor. S'adapter pour apprendre et apprendre pour s'adapter : conseils pratiques tirés de projets de développement internationaux. RTI Press, janvier 2018. http://dx.doi.org/10.3768/rtipress.2018.pb.0015.1801.fr.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les principes de programmation et de gestion adaptables centrés sur l’apprentissage, l’expérimentation et la prise de décisions basée sur des faits gagnent en popularité chez les bailleurs de fonds et les partenaires de mise en œuvre dans le monde du développement international. L'adaptation exige un apprentissage de manière à ce que les ajustements apportés au cours du projet soient éclairés. Cela exige des méthodes de collecte d’informations qui fassent la promotion de la réflexion, de l’apprentissage et de l’adaptation, au-delà de données préalablement précisées. Une concentration sur l’adaptation modifie la réflexion traditionnelle sur le cycle des programmes. D'une part, elle fait disparaître les séparations entre la conception, la mise en œuvre et l’évaluation et, d'autre part, elle recadre la réflexion pour prendre en compte la complexité des problèmes de développement et des voies de changements non linéaires. Le soutien de structures et de processus de gestion est essentiel pour encourager la gestion adaptable. Les organisations de mise en œuvre et les bailleurs defonds expérimentent avec la manière dont les passations de marchés, la sous-traitance, la planification du travail et les rapports peuvent être modifiés afin que la programmation adaptable soit encouragée. Des systèmes de suivi, d’évaluation et d’apprentissage bien conçus peuvent aller au-delà des exigences en matière de redevabilité et de rapports pour produire des données et des enseignements pour une prise de décisions et une gestion adaptable basées sur les faits. Il est important de continuer l’expérimentation et l’apprentissage de manière à intégrer la programmation et la gestion adaptable dans les politiques et pratiques opérationnelles des bailleurs de fonds, despartenaires pays et des entités de mise en œuvre. Nous devons consacrer des efforts continus à la constitution d'une base de faits qui pourra contribuer àla gestion adaptable de manière à ce que les résultats de développement international soient atteints.
3

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, décembre 2022. http://dx.doi.org/10.54932/wodt6646.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.

Vers la bibliographie