Academic literature on the topic 'Guide d'information'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Guide d'information.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Guide d'information"

1

Bourque, Paul. "Clinical Gerontology: A Guide to Assessment and Intervention, T.L. Brink (Ed.). The Haworth Press, New York, 1986, 517 pp. (hardcover)." Canadian Journal on Aging / La Revue canadienne du vieillissement 6, no. 4 (1987): 333–35. http://dx.doi.org/10.1017/s0714980800007637.

Full text
Abstract:
RÉSUMÉCe livre contient une série d'articles publiés dans plusieurs numéros de la publication trimestrielle Clinical Gerontologist: the Journal of Aging and Mental Health. Ce qui le distingue cependant est le Manuel de l'éducateur qui l'accompagne; celui-ci en effet esquisse les grandes lignes d'un cours de gérontologie clinique. Le but principal du livre est de renseigner et de tenir au courant les professionnels et les chercheurs qui oeuvrent au domaine de la santé mentale sur des méthodes d'évaluation et d'intervention choisies en psychogériatrie. La majeure partie des collaborateurs sont des spécialistes accomplis dans leur domaine respectif. La plupart des chapitres contiennent plusieurs exemples ainsi que des références actuelles. Ce livre représente une importante source d'information concise et détaillée pour les professionnels au domaine de la santé mentale.
APA, Harvard, Vancouver, ISO, and other styles
2

Frazier, Leslie D. "William J. Weiner, Lisa M. Shulman, and Anthony E. Lang Parkinson's disease: A complete guide for patients and families. Baltimore, MD: Johns Hopkins University Press, 2001." Canadian Journal on Aging / La Revue canadienne du vieillissement 21, no. 2 (2002): 317–19. http://dx.doi.org/10.1017/s0714980800001598.

Full text
Abstract:
RÉSUMÉLa maladie de Parkinson est une affection chronique neurologique dégénérative qui affecte environ un million de personnes en Amérique du Nord. Or, tous les patients atteints de la maladie doivent être bien informés; ils ont surtout besoin d'en comprendre les symptômes et la progression pour être en mesure de l'affronter efficacement. Parkinsons disease: A complete guide for patients and families par Weiner, Shulman et Lang (2001) constitue une ressource précieuse pour les patients, leurs familles et les soignants qui travaillent auprès de cette population. Le livre fournit une bonne quantité d'information biomédicale sur la maladie. Les données sont communiquées selon un modèle élémentaire qui éduque le lecteur mais qui lui permet aussi de s'assumer et qui lui aide éventuellement à faire face à sa maladie. Le livre présente toutefois certaines faiblesses qu'il faut signaler, dont entre autres, le fait que l'approche biomédicale écarte les questions psychosociales reliées à la maladie. Une autre faiblesse porte sur l'absence de mention des efforts scientifiques récents dans d'autres secteurs que la médecine clinique. Enfin, il porte peu d'attention aux interventions thérapeutiques qui ne sont pas du domaine médical ou pharmacologique. Les auteurs renvoient à d'autres sources les lecteurs qui souhaitent se renseigner sur ces éléments.
APA, Harvard, Vancouver, ISO, and other styles
3

Plamondon, Louis, and Gilles Plamondon. "Pour une problématique de la crise de retraite." Santé mentale au Québec 5, no. 2 (2006): 12–21. http://dx.doi.org/10.7202/030072ar.

Full text
Abstract:
Ce texte est un document de travail élaboré à l'occasion de multiples interventions en préparation à la retraite. Nous avions pour tâche de préparer les gens à leur retraite, laquelle était compromise par l'absence de références solides sur les impacts psychosociaux de la mise à la retraite. Nous avons alors profité des sessions, principalement des soirées « adaptation à la retraite », pour recenser et explorer avec les participants les événements anticipés et vécus comme importants dans la mise à la retraite. Cette cueillette d'information et cette exploration nous a donné une nomenclature très diversifiée et non systématique des changements appréhendés. Par la suite, nous avons organisé cette information en la regroupant sous des thèmes qui apparaissaient les plus récurrents et les plus susceptibles de rendre compte de la diversité et de la communauté des expériences. Ces thèmes furent ensuite classés selon trois niveaux de transformation : modification du réseau social, du réseau familial et modification de la perception de soi. Nous avions en main un premier tableau pouvant servir de guide à l'intervention. Il fut utilisé comme tel et les résultats nous permirent de le réajuster et de le compléter selon les feed-back vécus. Cela fait, nous disposions d'un portrait global des transformations dûes à la mise à la retraite.
APA, Harvard, Vancouver, ISO, and other styles
4

Béland, François, and Delphine Arweiler. "Conceptual Framework for Development of Long-Term Care Policy 2. Conceptual Model." Canadian Journal on Aging / La Revue canadienne du vieillissement 15, no. 4 (1996): 682–97. http://dx.doi.org/10.1017/s0714980800009478.

Full text
Abstract:
RÉSUMÉLa planification des services de longue durée (SLD) s'organise autour de quatre themes: (1) le développement d'un ordre de priorités qui referent au monde des valeurs, (2) la mise sur pied d'organisations de prestation de services régis par un ensemble de regies et de procedures, (3) le choix d'objectifs qui engagent les acteurs et les organisations et, (4) la mobilisation de ressources. Un schema conceptuel pour la planification des SLD peut emprunter à chacun de ces quatre elements structuraux. Mais ces elements risquent de rester qu'un ensemble de concepts plus ou moins disparates, plus ou moins lies entre eux de façon intuitive. Des processus d'action établissent des liens entre ces elements. Le nombre total de rapports possibles entre les quatre elements de la planification sont au nombre de 12, mais puisque ces quatre elements s'influencent mutuellement, les processus qui les unissent doivent refléter ce double mouvement. Nous avons done identifïé 12 différents processus qui doivent ètre examines dans tout effort de planification des SLD. Ces processus permettent à l'information contenue dans les quatre elements structuraux de circuler les uns vers les autres. Par exemple, les elements de priorité, d'organisation et d'objectifs sont des sources d'information pour le choix de critères d'allocation des ressources. Les processus construisent done des ponts entre les elements de la planification, des ponts qui doivent tous ètre empruntés dans toute demarche de planification pour assurer que tous les elements soient pris en consideration, sans que l'un soit négligé au profit d'un autre. Done, peu importe l'élément de la planification choisi comme point de depart dans un effort de planification des SLD, les processus unissent les elements structuraux en un tout. Notre schema conceptuel, s'il est utilise comme guide, permet de couvrir le champ des SLD, tout le champ qu'il a saisi.
APA, Harvard, Vancouver, ISO, and other styles
5

Lesquelen, Anne, Aziza Ghazouani, Hubert Galmiche, Gregory Emery, Chantal Belorgey, and Jacques Belghiti. "OP124 Can Registry Failures Be Compensated By Medico-Administrative Database." International Journal of Technology Assessment in Health Care 33, S1 (2017): 56–57. http://dx.doi.org/10.1017/s0266462317001854.

Full text
Abstract:
INTRODUCTION:Post-approval studies (PAS) constitute an important tool in medical devices (MD) assessment usually supported by registries. However, registries are often poorly designed or incomplete. The French health insurance databases are organized since 2003 into a digital data warehouse, the Système national d'information inter-régime de l'assurance maladie (SNIIR-AM), and is the main source of information on patients, hospital activity and associated expenditure. The aim of the study was to determine if these medico-administrative data can be sufficiently relevant to guide a renewal of MD reimbursement in the context of registry failure.METHODS:The initial PAS aimed to assess the impact of the guidelines on practice (characteristics of patients, type of stenosis, indications, use of cerebral protection system, surgical procedure) and to determine the 30-day cumulative morbidity and mortality rate of endovascular procedure associated with stenting. Medico-administrative databases provide information on age, sex, symptomatic or asymptomatic stenosis in-hospital mortality and long-term mortality (with a linkage to epidemiological data) and morbidity estimated by ischemic stroke.RESULTS:The database allowed selection of a cohort of 2,071 patients in whom carotid stenting was performed in 161 centers (40 percent of stents were implanted in 14 centers) with a follow-up of 1 year. Carotid stents were mainly implanted in asymptomatic patients (81.6 percent). Morbi-mortality in symptomatic patients at 30 days (9.2 percent: 5.7 percent stroke and 3.4 percent mortality) was similar with results observed in a French comparative study EVA-3S (9.6 percent: 2.8 percent stroke and 8.8 percent mortality). These data allow the concerned HAS (French Health Authority) committee to renew the reimbursement proposal of these stents.CONCLUSIONS:Medico-administrative database collecting robust criteria can be used to support reimbursement renewal of high risk implantable medical devices. The implementation of other criteria including the disease etiology and the complications imputability may allow to consider the use of these data for non-invasive MD.
APA, Harvard, Vancouver, ISO, and other styles
6

Ross, Vincent, and Henri Tremblay. "Animation sociale et solidarités de support dans l'expérience Tévec." Articles 12, no. 1 (2005): 77–98. http://dx.doi.org/10.7202/055515ar.

Full text
Abstract:
Les formules les plus courantes caractérisant la conception et l'utilisation des moyens modernes de communication impliquent davantage une mentalité de diffuseur qu'une mentalité de communication, « c'est-à-dire qu'on essaie de propager des messages à l'adresse d'une opinion publique mythique sans s'occuper d'entrer dans une vraie relation avec les récepteurs Or cette mentalité de diffuseur prévaut aussi bien dans le domaine de la publicité que dans celui de la diffusion d'informations au sens large. C'est contre cette « mentalité de diffuseur » qu'une expérience de télévision éducative comme celle de Tévec s'inscrit nécessairement puisque, pour être dite éducative au sens strict et non « culturelle » au sens courant, une communication de messages doit s'appuyer et se guider sur un feedback systématisé provenant des récepteurs. Dépassant le cadre de la communication « scolaire », nous voulons ici nous attarder à l'ensemble des processus de participation déclenchés par Tévec, sans pouvoir évidemment offrir de réponse globale ou exhaustive à ces préoccupations. Il s'agira seulement d'examiner quelques-uns des processus réels en cause et non de chercher à déterminer jusqu'à quel point Tévec s'est rapproché idéalement de la « mentalité de communication ».
APA, Harvard, Vancouver, ISO, and other styles
7

Lavoie, Elzéar. "L'évolution de la radio au Canada français avant 1940." Articles 12, no. 1 (2005): 17–49. http://dx.doi.org/10.7202/055513ar.

Full text
Abstract:
Même si la radiodiffusion aura bientôt cinquante ans d'âge au Québec, elle n'a pas encore fait l'objet d'une véritable recherche historique. André Charbonneau a consacré en 1964 une trentaine de pages à l'historique de la radiodiffusion au Canada pour le compte de l'Institut canadien de l'éducation des adultes (ICEA), mais il s'en tient à la traditionnelle optique du statut de propriété, tout en dressant à l'occasion une chronologie des principaux événements et en donnant parfois quelques indications statistiques. Charbonneau ne faisait que reprendre le « Bref historique de la radiotélévision au Canada » paru en annexe au Rapport de la Commission Fowler (1957), travail succinct puisqu'il n'a que vingt et une pages et sans références. Comme on sait, le sens de l'évolution n'est pas le point fort des commissaires royaux ni des idéologues et juristes, mais la Commission Fowler fit légèrement mieux que la Commission Massey-Lévesque, qui ne daigna même pas songer à un historique, si bref soit-il. Tout compte fait, notre connaissance historique des débuts de la radiophonie est fort limitée pour les années 1920 et reste de nature juridique pour les années 1930. Pour les années 1950 et 1960 nous devons aux diverses commissions royales d'enquête une bonne documentation qui a été analysée par Jacques de Guise pour la Commission sur le bilinguisme et le biculturalisme. Enfin, depuis 1957, Radio-Canada a établi à Montréal un Service des recherches et sondages dont la production mériterait d'être connue, à cause notamment de sa grande qualité. L'obsession du statut et la faiblesse des archives d'entreprises1 expliquent que l'intérêt des historiens ne s'est pas encore porté vers ce phénomène social nouveau dans une société traditionnelle comme celle du Canada français. Bruce Raymond ne consacre qu'une trentaine de pages à la radio dans un livre de plus de deux cents pages et Albert Shea n'a qu'un chapitre de sept pages sur cent trente pour Radio-Canada. En 1962 Radio-Canada a publié pour son trentième anniversaire une brochure qui contient peu d'information. Quelques renseignements, glanés ici et là, nous permettent d'esquisser un aperçu historique des origines de la radio au Canada.
APA, Harvard, Vancouver, ISO, and other styles
8

Applebey, George. "British Legislation on Health and Safety at Work: A Reappraisal After Five Years." Les Cahiers de droit 20, no. 4 (2005): 695–724. http://dx.doi.org/10.7202/042345ar.

Full text
Abstract:
Dans le contexte du débat suscité au Québec par le projet de Loi sur la santé et la sécurité du travail (P.L. no 17 de 1979), il est intéressant de prendre connaissance des expériences législatives étrangères dans ce domaine. Ce texte fait le point sur l'expérience britannique depuis l'entrée en vigueur, en 1975, d'une nouvelle législation de portée générale. L'auteur évoque d'abord l'état du droit antérieur et les considérations qui ont guidé le législateur de Westminster dans cette réforme. Il met ensuite en relief cinq aspects principaux de la nouvelle législation. Pour chacun, il indique le sens et la portée du texte nouveau, ainsi que les suites qui lui ont été données dans la pratique. Ces cinq aspects sont le remplacement progressif de la réglementation antérieure, d'origine étatique, par des « codes de pratique » élaborés à l'initiative des organisations patronales et ouvrières ou en consultation avec elles ; renonciation des responsabilités respectives de l'employeur, du fabricant d'équipement de production et de l'employé quant à l'hygiène et à la sécurité sur les lieux de travail ; les formes d'intervention de l'autorité administrative visant à prévenir les situations d'insalubrité ou d'insécurité ou à y mettre fin; une structure administrative dualiste, comportant une commission chargée des fonctions de recherche, d'information, de consultation et d élaboration des normes, et un office chargé de l'inspection; et l'implantation dans les entreprises de délégués à la sécurité, désignés par les syndicats, et de comités de sécurité. L'auteur insiste particulièrement sur les pouvoirs des inspecteurs de l'office, et notamment sur le régime des ordonnances rendues par les inspecteurs de l'office pour contraindre l'employeur à corriger une situation dangereuse dans son entreprise ou à interrompre les activités d'exploitation jugées dangereuses, et sur les recours ouverts contre ces ordonnances. Il conclut, à la lumière des événements survenus depuis l'entrée en vigueur de la loi, que si les mesures d'inspection semblent efficaces — ni plus ni moins d'ailleurs que celles qui pouvaient être prises avant 1975 —, les aspects plus novateurs de la loi, notamment l'introduction des « codes de pratique » et celle des comités et délégués responsables de la sécurité dans les entreprises, n'ont pas encore produit les résultats escomptés.
APA, Harvard, Vancouver, ISO, and other styles
9

McDonald, Lynn. "Systems Science in Health—Social Services for the Elderly and the Disabled. C. Tilquin (ed.) Systems Science Press Offices, Montreal, Que. 1983, pp. 884." Canadian Journal on Aging / La Revue canadienne du vieillissement 6, no. 4 (1987): 329–33. http://dx.doi.org/10.1017/s0714980800007625.

Full text
Abstract:
RÉSUMÉCet énorme volume contient 172 des 211 exposés présentés lors de Systed 83, une conférence internationale spécialisée qui a eu lieu à Montréal. Le but principal de cette assemblée était de discuter des questions qui touchent les personnes du troisième âge et les handicapés, tels la condition de santé, les soins à long terme et la gamme des services sociaux dont ils disposent. Cet ouvrage comporte quatre sections principales subdivisées à leur tour en 16 différents sous-thèmes.La première section contient 51 articles qui s'adressent aux problèmes envisagéd par les personnes âgées dans la société, aux nouvelles méthodes qui pourraient améliorer les services sociaux, aux formules d'intervention innovatrices, et en conclusion, une analyse sommaire du système éducatif et des techniques d'apprentissage. La deuxième section comporte 56 articles qui examinent d'abord les méthodes d'intervention psycho-sociales, enchaîne ensuite avec une évaluation de la technologie, brosse un tableau des demandes et des besoins, examine l'utilisation et les analyses de cout, passe aux problèmes d'évaluations fonctionnelles, pour finalement explorer succinctement les problèmes qui se rattachent à la dépendance, au volume de travail et les méthodes employées pour mesurer la qualité. La troisième section, regroupant 42 articles, est consacrée aux services communautaires, notamment l'évaluation des soins à domicile, la famille, les refuges pour les sans-logis et les services de consultation externe. La dernière section, contenant 23 articles, est réservée aux problèmes administratifs. Entre autres, on y retrouve une analyse des lois et des règlements, une évaluation des besoins, les divers systèmes d'information en place et la répartition des ressources.Environ 22 articles s'adressent aux problèmes des handicapés, mentalement aussi bien que physiquement, 3 articles sur les enfants et le reste portent sur les gens âgés. En tout, 51 articles sont publiés en français et 49 d'entre eux offrent une traduction abrégée de longueur et de qualité plus ou moins uniforme. Les comptes rendus de conférence sont reconnus pour la qualité irrégulière de leur présentation et ce volume n'est pas l'exception. Chaque section contient d'excellents papiers de recherches, plusieurs sont édifiants et descriptifs, et un bon nombre auraient dû être omis. Le lecteur n'aura sûrement pas le courage de lire intégralement ce volume; cependant, les étudiants, les chercheurs, les praticiens et les administrateurs qui oeuvrent au domaine de la gérontologie et de la réhabilitation pourront se baser sur cet ouvrage en guise de manuel de référence.
APA, Harvard, Vancouver, ISO, and other styles
10

"Guide pour l'entretien médical d'information." Bulletin des Médecins Suisses 88, no. 07 (2007): 266–67. http://dx.doi.org/10.4414/bms.2007.12542.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Guide d'information"

1

Baziz, Mustapha. "Indexation conceptuelle guidée par ontologie pour la recherche d'information." Toulouse 3, 2005. http://www.theses.fr/2005TOU30265.

Full text
Abstract:
Ce travail de thèse rentre dans le cadre de l'utilisation des ontologies dans le processus de recherche d'information de manière générale, et plus particulièrement pour une représentation conceptuelle de l'information textuelle (documents/requêtes). Deux principales propositions sont détaillées. La première proposition consiste en une approche de représentation basée sur les réseaux sémantiques et la seconde sur des structures arborescentes. Dans la première approche, DocCore, la projection d'un document sur l'ontologie permet de construire le Noyau Sémantique de Document où les nœuds représentent les concepts "importants" du document et les arcs, une valeur de proximité sémantique entre ces nœuds. Dans la deuxième approche de représentation, DocTree, on exploite la hiérarchie de concepts que procure le lien de subsomption d'une ontologie (is-a) pour décrire un document/requête sous une forme arborescente. Un prototype a été réalisé étayant le bien fondé de ce type d'approche
This thesis deals with the use of ontologies in information retrieval. More precisely, we aim at representing textual information (documents/queries) by means of concepts (rather than a bag of single words). This conceptual representation is based on matching document/query with ontology. Roughly, two principle propositions are developed within this framework. The first one, DocCore, proposes to represent information by means of semantic networks (called Document Semantic Cores) where the nodes represent the “most salient” concepts extracted from the document, and the arcs semantic similarity values between these nodes. In the second approach, DocTree, we use the concept hierarchy provided by the subsumption link of an ontology (is-a) to describe a document or a query by mean of sub-trees. A prototype is built and the two approaches are successfully used in the IR process
APA, Harvard, Vancouver, ISO, and other styles
2

Tounkara, Thierno. "Gestion des connaissances et veille : vers un guide méthodologique pour améliorer la collecte d'informations." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090029.

Full text
Abstract:
My research concerns both theoretical and application work on agents and multi-agent systems. The theoretical work is mainly based on the use of decision theory and logic. What is presented in my HDR could be summarized as follows: A point of view about agent architectures based on a modular structure, where each module is responsible for one of the possible capabilities an agent may have (e. G. Problem solving, cooperation, communication, etc. ). The agent's behavior is the result of the different modules interaction. This point of view also suggests the integration of another specific module in the agents' architectures, which is dedicated to the agent's personality and shows how this can have an influence on the other modules. The completion of the above point of view with the observation that decision-making is a common characteristic of several deliberation processes involved in the operation of the modules and the idea to propose a unified argumentation based model for their representation. The presentation of this argumentation model which is based on the extension of the Logic Programming without Negation as Failure (LPwNF) framework, the integration of the concepts of roles and context to it as well as its use to model personalities. A dynamic planning model based on graph representation, taking into account changes that are generated not only by the environment but also by the agent himself and its exploitation to build a multi-criteria distributed planning framework. A multi-criteria negotiation, as well as an argumentation-based negotiation approach. The first approach is mainly used in a distributed planning context, but is also able to find a compromise between agents having work and private goals in a more general setting. A logical framework for modeling of complex dialogues, adopting the modular agent's architecture and associating each type of the possible dialogues (i. E. Negotiation, persuasion, deliberation, etc. ) to a specific module, ensuring the automated generation of dialogues and allowing the representation of embedded dialogues. Applications of the theoretical results in: e-commerce, marketing, information services, diagnostic and some experimental work on agent software engineering.
APA, Harvard, Vancouver, ISO, and other styles
3

Grouin, Cyril. "Anonymisation de documents cliniques : performances et limites des méthodes symboliques et par apprentissage statistique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00848672.

Full text
Abstract:
Ce travail porte sur l'anonymisation automatique de comptes rendus cliniques. L'anonymisation consiste à masquer les informations personnelles présentes dans les documents tout en préservant les informations cliniques. Cette étape est obligatoire pour utiliser des documents cliniques en dehors du parcours de soins, qu'il s'agisse de publication de cas d'étude ou en recherche scientifique (mise au point d'outils informatiques de traitement du contenu des dossiers, recherche de cas similaire, etc.). Nous avons défini douze catégories d'informations à traiter : nominatives (noms, prénoms, etc.) et numériques (âges, dates, codes postaux, etc.). Deux approches ont été utilisées pour anonymiser les documents, l'une dite " symbolique ", à base de connaissances d'expert formalisées par des expressions régulières et la projection de lexiques, l'autre par apprentissage statistique au moyen de CRF de chaîne linéaire. Plusieurs expériences ont été menées parmi lesquelles l'utilisation simple ou enchaînée de chacune des deux approches. Nous obtenons nos meilleurs résultats (F-mesure globale=0,922) en enchaînant les deux méthodes avec rassemblement des noms et prénoms en une seule catégorie (pour cette catégorie : rappel=0,953 et F-mesure=0,931). Ce travail de thèse s'accompagne de la production de plusieurs ressources : un guide d'annotation, un corpus de référence de 562 documents dont 100 annotés en double avec adjudication et calculs de taux d'accord inter-annotateurs (K=0,807 avant fusion) et un corpus anonymisé de 17000 comptes rendus cliniques.
APA, Harvard, Vancouver, ISO, and other styles
4

Menhoudj, Karim. "Contributions méthodologiques à la réingénierie des systèmes d'information : technique de migration guidée par les données." Lyon, INSA, 2000. http://www.theses.fr/2000ISAL0001.

Full text
Abstract:
Les systèmes d'information âgés sont importants pour l'entreprise mais posent un réel problème. D'une part on n'arrive plus ou du moins difficilement à les maintenir et d'autre part ils sont dépassés du point de vue technologique. Alors, faut-il continuer à les maintenir jusqu'à la fin de leur cycle de vie ou bien redévelopper de nouveaux systèmes ? La meilleure approche face à cette problématique est la réingen1ene des systèmes d'information, laquelle se présente comme une solution intermédiaire entre la maintenance continue et le nouveau développement. Ainsi, le but de cette thèse est la proposition d'une démarche méthodologique pour la réingénierie d'un système d'information. Plus précisément, il s'agit de la migration d'un système se basant sur des fichiers classiques Cobol vers une plate-forme relationnelle. Notre méthode s'articule sur trois étapes principales à savoir : (1) l'évaluation du système existant pour le choix d'une stratégie de réingénierie, (2) la rétro-ingénierie du système existant pour reconstruire ses vues conceptuelles et/ou logiques et enfin (3) la mise en œuvre de la migration. Dans la première étape, l'évaluation est basée sur des métriques ~test conduite sur trois axes différents mais complémentaires qui caractérisent l'application sous trois angles : la qualité technique, la capacité d'évolution et enfin la satisfaction des utilisateurs. Des recommandations sont issues de ce processus, lesquelles seront prises en compte dans la suite du projet de réingénierie. Dans la deuxième étape, une démarche de rétro-conception orientée vers les données sera présentée et aura comme objectif l'analyse de fichiers Cobol en vue de l'obtention d'une vue conceptuelle selon le modèle entité/relation. Enfin dans la dernière étape, une approche globale de migration guidée par les données est présentée. Celle-ci est basée sur l'utilisation de passerelles et est réalisée en suivant un ordre préétabli dans le transfert des composants de la source vers la cible
Legacy information systems are increasingly acknowledged as major problems for most large corporations. On one side, we can hardly maintain them and on the other side they are technologically out-of-date. Sa, should we continue to maintain them until the end of their life cycle or do we need to redevelop new systems? The best approach for this problem is the reengineering of information systems, which could be an intermediate solution between continued maintenance and new development. The goal of this thesis is to propose a method of information system reengineering. More precisely, it concerns the migration of a system based on COBOL files towards a relational platform. Our method is composed of three principal steps: (1) the assessment of the legacy system for the choice of a reengineering strategy, (2) the reverse engineering of the legacy system to recover its logical and/or conceptual views and (3) the achievement of the migration. In the first step, the assessment is based on metrics and is led on three different but complementary axes which characterize the application program from three points of view: the technical quality, the evolution ability and the user’s satisfaction. The recommendations derived from this process will be taken into account in the following steps. In the second step, a data reverse engineering method is presented with the goal of examining the COBOL files to recover their conceptual view according to the Entity-Relationship model. In the final step, a data driven migration method is described. It is based on the use of gateways and achieved according to a predefined order in the migration of the components from the source towards the target
APA, Harvard, Vancouver, ISO, and other styles
5

Sokhn, Maria. "Plateforme de recherche d'information multimedia guidée par une ontologie dans une architecture paire à paire." Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00678039.

Full text
Abstract:
Au cours de la dernière décennie, nous avons assisté à une croissance exponentielle de documents numériques et de ressources multimédias, y compris une présence massive de ressources vidéo. Les vidéos sont devenu de plus en plus populaire grâce au contenue riche à l'audio riche qu'elles véhiculent (contenu audiovisuelle et textuelle). Les dernières avancées technologiques ont rendu disponibles aux utilisateurs cette grande quantité de ressources multimédias et cela dans une variété de domaines, y compris les domaines académiques et scientifiques. Toutefois, sans techniques adéquates se basant sur le contenu des multimédia, cette masse de donnée précieuse est difficilement accessible et demeure en vigueur inutilisable. Cette thèse explore les approches sémantiques pour la gestion ainsi que la navigation et la visualisation des ressources multimédias générées par les conférences scientifiques. Un écart, que l'on appelle sémantique, existe entre la représentation des connaissances explicites requis par les utilisateurs qui cherchent des ressources multimédias et la connaissance implicite véhiculée le long du cycle de vie d’une conférence. Le but de ce travail est de fournir aux utilisateurs une plateforme qui améliore la recherche de l'information multimédia des conférences en diminuant cette distance sémantique. L'objectif de cette thèse est de fournir une nouvelle approche pour le contenu multimédia basé sur la recherche d’information dans le domaine des conférences scientifiques
During the last decade we have witnessed an exponential growth of digital documents and multimedia resources, including a vast amount of video resources. Videos are becoming one of the most popular media thanks to the rich audio, visual and textual content they may convey. The recent technological advances have made this large amount of multimedia resources available to users in a variety of areas, including the academic and scientific realms. However, without adequate techniques for effective content based multimedia retrieval, this large and valuable body of data is barely accessible and remains in effect unusable. This thesis explores semantic approaches to content based management browsing and visualization of the multimedia resources generated for and during scientific conferences. Indeed, a so-called semantic gap exists between the explicit knowledge representation required by users who search the multimedia resources and the implicit knowledge conveyed within a conference life cycle. The aim of this work is to provide users with an integrated framework that enhances the conference multimedia information retrieval by bridging this semantic gap. The goal of this thesis is to provide a novel approach for content based multimedia retrieval in the domain of scientific conferences
APA, Harvard, Vancouver, ISO, and other styles
6

Sokhn, Maria. "Plateforme de recherche basée d'information multimédia guidée par une ontologie dans une architecture paire à paire." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00678039.

Full text
Abstract:
Au cours de la dernière décennie, nous avons assisté à une croissance exponentielle de documents numériques et de ressources multimédias, y compris une présence massive de ressources vidéo. Les vidéos sont devenu de plus en plus populaire grâce au contenue riche à l'audio riche qu'elles véhiculent (contenu audiovisuelle et textuelle). Les dernières avancées technologiques ont rendu disponibles aux utilisateurs cette grande quantité de ressources multimédias et cela dans une variété de domaines, y compris les domaines académiques et scientifiques. Toutefois, sans techniques adéquates se basant sur le contenu des multimédia, cette masse de donnée précieuse est difficilement accessible et demeure en vigueur inutilisable. Cette thèse explore les approches sémantiques pour la gestion ainsi que la navigation et la visualisation des ressources multimédias générées par les conférences scientifiques. Un écart, que l'on appelle sémantique, existe entre la représentation des connaissances explicites requis par les utilisateurs qui cherchent des ressources multimédias et la connaissance implicite véhiculée le long du cycle de vie d'une conférence. Le but de ce travail est de fournir aux utilisateurs une plateforme qui améliore la recherche de l'information multimédia des conférences en diminuant cette distance sémantique. L'objectif de cette thèse est de fournir une nouvelle approche pour le contenu multimédia basé sur la recherche d'information dans le domaine des conférences scientifiques.
APA, Harvard, Vancouver, ISO, and other styles
7

Chaar, Nouira Sana-Leila. "Filtrage d'information pour la construction de résumés multi-documents guidée par le profil utilisateur : le système REDUIT." Université de Marne-la-Vallée, 2004. http://www.theses.fr/2004MARN0223.

Full text
Abstract:
Dans ce travail, nous allons présenter une méthode qui vise à donner à un utilisateur la possibilité de parcourir rapidement un ensemble de documents selon un point de vue particulier. Plus précisément, nous avons développé une méthode qui prend en compte l’hétérogénéité thématique des centres d’intérêts pouvant être définis par un utilisateur pour produire un résumé multi-document spécifique de ses besoins. Les centres d’intérêt de l’utilisateur sont représentés par le biais d’un profil. La structuration des profils que nous avons définie est de nature thématique : un profil est un ensemble de termes structuré en sous-ensembles thématiquement homogènes. Chacun de ces sousensembles représente un sous-thème du profil. Le résumé des documents se fonde pour sa part sur l’extraction des passages les plus étroitement en relation avec ce profil. La première étape de cette extraction est un filtrage permettant de sélectionner les documents en relation avec le profil de l’utilisateur. Puis une analyse permet de délimiter au sein de chaque document les blocs de texte thématiquement homogènes, c’est-à-dire les unités de base du processus d’extraction. Cette analyse est suivie d’une étape d’appariement entre les unités délimitées et les sous-thèmes du profil considéré. Lorsque cet appariement laisse apparaître une compatibilité globale entre le profil et le document, une analyse supplémentaire est menée afin d’élargir le vocabulaire définissant chaque sous-thème du profil en y intégrant les termes du document liés à ce sous-thème mais ne figurant pas dans le profil. Cette capacité ouvre la voie à une plus grande finesse du filtrage en permettant la sélection de passages de documents ayant un lien plus ténu avec les profils mais davantage susceptibles d’apporter des informations nouvelles et donc intéressantes, ce qui présente un intérêt particulier pour des applications de veille technologique par exemple. Enfin, une méthode de fusion permet de combiner les passages sélectionnés afin de construire un texte regroupant les informations les plus pertinentes pour l’utilisateur. L’intérêt de notre approche a été illustré au travers du système REDUIT qui a fait l’objet d’une évaluation montrant que la prise en compte explicite de l’hétérogénéité thématique des profils permet d’améliorer les résultats des processus intervenant aux différents niveaux de construction d’un résumé multi-document
In this work, we present an information filtering method that selects from a set of documents their most significant excerpts in relation to an user profile. We developed a method which takes into account the topical heterogeneity of the information needs of an user to produce a multi-document summary that is specific of its requirements. The information needs of an user are represented by an user profile that is structured from a topical viewpoint. More precisely, we chose to structure user profiles according to a topical criterion: a profile is a set of terms that are grouped into topically homogeneous subsets. Each of these subsets represents a sub-topic of the profile. The summarizing of documents is based on the extraction of segments that are the most likely to match with the profile. The first step of this extraction is the filtering document step. The input documents are pre-processed, both for selecting and normalizing their content words and segmenting them into topically coherent segments. The filtering is based on the matching of the profile and the topical segments of documents. The result of this matching is first used for discarding the documents without any relation with the profile and then, for selecting the excerpts in relation with the profile. This selection step is also based on the detection of the vocabulary of segments that is closely linked to the profile. When a global compatibility between the profile and the document is found, an additional topical analysis is performed to expand the vocabulary defining each sub-topic of the profile and to add to it the terms of the document that are linked to this sub-topic but that are not already present in the profile. This expansion is a way for selecting in a more reliable way excerpts that are linked to profiles but also for selecting excerpts that may bring new and interesting information about their topics. The third step performs information fusion by detecting and removing redundancies among the selected segments. This operation is first achieved among the segments of a document and then, among the segments coming from all the selected documents. Finally, the fourth step is turned toward users: the selected segments are ranked according to their significance, both from the viewpoint of the profile and the viewpoint of documents, and they are pruned for limiting the amount of text to read. This method was implemented by the REDUIT system, whose the evaluation showed that taking into account the topical heterogeneity of profiles can improve the results of the processes at the different steps of the building the a multi-document summary
APA, Harvard, Vancouver, ISO, and other styles
8

Dumoncel, Franck. "Géographie et graphes : une interaction pour exprimer des requëtes spatiales guidée par des adjacences conceptuelles." Caen, 2006. http://www.theses.fr/2006CAEN2007.

Full text
Abstract:
L'accès à l'information géographique sous forme électronique s'ouvre de plus en plus au grand public. Des interfaces intuitives ne nécessitant pas ou peu d'apprentissage apparaissent alors dans le domaine. Néanmoins, lorsqu’il s’agit de spécifier plus finement l’information recherchée, le pouvoir expressif de ces interfaces est limité. Le projet Antéserveur Géographique propose un environnement complet pour permettre d’exprimer une requête de manière bi-modale (schéma + étiquette textuelle). Dans la première partie du manuscrit nous mettons en avant deux qualités de la modalité schématique : apprentissage réduit et pouvoir expressif riche. En contre partie, nous voyons les problèmes d’ambiguïtés dus aux différents sens qu’une telle modalité peut véhiculer. La seconde partie évoque le fonctionnement multimodal de notre interface et notamment la complémentarité du texte et du schéma pour lever les ambiguïtés grâce à une interaction contrôlée, celle-ci reposant sur un mécanisme appelé glissement de sens. Le mode textuel et les glissements de sens nécessitent une analyse spatiale adaptée du schéma. Nous abordons alors le domaine de l’analyse spatiale qualitative, au cœur de ce travail de recherche, dans lequel une utilisation récurrente par centre d’intérêt du modèle 9-intersections de M. J. EGENHOFFER est proposée. Grâce à cette méthode, nous disposons d’un modèle d’analyse spatiale unique permettant de relever différentes contraintes relevées jusqu’ici par des modèles distincts et sans lien. C’est cette unité qui nous permet de mettre en œuvre notre mécanisme de glissement de sens. Enfin, nous présentons brièvement notre réalisation informatique.
APA, Harvard, Vancouver, ISO, and other styles
9

Bordes, Ghislaine. "Interprétation d'images aériennes guidée par une base de données cartographiques : application à l'extraction automatique des routes." Université de Marne-la-Vallée, 1997. http://www.theses.fr/1997MARN0012.

Full text
Abstract:
L'interpretation automatique des images aeriennes pour des applications cartographiques est une tache extrement complexe. Une des solutions pour guider et fiabiliser l'interpretation consiste a utiliser des donnees externes. Dans cette these, l'interpretation des images est guidee par une base de donnees cartographiques : la bd carto. Le theme d'application est l'extraction automatique des routes. La bd carto apporte des connaissances qui permettent de localiser grossierement les routes dans l'image, de connaitre leurs caracteristiques semantiques et contextuelles et donc d'adapter les algorithmes de detection. Toutefois les donnees de la bd carto sont imprecises par rapport aux images aeriennes. La demarche d'interpretation proposee est une demarche descendante. La bd carto est utilisee pour generer des hypotheses de route. L'interpretation de la scene consiste alors a extraire dans l'image les routes correspondant a ces differentes hypotheses, c'est a dire a trouver la position exacte de la route dans l'image. Pour chaque hypothese, le systeme d'interpretation selectionne l'algorithme d'extraction de route le plus adapte et regle ses parametres en fonction des caracteristiques intrinseques et contextuelles de l'hypothese. Pour limiter les effets de l'imprecision des donnees de la bd carto, une strategie de traitement des hypotheses par ordre de facilite est mise en oeuvre : les hypotheses de route qui sont a priori les plus fiables et les plus visibles dans l'image sont traitees en priorite. La strategie d'interpretation proposee a ete implementee dans un systeme-test utilisant deux algorithmes de suivi de route. Une part importante du travail a ete consacree a l'acquisition des connaissances operatoires-notamment des connaissances de controle du systeme- et a la validation de la demarche proposee
APA, Harvard, Vancouver, ISO, and other styles
10

Cotteret, Gilles. "Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection. Approche par fusion de données." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/23332/23332.pdf.

Full text
Abstract:
L'extraction d'éléments curvilignes d’images de télédétection, surtout proches de la limite de résolution ou lorsqu'elles sont bruitées, représente toujours un défi important pour les algorithmes informatiques, alors que pour les interprètes humains c'est une tâche immédiate. Dans ce travail une méthode novatrice est présentée pour guider l'extraction d’éléments curvilignes (routes, cours d'eau, etc) d’images de télédétection. Cette méthode a pour but de mettre à jour les systèmes d'informations géographiques (SIG) grâce à un modèle inédit (ELECA) qui comporte trois parties. Le modèle ELECA tire avantage de deux idées principales. Les données utilisées ne sont pas seulement les images de télédétection mais également les données des SIG qui ne sont pas nécessairement à jour. Le modèle s’appuie également sur des progrès récents des sciences psycho-cognitives en imitant partiellement le mouvement des yeux durant une recherche visuelle. Ainsi les trois parties du modèle ELECA sont (1) une méthode de recherche de l’information locale qui utilise un oeil virtuel pour ne se focaliser qu’aux lieux d’information probable, évitant ainsi un traitement global de l’image ; (2) une méthode simple et rapide d’extraction de l’information locale par une adaptation astucieuse d’une analyse en composantes connexes ; et (3) une méthode originale de fusion des informations locales qui s’appuie sur des travaux de reconstruction de l’espace global par raisonnement spatial qualitatif. Le modèle ELECA évite de cette manière certains pièges dans lesquels tombent souvent les méthodes courantes/classiques. En particulier, la technique proposée peut être mise en oeuvre pour des images partiellement masquées ou de basse résolution pour lesquelles seulement des interprètes humains peuvent traiter l'image présentement. La méthode a été aussi élaborée pour être rapide et efficace afin de pouvoir réaliser des mises à jour de SIG très rapides lorsque nécessaire. La dernière partie de ce travail est consacrée à l’élaboration d’une solution informatique supportant le modèle ELECA. Une architecture logicielle souple et adaptative est mise en avant, permettant l’intégration de développements ultérieurs pour le modèle. Enfin un volet algorithmique montre concrètement que les solutions du modèle ELECA sont implantables en termes informatiques.
The extraction of curvilinear elements from remote sensing images, especially when noisy or near the limit of resolution constitutes a significant challenge for data-processing algorithms. In this work a method is presented for linear feature extraction in remote sensing (RS) images. An original model (ELECA) is introduced allowing out of date geographical information system (GIS) data to be updated though the use of a visual search method that mimics human eye movements. The ELECA model is composed of three parts : (1) a visual search module using virtual gaze to avoid processing the entire image ; (2) a simple and fast method for local information extraction by a clever adaptation of connected-component labeling ; and (3) an original method for the fusion of local information to construct a global representation at the scale of the image based on qualitative spatial reasoning techniques. The ELECA model avoids several problems characteristic of current methods. In particular, the proposed technique can be applied to low resolution or partially occluded images for which currently only human interpreters can successfully process the image. The technique is also designed to be very fast and efficient when a quick GIS update is needed. The last part of this project is devoted to the design of software which supports the ELECA model. The proposed software architecture is adaptive and allows the integration of future model developments. Finally it is shown how the ELECA model could be implemented.
La extracción de elementos curvilíneos de las imágenes de teledetección, sobre todo en proximidad del límite de resolución o en presencia de ruido, representa siempre un reto importante para los algoritmos informáticos, mientras que para los intérpretes humanos es una tarea inmediata. Este trabajo presenta un método nuevo para guiar la extracción de elementos curvilíneos (carreteras, ríos, etc.) de imágenes de teledetección. El objetivo del método consiste en actualizar un sistema de información geográfica (SIG) gracias a un modelo inédito (ELECA) constituído de tres partes. El modelo ELECA desarrolla dos ideas principales. El modelo puede utilizar las imágenes de teledetección y los datos del SIG que están desactualizados. El modelo se basa asimismo en resultados recientes de la investigación en ciencias psico-cognitivas, dado que imita parcialmente el movimiento de los ojos durante una búsqueda visual. Las tres partes del modelo ELECA son: (1) un método de búsqueda de la información local que utiliza un ojo virtual par focalizarse únicamente donde se encuentra la información probable, evitando un tratamiento global de la imagen; (2) un método simple y rápido de extracción de la información local, que utiliza una adaptación astuciosa de un análisis en componentes conexos; y (3) un método original de fusión de informaciones locales que se apoya sobre trabajos de reconstrucción del espacio global por razonamiento espacial cualitativo. El modelo ELECA evita así algunas trampas en las que caen a menudo los métodos clásicos. En particular, la técnica propuesta puede ser utilizada para imágenes parcialmente enmascaradas o de baja resolución, que sólo pueden ser tratadas actualmente por intérpretes humanos. El método ha sido elaborado para ser eficiente en la actualización rápida de un SIG si es necesario. La última parte de este trabajo presenta una solución informática elaborada para soportar el modelo ELECA. Una arquitectura de programa flexible y adaptable es presentada, permitiendo la integración de desarrollos ulteriores del modelo. Finalmente, un aspecto algorítmico muestra concretamente que las soluciones del modelo ELECA. se pueden implantar en términos informáticos.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Guide d'information"

1

Zbinden, Madeleine. Guide des sources d'information. 6th ed. CFPJ, 1995.

APA, Harvard, Vancouver, ISO, and other styles
2

Bichet, Évelyne. Guide des sources d'information. 5th ed. CFPJ, 1993.

APA, Harvard, Vancouver, ISO, and other styles
3

Zbinden, Madeleine. Guide des sources d'information 1996. 7th ed. CFPJ, 1996.

APA, Harvard, Vancouver, ISO, and other styles
4

Aubrey, Denise. Du secondaire...à l'université... Centre franco-ontarien de ressources pédagogiques, 1987.

APA, Harvard, Vancouver, ISO, and other styles
5

Gouvernementales, Québec Ministère des Communications Direction Générale des Publications. Guide D'information Pour Les Femmes: 600 Questions/Réponses. s.n, 1985.

APA, Harvard, Vancouver, ISO, and other styles
6

engrais, Canada Agriculture Canada Division des aliments du bétail et des. Guide d'information sur les aliments du bétail médicamentés. Agriculture Canada, 1989.

APA, Harvard, Vancouver, ISO, and other styles
7

Commission, Canada Indian Claims. Indian Claims Commission information guide =: Commission des revendications des Indiens, guide d'information. Indian Claims Commission = Commission des revendications des Indiens, 2004.

APA, Harvard, Vancouver, ISO, and other styles
8

Guide d'information sur l'arrestation, la perquisition, l'inspection et la confiscation. 2nd ed. Wilson & Lafleur, 2000.

APA, Harvard, Vancouver, ISO, and other styles
9

Bettridge, Shannon. Le système ontarien de services psychiatriques médico-légaux: Guide d'information. Centre de toxicomanie et de santé mentale, 2011.

APA, Harvard, Vancouver, ISO, and other styles
10

Berdugo, Alain. Guide du management des systemes d'information: Themes et termes essentiels. Hermès, 2002.

APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography