To see the other types of publications on this topic, follow the link: Données médicales.

Dissertations / Theses on the topic 'Données médicales'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Données médicales.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Falip, Joris. "Structuration de données multidimensionnelles : une approche basée instance pour l'exploration de données médicales." Thesis, Reims, 2019. http://www.theses.fr/2019REIMS014/document.

Full text
Abstract:
L'exploitation, a posteriori, des données médicales accumulées par les praticiens représente un enjeu majeur pour la recherche clinique comme pour le suivi personnalisé du patient. Toutefois les professionnels de santé manquent d'outils adaptés leur permettant d'explorer, comprendre et manipuler aisément leur données. Dans ce but, nous proposons un algorithme de structuration d'éléments par similarité et représentativité. Cette méthode permet de regrouper les individus d'un jeu de données autour de membres représentatifs et génériques aptes à subsumer les éléments et résumer les données. Cette méthode, procédant dimension par dimension avant d'agréger les résultats, est adaptée aux données en haute dimension et propose de plus des résultats transparents, interprétables et explicables. Les résultats obtenus favorisent l'analyse exploratoire et le raisonnement par analogie via une navigation de proche en proche : la structure obtenue est en effet similaire à l'organisation des connaissances utilisée par les experts lors du processus décisionnel qu'ils emploient. Nous proposons ensuite un algorithme de détection d'anomalies qui permet de détecter des anomalies complexes et en haute dimensionnalité en analysant des projections sur deux dimensions. Cette approche propose elle aussi des résultats interprétables. Nous évaluons ensuite ces deux algorithmes sur des données réelles et simulées dont les éléments sont décrits par de nombreuses variables : de quelques dizaines à plusieurs milliers. Nous analysant particulièrement les propriétés du graphe résultant de la structuration des éléments. Nous décrivons par la suite un outil de prétraitement de données médicales ainsi qu'une plateforme web destinée aux médecins. Via cet outil à l'utilisation intuitif nous proposons de structurer de manière visuelle les éléments pour faciliter leur exploration. Ce prototype fournit une aide à la décision et au diagnostique médical en permettant au médecin de naviguer au sein des données et d'explorer des patients similaires. Cela peut aussi permettre de vérifier des hypothèses cliniques sur une cohorte de patients
A posteriori use of medical data accumulated by practitioners represents a major challenge for clinical research as well as for personalized patient follow-up. However, health professionals lack the appropriate tools to easily explore, understand and manipulate their data. To solve this, we propose an algorithm to structure elements by similarity and representativeness. This method allows individuals in a dataset to be grouped around representative and generic members who are able to subsume the elements and summarize the data. This approach processes each dimension individually before aggregating the results and is adapted to high-dimensional data and also offers transparent, interpretable and explainable results. The results we obtain are suitable for exploratory analysis and reasoning by analogy: the structure is similar to the organization of knowledge and decision-making process used by experts. We then propose an anomaly detection algorithm that allows complex and high-dimensional anomalies to be detected by analyzing two-dimensional projections. This approach also provides interpretable results. We evaluate these two algorithms on real and simulated high-dimensional data with up to thousands of dimensions. We analyze the properties of graphs resulting from the structuring of elements. We then describe a medical data pre-processing tool and a web application for physicians. Through this intuitive tool, we propose a visual structure of the elements to ease the exploration. This decision support prototype assists medical diagnosis by allowing the physician to navigate through the data and explore similar patients. It can also be used to test clinical hypotheses on a cohort of patients
APA, Harvard, Vancouver, ISO, and other styles
2

Lisa, Di Jorio. "Recherche de motifs graduels et application aux données médicales." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00577212.

Full text
Abstract:
Avec le développement des nouvelles technologies d'analyse (comme par exemple les puces à ADN) et de gestion de l'information (augmentation des capacités de stockage), le domaine de la santé a particulièrement évolué ces dernières années. En effet, des techniques de plus en plus avancées et efficaces sont mises à disposition des chercheurs, et permettent une étude approfondie des paramètres génomiques intervenant dans des problèmes de santé divers (cancer, maladie d'Alzheimer ...) ainsi que la mise en relation avec les paramètres cliniques. Parallèlement, l'évolution des capacités de stockage permet désormais d'accumuler la masse d'information générée par les diverses expériences menées. Ainsi, les avancées en terme de médecine et de prévention passent par l'analyse complète et pertinente de cette quantité de données. Le travail de cette thèse s'inscrit dans ce contexte médical. Nous nous sommes particulièrement intéressé à l'extraction automatique de motifs graduels, qui mettent en évidence des corrélations de variation entre attributs de la forme "plus un patient est âgé, moins ses souvenirs sont précis". Nous décrivons divers types de motifs graduels tels que les itemsets graduels, les itemset multidimensionnels graduels ou encore les motifs séquentiels graduels, ainsi que les sémantiques associées à ces motifs. Chacune de nos approches est testée sur un jeu de données synthétique et/ou réel.
APA, Harvard, Vancouver, ISO, and other styles
3

Noura, Mohamad. "Solutions cryptographiques efficaces et sécurisées pour les données médicales." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD037.

Full text
Abstract:
Dans cette thèse, des schémas cryptographiques efficaces et robustes ont été proposés pour surmonter les problèmes actuels de sécurité et de confidentialité des systèmes et applications médicaux récents. La principale contribution de cette thèse est d'atteindre un haut niveau de sécurité avec un minimum de surcoût de calcul contrairement à de nombreuses autres solutions existantes. Par conséquent, deux schémas de chiffrement et une approche de disponibilité des données ont été proposés pour les données médicales afin de garantir les services de sécurité suivants : confidentialité, intégrité et disponibilité des données ainsi que l'authentification de la source. Les solutions cryptographiques proposées sont basées sur les structures de chiffrement cryptographiques dynamiques pour assurer une meilleure résistance aux attaques existantes et modernes. De plus, ces solutions ont été conçues pour être légères et ne nécessitent qu'un petit nombre d'itérations. La fonction de chiffrement proposée n'est répétée qu'une seule fois et utilise une permutation de bloc dépendante de la clé.Elle satisfait également les propriétés de confusion et de diffusion requises, assurant ainsi les propriétés cryptographiques souhaitables. Les résultats de simulation et d'expérimentation ont démontré l'efficacité et la robustesse des solutions cryptographiques proposées. De plus, l'utilisation des schémas cryptographiques proposés ouvre la porte à des algorithmes cryptographiques dynamiques qui peuvent conduire à un gain de performance et de sécurité significatif par rapport à l'état de l'art
In this thesis, effective and robust cryptographic schemes were proposed to overcome the current security and privacy issues of recent medical systems and applications. The main contribution of this thesis is to reach a high level of security with minimum possible overhead contrary to many other existing solutions. Therefore, two cipher schemes and a data availability approach were proposed for medical data to ensure the following security services: data confidentiality, integrity and availability as well as source authentication. The proposed cryptographic solutions are based on the dynamic cryptographic cipher structures to ensure a better resistance against existing and modern attacks. Moreover, these solutions were designed to be lightweight and they require a small number of iterations. The proposed ciphers round function is iterated only once and uses a key dependent block permutation. It also satisfies the required confusion and diffusion properties, consequently ensuring the desirable cryptographic properties. Simulation and experimental results demonstrated the efficiency and the robustness of the proposed cryptographic solutions. Furthermore, employing the proposed cryptographic schemes open the door to a dynamic cryptographic algorithms that can lead to a significant performance and security gain compared with other recent related state-of-art
APA, Harvard, Vancouver, ISO, and other styles
4

Etien-Gnoan, N'Da Brigitte. "L'encadrement juridique de la gestion électronique des données médicales." Thesis, Lille 2, 2014. http://www.theses.fr/2014LIL20022/document.

Full text
Abstract:
La gestion électronique des données médicales consiste autant dans le simple traitement automatisé des données personnelles que dans le partage et l'échange de données relatives à la santé. Son encadrement juridique est assuré, à la fois, par les règles communes au traitement automatisé de toutes les données personnelles et par celles spécifiques au traitement des données médicales. Cette gestion, même si elle constitue une source d'économie, engendre des problèmes de protection de la vie privée auxquels le gouvernement français tente de faire face en créant l'un des meilleurs cadres juridiques au monde, en la matière. Mais, de grands chantiers comme celui du dossier médical personnel attendent toujours d'être réalisés et le droit de la santé se voit devancer et entraîner par les progrès technologiques. Le développement de la télésanté bouleverse les relations au sein du colloque singulier entre le soignant et le soigné. L'extension des droits des patients, le partage de responsabilité, l'augmentation du nombre d'intervenants, le secret médical partagé constituent de nouveaux enjeux avec lesquels il faut, désormais compter. Une autre question cruciale est celle posée par le manque d'harmonisation des législations augmentant les risques en cas de partage transfrontalier de données médicales
The electronic management of medical data is as much in the simple automated processing of personal data in the sharing and exchange of health data . Its legal framework is provided both by the common rules to the automated processing of all personal data and those specific to the processing of medical data . This management , even if it is a source of economy, creates protection issues of privacy which the French government tries to cope by creating one of the best legal framework in the world in this field. However , major projects such as the personal health record still waiting to be made and the right to health is seen ahead and lead by technological advances . The development of e-health disrupts relationships within one dialogue between the caregiver and the patient . The extension of the rights of patients , sharing responsibility , increasing the number of players , the shared medical confidentiality pose new challenges with which we must now count. Another crucial question is posed by the lack of harmonization of legislation increasing the risks in cross-border sharing of medical
APA, Harvard, Vancouver, ISO, and other styles
5

Di, Jorio Lisa. "Recherche de motifs graduels et application aux données médicales." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20112.

Full text
Abstract:
Avec le développement des nouvelles technologies d'analyse (comme par exemple les puces à ADN) et de gestion de l'information (augmentation des capacités de stockage), le domaine de la santé a particulièrement évolué ces dernières années. En effet, des techniques de plus en plus avancées et efficaces sont mises à disposition des chercheurs, et permettent une étude approfondie des paramètres génomiques intervenant dans des problèmes de santé divers (cancer, d'Alzheimer ...) ainsi que la mise en relation avec les paramètres cliniques. Parallèlement, l'évolution des capacités de stockage permet désormais d'accumuler la masse d'information générée par les diverses expériences menées. Ainsi, les avancées en terme de médecine et de prévention passent par l'analyse complète et pertinente de cette quantité de données. Le travail de cette thèse s'inscrit dans ce contexte médical. Nous nous sommes particulièrement intéressé à l'extraction automatique de motifs graduels, qui mettent en évidence des corrélations de variation entre attributs de la forme "plus un patient est âgé, moins ses souvenirs sont précis". Nous décrivons divers types de motifs graduels tels que les itemsets graduels, les itemset multidimensionnels graduels ou encore les motifs séquentiels graduels, ainsi que les sémantiques associées à ces motifs. Chacune de nos approches est testée sur un jeu de données synthétique et/ou réel
With the raise of new biological technologies, as for example DNA chips, and IT technologies (e.g. storage capacities), health care domain has evolved through the last years. Indeed, new high technologies allow for the analysis of thousands of genomic parameters related to various deseases (as cancer, Alzheimer), and how to link them to clinical parameters. In parallel, storage evolutions enable nowadays researchers to gather a huge amount of data generated by biological experiments. This Ph.D thesis is strongly related to medical data mining. We tackle the problem of extracting gradual patterns of the form « the older a patient, the less his memories are accurate ». To handle different types of information, we propose to extract gradualness for an extensive range of patterns: gradual itemsets, gradual multidimensionnal itemsets, gradual sequencial patterns. Every contribution is experimented on a synthetic or real datasets
APA, Harvard, Vancouver, ISO, and other styles
6

Boehm, Mathilde. "Contribution à l'amélioration du rendu volumique de données médicales 3D." Paris, ENMP, 2004. http://www.theses.fr/2004ENMP1271.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

De, Vlieger P. "Création d'un environnement de gestion de base de données " en grille ". Application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00654660.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source. L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
8

De, Vlieger Paul. "Création d'un environnement de gestion de base de données "en grille" : application à l'échange de données médicales." Phd thesis, Université d'Auvergne - Clermont-Ferrand I, 2011. http://tel.archives-ouvertes.fr/tel-00719688.

Full text
Abstract:
La problématique du transport de la donnée médicale, de surcroît nominative, comporte de nombreuses contraintes, qu'elles soient d'ordre technique, légale ou encore relationnelle. Les nouvelles technologies, issues particulièrement des grilles informatiques, permettent d'offrir une nouvelle approche au partage de l'information. En effet, le développement des intergiciels de grilles, notamment ceux issus du projet européen EGEE, ont permis d'ouvrir de nouvelles perspectives pour l'accès distribué aux données. Les principales contraintes d'un système de partage de données médicales, outre les besoins en termes de sécurité, proviennent de la façon de recueillir et d'accéder à l'information. En effet, la collecte, le déplacement, la concentration et la gestion de la donnée, se fait habituellement sur le modèle client-serveur traditionnel et se heurte à de nombreuses problématiques de propriété, de contrôle, de mise à jour, de disponibilité ou encore de dimensionnement des systèmes. La méthodologie proposée dans cette thèse utilise une autre philosophie dans la façon d'accéder à l'information. En utilisant toute la couche de contrôle d'accès et de sécurité des grilles informatiques, couplée aux méthodes d'authentification robuste des utilisateurs, un accès décentralisé aux données médicales est proposé. Ainsi, le principal avantage est de permettre aux fournisseurs de données de garder le contrôle sur leurs informations et ainsi de s'affranchir de la gestion des données médicales, le système étant capable d'aller directement chercher la donnée à la source.L'utilisation de cette approche n'est cependant pas complètement transparente et tous les mécanismes d'identification des patients et de rapprochement d'identités (data linkage) doivent être complètement repensés et réécris afin d'être compatibles avec un système distribué de gestion de bases de données. Le projet RSCA (Réseau Sentinelle Cancer Auvergne - www.e-sentinelle.org) constitue le cadre d'application de ce travail. Il a pour objectif de mutualiser les sources de données auvergnates sur le dépistage organisé des cancers du sein et du côlon. Les objectifs sont multiples : permettre, tout en respectant les lois en vigueur, d'échanger des données cancer entre acteurs médicaux et, dans un second temps, offrir un support à l'analyse statistique et épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
9

Laboile, Xavier. "Aspects juridiques et éthiques du recueil des données médicales aux fins d'analyses épidémiologiques." Bordeaux 4, 2000. http://www.theses.fr/2000BOR40001.

Full text
Abstract:
Le developpement des activites medico-sociales a conduit a une multiplication des recueils d'informations concernant la sante des personnes, avec pour corollaire le probleme de la protection des libertes individuelles, tant sur l'aspect ethique que juridique. Les registres epidemiologiques informatises sont les premiers concernes. La legislation nationale en la matiere est fondee sur la loi "informatique et libertes" du 6 janvier 1978, qui, au travers de l'institution de la commission nationale de l'informatique et des libertes (cnil), reglemente le traitement des donnees medicales, qu'il s'agisse du secteur public (controle renforce) ou du secteur prive(simple declaration prealable). La france privilegie, grace a cette autorite de controle, le controle a priori des traitements de donnees. L'aspect ethique est represente par l'avis du comite national d'ethique pour les sciences de la vie et de la sante. Son fondement est le secret medical. La legislation europeenne en la matiere (cee) se base sur 2 textes majeurs : la convention 108 du conseil de l'europe (28 janvier 1981) et la directive europeenne 95/46/ce du 24 octobre 1995. Ces 2 legislations, ratifiees par pratiquement tous les etats membres, privilegient le controle a posteriori des traitements de donnees. Une harmonisation devrait voir le jour dans les prochains mois, d'autant que les flux trans♭ frontieres de donnees medicales, vers les etats-unis en particulier dont le systeme de protection est encore a l'etat d'emergence, vont en augmentant sans cesse du fait des developpements des reseaux de systemes d'information (internet).
APA, Harvard, Vancouver, ISO, and other styles
10

Azou, Goyema Quentin. "Données génétiques et médicales : identification et discrimination : approche comparative entre l'Europe et l'Afrique subsaharienne." Dijon, 2009. http://www.theses.fr/2009DIJOD003.

Full text
Abstract:
Les données génétiques humaines, du fait de leur polymorphisme tant scientifique que juridique, révèlent au droit des rivages inconnus. Elles sont présentées comme des données de nature médicale mais il ne s'agit pas de données médicales quelconques dans la mesure où elles expriment la part la plus intime de l'individu. Leur connaissance est nécessaire au progrès de la médecine afin d'assurer le traitement voire la prévention de certaines pathologies familiales. Elles présentent une spécificité qui justifie l'élaboration de normes juridiques appropriées. En raison de leur ambivalence intrinsèque, les données génétiques et médicales ne constituent pas des données personnelles car, source d'identification de la personne, elles cessent de l'être au moment même où elles perdent leur capacité de stigmatisation. Le recueil et la circulation des données génétiques et médicales constituent un défi juridique majeur pour les années à venir. La règle de droit devant permettre l'utilisation de ces données doit garantir une confidentialité nécessaire au respect de la vie privée. La définition de cet équilibre entre la part intime et la part universelle des données génétiques soulève de délicats problèmes : intérêt public et intérêt privé, universalité et individualité. Quels que soient les noms qu'on leur donne, la distinction a traversé, de part et d’autre, les contributions et les débats nourris. La comparaison des approches européenne et africaine reflète ce partage entre la protection et la divulgation des données génétiques et médicales. Elle révèle la diversité des techniques éthiques et juridiques existantes, explique la différence des traditions socioculturelles d'où notre volonté de porter à la connaissance du public, tant les contributions écrites que les nombreuses discussions qui les ont suivies. Ce travail se subdivise en deux parties : données génétiques et identification de la personne humaine(I) ; données génétiques et risques de discrimination (II)
Human genetic data, because of its scientific and judicial polyphormism, is a case for new legislation. Although it is usually presented as medical data, its specific aspect should be taken into consideration, since it concerns the innermost part of the individual. The knowledge of this data is essential to medical progress, namely the treatment and prevention of some family disorders. Its specificity requires the creation of adequate judicial standards. On account of its intrinsic ambivalence, genetic and medical data cannot be used as personal data because, as a means of personal identification, it ceases to be so as soon as it loses its power to stigmatize. Collecting and circulating genetic and medical data will be a major challenge in the years to come. The rule of law allowing the use of this data should ensure the confidentiality necessary to the protection of people's private lives. Trying to draw the line between the private part and the universal one raises some crucial issues such as public interest versus private one, universality versus individuality. Whatever the terms we use, this distinction has played a major part throughout various studies and debates. Comparison with the European approach and the African one shows the dilemma between the protection and the disclosure of medical and genetic data. It reveals the diversity of ethics and legal technical; it explains the different socio-cultural customs. Our aim is to go towards audience the written contributions and also the numerous discussions further. This work is subdivided in two parts: genetic data and identification on Human Being (I); genetic data and discrimination risks (II)
APA, Harvard, Vancouver, ISO, and other styles
11

Duhamel, Erwan. "Rendu volumique expressif pour la visualisation interactive de données médicales : application à l'imagerie échographique." Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAD028.

Full text
Abstract:
L'échographie se distingue des autres modalités d’imagerie par son aptitude à fournir des images dynamiques, non invasives et sûres. Cependant, les images échographiques restent principalement 2D, rendant difficile d'évaluer le contexte géométrique de l’anatomie, problématique en particulier pour des scénarios cliniques où la profondeur et l'agencement 3D des structures sont cruciaux. Nous nous intéressons ainsi aux volumes d’images échographiques. Pour les applications de visualisation interactive, la méthode la plus employée est le rendu volumique direct. Nous présentons trois contributions dans ce domaine : une nouvelle méthodologie de rendu volumique direct, basé sur la construction d’un nouveau type d’iso-surface, une méthodologie d’évaluation de rendus volumiques d’images médicales et l'intégration de nos travaux dans les applications développées dans le contexte du projet Disrumpere mené par l'IRCAD
Ultrasound, as a medical imaging modality, is able to produce dynamically images from a body's internal structures in a safe, radiation-free way. Nevertheless, ultrasound images are mainly two-dimensional, making it difficult even for experts to apprehend and evaluate the 3D geometric context the structures are placed in. This is a hard limitation that can for example introduce errors in diagnostics, or even doubt in surgical procedures, that are inherently undesirable for such applications. We therefore propose to study the use of volumetric ultrasound images in the context of medical imaging, and specifically the visualisation process of such data using direct volume rendering. We introduce three different contributions in this domain: a new direct volume rendering technique, leveraging a new type of iso-surface, an evaluation methodology for medical image visualisation, and the integration of our work in software produced in the context of the Disrumpere project led by IRCAD
APA, Harvard, Vancouver, ISO, and other styles
12

Deslandes, Emmanuelle. "Modelisation des données longitudinales complexes en épidémiologie." Paris 6, 2010. http://www.theses.fr/2010PA066161.

Full text
Abstract:
L'étude de l'évolution et de la valeur pronostique des marqueurs longitudinaux est très fréquente en médecine. Ce travail s'est centré sur la modélisation de données longitudinales en présence de données manquantes ou censure informative à droite. Notre objectif premier a été d'évaluer si un marqueur mesuré de façon répétée au cours du temps pouvait être utilisé comme critère de substitution lors de l'évaluation de l'efficacité d'un nouveau traitement dans le cadre d'un essai thérapeutique. Le premier développement a été de comparer deux stratégies de modélisation pour ces données longitudinales et de survie : un modèle multi-état décrivant les trajectoires des malades entre différents compartiments définis par la valeur du marqueur et la censure informative, et un modèle conjoint du processus longitudinal et du délai de censure informative. Puis, nous avons modélisé l'évolution d'un marqueur en présence de censure informative. Nous proposons une modélisation conjointe des données longitudinales et des données de survie multivariée, lorsque le sous-modèle de survie est un modèle paramétrique pour les fonctions de risque de sous-répartition des événements en compétition. Nous nous sommes alors placés dans un contexte d'inférence bayesienne. Chaque développement a fait l'objet d'une application en épidémiologie clinique, que ce soit dans l'étude de la lymphocytose comme critère de substitution de l'efficacité d'un traitement dans la leucémie, ou dans l'évaluation du bénéfice du remplissage vasculaire chez des malades de réanimation sur un score de gravité mesuré pendant leur séjour
APA, Harvard, Vancouver, ISO, and other styles
13

Yureidini, Ahmed. "Reconstruction robuste des vaisseaux sanguins pour les simulations médicales interactives à partir de données patients." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-01010973.

Full text
Abstract:
Dans le cadre des simulations interactives, le manque de modèles géométriques reste une des limitations majeures des simulateurs. Actuellement, les simulateurs commerciaux ne proposent pas ou un tout cas, un nombre limité de cas. Un grand nombre des travaux abordent cependant ce sujet tout au long de ces deux dernières décennies. Malgré une vaste littérature, les méthodes ne sont pas adaptées à un contexte interactif, plus particulièrement quand il s'agit des réseaux vasculaires. Dans cette thèse, nous considérons le problème de la segmentation et la reconstruction des vaisseaux sanguins à partir de données patients en Angiographie Rotationnelle (RA) 3D. Pour ce faire, nous proposons deux nouveaux algorithmes, un pour la segmentation et un autre, pour la reconstruction. Tout d'abord, le réseau vasculaire est construit grâce à un algorithme de suivi de la ligne centrale des vaisseaux. De plus, notre procédure de suivi extrait des points à la surface des vaisseaux de manière robuste. Deuxièmement, ces points sont estimés par une surface implicite (un blobby model) qui est, à son tour, raffinée de façon itérative. Les résultats du suivi et de la reconstruction sont produit à partir de données synthétiques et réelles. Lors de la simulation de la navigation d'outils interventionnels, notre modèle géométrique remplit les exigences des simulations interactives: une prédiction et détection rapide des collisions, l'accès à l'information topologique, une surface lisse et la mise à disposition de quantités différentielles pour la résolution des contacts.
APA, Harvard, Vancouver, ISO, and other styles
14

Elisabeth, Erol. "Fouille de données spatio-temporelles, résumés de données et apprentissage automatique : application au système de recommandations touristique, données médicales et détection des transactions atypiques dans le domaine financier." Thesis, Antilles, 2021. http://www.theses.fr/2021ANTI0607.

Full text
Abstract:
La fouille de données est une des composantes Gestion de la Relation Client (CRM) largement déployée dans les entreprises. Ce processus s’appuie sur des algorithmes issus de disciplines scientifiques diverses (statistiques, intelligence artificielle, base de données) pour construire des modèles à partir des données.L’objectif de déterminer des modèles, établis à partir de clusters au service de l’amélioration de la connaissance du client au sens générique, de la prédiction de ses comportements et de l’optimisation de l’offre proposée. Ces modèles ayant vocation à être utilisés par des utilisateurs spécialistes du domaine de données, chercheurs en économie de la santé et sciences de gestion ou professionnels du secteur étudié, ces travaux de recherche mettent l’accent sur l’utilisabilité des environnements de fouille de données. Cette thèse s’intéresse à la fouille de données spatio-temporelle. Elle met particulièrement en évidence une approche originale pour le traitement des données avec un but d’enrichissement des connaissances pratiques du domaine. Ce travail comporte un volet applicatif en quatre chapitres qui correspond à quatre systèmes développés:- Un modèle pour la mise place d’un système de recommandation basé sur la collecte de données de positionnement GPS,- Un outil de résumé de données optimisé pour la rapidité des réponses aux requêtes au programme de médicalisation des systèmes d’information (PMSI),- Un outil d’apprentissage automatique pour la lutte contre le blanchiment dans le système financier,- Un modèle pour la prédiction d’activité dans les TPE qui sont météo-dépendantes (tourisme, transport, loisirs, commerce, etc.). Le problème est ici d’identifier les algorithmes de classification et de réseaux de neurones en vue d’une analyse de données dont le but est d’adapter la stratégie de l’entreprise aux mouvements conjoncturels
Data mining is one of the components of Customer Relationship Management (CRM), widely deployed in companies. It is the process of extracting interesting, non-trivial, implicit, unknown and potentially useful knowledge from data. This process relies on algorithms from various scientific disciplines (statistics, artificial intelligence, databases) to build models from data stored in data warehouses.The objective of determining models, established from clusters in the service of improving knowledge of the customer in the generic sense, the prediction of his behavior and the optimization of the proposed offer. Since these models are intended to be used by users who are specialists in the field of data, researchers in health economics and management sciences or professionals in the sector studied, this research work emphasizes the usability of data mining environments.This thesis is concerned with spatio-temporal data mining. It particularly highlights an original approach to data processing with the aim of enriching practical knowledge in the field.This work includes an application component in four chapters which corresponds to four systems developed:- A model for setting up a recommendation system based on the collection of GPS positioning data,- A data summary tool optimized for the speed of responses to requests for the medicalization of information systems program (PMSI),- A machine learning tool for the fight against money laundering in the financial system,- A model for the prediction of activity in VSEs which are weather-dependent (tourism, transport, leisure, commerce, etc.). The problem here is to identify classification algorithms and neural networks for data analysis aimed at adapting the company's strategy to economic changes
APA, Harvard, Vancouver, ISO, and other styles
15

Canselier, Guillaume. "Les données acquises de la science : les connaissances scientifiques et la faute médicale en droit privé." Paris 1, 2006. https://www.bnds.fr/collection/theses-numeriques-de-la-bnds/les-donnees-acquises-de-la-science-9782848741338.html.

Full text
Abstract:
Pour apprécier la faute médicale, le droit renvoie aux «données acquises de la science». Nombreuses sont désormais les règles de droit qui se référent à l'état des connaissances scientifiques. Des conséquences juridiques étant associées à cette référence, il importe d'en préciser le sens. Il y a là matière à une délicate opération de qualification. Les critères guidant le juriste dans cette tâche manquent aujourd'hui. C'est pourquoi les éclairages de la philosophie des sciences s'avèrent du plus grand intérêt pour le droit. L'épistémologie réfutationniste développée par Karl Popper, qui conçoit la science comme un ensemble de conjectures réfutables, fait accéder le juriste à une meilleure compréhension de la connaissance scientifique. Cette vision de la science permet de mieux saisir le rôle que le savoir scientifique doit jouer dans l'appréciation de la faute du médecin. Le comportement de ce dernier est jaugé à l'aune de normes médicales, entremêlant subtilement science et jugements de valeur. Via un phénomène d'internormativité, le droit renvoie à un réseau normatif qui lui est extérieur. La technique juridique par laquelle s'opère un tel renvoi est celle du standard. L'application du standard des données acquises de la science suscite d'indéniables difficultés. D'abord, elle requiert les lumières d'un expert, ce qui suppose de définir clairement le rôle de ce dernier par rapport à celui du juge. Ensuite, il est à craindre que ce standard favorise une appréciation inappropriée de la faute médicale parce que trop abstraite.
APA, Harvard, Vancouver, ISO, and other styles
16

Moreau, Jean-Christophe. "Développement de logiciels spécifiques pour une gestion informatique de données médicales au sein d'un service d'ORL." Université Louis Pasteur (Strasbourg) (1971-2008), 1985. http://www.theses.fr/1985STR1M082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Maaroufi, Meriem. "Interopérabilité des données médicales dans le domaine des maladies rares dans un objectif de santé publique." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066275/document.

Full text
Abstract:
La santé se digitalise et de multiples projets d’e-santé se développent. Dans le contexte des maladies rares (MR), un champ qui est devenu parmi les priorités de la stratégie de santé publique en France, l’e-santé pourrait constituer une solution pour améliorer les connaissances sur l’épidémiologie des MR. La Banque Nationale de Données Maladies Rares (BNDMR) propose de centraliser la conduite de ces études épidémiologiques pour toutes les MR et tous les patients, atteints de ces maladies, suivis dans le système de soin français. La BNDMR doit se développer au sein d’un paysage numérique dense et hétérogène. Développer l’interopérabilité de la BNDMR constitue l’objectif des travaux de cette thèse. Comment identifier les patients, incluant les fœtus ? Comment fédérer les identités des patients? Comment chainer des données pour permettre la conduite des études ? En réponse à ces questions, nous proposons une méthode universelle d’identification des patients qui respecte les contraintes de protection des données de santé. Quelles données recueillir dans la BNDMR ? Comment améliorer l’interopérabilité entre ces données et celles issues du large éventail des systèmes existants ? En réponse à ces questions, nous proposons de standardiser le recueil d’un set minimal de données pour toutes les MR. L’implémentation de standards internationaux assure un premier pas vers l’interopérabilité. Nous proposons aussi d’aller à la découverte de correspondances. Minimiser l’intervention humaine en adoptant des techniques d’alignement automatisé et rendre fiables et exploitables les résultats de ces alignements ont constitué les principales motivations de notre proposition
The digitalization of healthcare is on and multiple e-health projects are unceasingly coming up. In the rare diseases context, a field that has become a public health policy priority in France, e-health could be a solution to improve rare diseases epidemiology and to propose a better care for patients. The national data bank for rare diseases (BNDMR) offers the centralization of these epidemiological studies conduction for all rare diseases and all affected patients followed in the French healthcare system. The BNDMR must grow in a dense and heterogeneous digital landscape. Developing the BNDMR interoperability is the objective of this thesis’ work. How to identify patients, including fetuses? How to federate patients’ identities to avoid duplicates creation? How to link patients’ data to allow studies’ conduction? In response to these questions, we propose a universal method for patients’ identification that meets the requirements of health data protection. Which data should be collected in the national data bank? How to improve and facilitate the development of interoperability between these data and those from the wide range of the existing systems? In response to these questions, we first propose the collection of a standardized minimum data set for all rare diseases. The implementation of international standards provides a first step toward interoperability. We then propose to move towards the discovery of mappings between heterogeneous data sources. Minimizing human intervention by adopting automated alignment techniques and making these alignments’ results reliable and exploitable were the main motivations of our proposal
APA, Harvard, Vancouver, ISO, and other styles
18

Daul, Christian. "Segmentation, recalage et reconstruction 3D de données.Traitement d'images médicales et industrielles." Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00326078.

Full text
Abstract:
Le travail de recherche relaté dans ce manuscrit présente mes activités en traitement d'images que j'ai menées successivement dans trois organismes, à savoir le Laboratoire des Sciences de l'Image, de l'Informatique et de la Télédétection (LSIIT, UMR CNRS/Université Louis Pasteur de Strasbourg), l'Institut für Techno- und Wirtschaftsmathematik'' (Fraunhofer Institut, Kaiserslautern, Allemagne) et le Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS/Nancy Université). D'un point de vue scientifique, mes principales activités en traitement d'images concernent la segmentation d'images dont le contenu, relativement complexe, requiert des algorithmes utilisant des connaissances a priori liées aux objets à segmenter (contours actifs, méthode s'inspirant de la transformée de Hough. Le recalage de donnée 2D ou 3D et monomodales ou multimodales est un autre aspect scientifique caractérisant le travail décrit ici. Ces thèmes de recherche, ainsi que des méthodes de reconstruction et/ou de superposition de données 3D ont conduit à des solutions originales dans le cadre de problèmes industriels (reconstruction 3D de pièces manufacturées pour une mesure dimensionnelle et classification de surfaces en fonction de leur teinte et texture) ou médicaux (diagnostic précoce du cancer du sein via la reconstruction du foyer de microcalcifications, positionnement de patients en radiothérapie intra crânienne par recalage 3D multimodal, aide au diagnostic de maladies cardio-vasculaires par la superposition de données multimodales et détection du cancer de la vessie par mosaïquage d'images).
APA, Harvard, Vancouver, ISO, and other styles
19

Dary, Christophe. "Analyse géométrique d'image : application à la segmentation multi-échelle des images médicales." Nantes, 1992. http://www.theses.fr/1992NANT07VS.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Le, Goualher Georges. "Modélisation de structures anatomiques cérébrales pour l'aide à l'interprétation d'images médicales et à la fusion des données." Rennes 1, 1997. http://www.theses.fr/1997REN10010.

Full text
Abstract:
La resolution spatiale des volumes irm 3d permet une visualisation de plus en plus detaillee du cortex cerebral humain. En particulier, les structures sur lesquelles l'anatomie descriptive du cortex cerebral est basee (les sillons corticaux) peuvent maintenant etre visualisees in vivo. L'importance de ces marqueurs anatomiques (permettant une mise en correspondance inter-individuelle) est d'autant plus a souligner que certains d'entre eux permettent une localisation a priori de certaines zones fonctionnelles majeures. Plusieurs facteurs de variabilite se combinent au niveau du cortex cerebral et rendent son interpretation particulierement difficile. Cette complexite necessite la mise au point de methodes d'aide a l'interpretation d'images afin de faciliter la comprehension de ces structures. Nous presentons dans cette these deux contributions visant a faciliter l'interpretation du cortex cerebral. Nous presentons dans un premier temps une methode de modelisation de la topographie du cortex cerebral. La methode est basee sur l'utilisation d'un ruban actif dont la topologie change au cours de la phase de segmentation. Cette methode permet de modeliser la structure tridimensionnelle des reperes corticaux a partir d'une initialisation simple. Cette methode permet des lors de visualiser des configurations geometriques qu'il etait impossible d'observer a partir des donnees irm brutes et contribue ainsi a faciliter la comprehension de l'anatomie corticale. Nous proposons alors un modele permettant de decrire l'organisation de ces structures. La difficulte a ce niveau reside dans la forte variabilite inter-individuelle des entites elementaires sur lesquelles cette description est fondee. Nous avons utilise un formalisme de description pour preciser les concepts utilises par les experts pour decrire l'organisation des reperes corticaux. La structure (ou le schema) d'une base de donnees est alors definie a partir du modele obtenu. Cette methode permet de concevoir une base de donnees capable de stocker des descriptions de l'anatomie cerebrale, a partir de laquelle on pourra enrichir et preciser un modele prototypique de l'anatomie cerebrale. Nous presentons egalement deux applications integrant la modelisation des reperes corticaux. La premiere application utilise les reperes corticaux generiques pour contraindre la mise en correspondance inter-individuelle (fusion de donnees anatomique inter-individuelle). La seconde est une application de visualisation, dans un environnement anatomique, de donnees fonctionnelles meg. Cette seconde application permet d'interpreter tant la composante spatiale que temporelle des donnees fonctionnelles recueillies.
APA, Harvard, Vancouver, ISO, and other styles
21

Quellec, Gwenole. "Indexation et fusion multimodale pour la recherche d'informations par le contenu : Application aux bases de données d'images médicales." Télécom Bretagne, 2008. http://www.theses.fr/2008TELB0078.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux méthodes de recherche d'information dans des bases de données constituées de documents multimédia. Nous les appliquons à des documents contenant des images numériques et des éléments sémantiques associés. Notre objectif est de sélectionner dans la base des documents similaires à un document proposé en requête. Pour réaliser cet objectif, nous proposons des méthodes basées sur la recherche d'images par le contenu et le raisonnement à base de cas. L'application visée est l'aide au diagnostic dans un cadre médical : la base est constituée de dossiers patients contenant plusieurs images et des informations cliniques contextuelles à propos du patient. Le système est appliqué à deux bases de données médicales multimodales. La première base de données étudiée est une base d'images rétiniennes, constituée au LaTIM pour l'aide au suivi de la rétinopathie diabétique. La seconde est une base publique de mammographies. Dans un premier temps, nous cherchons à caractériser individuellement chaque image du dossier patient. Cette caractérisation est effectuée dans le domaine compressé. Nous avons ainsi proposé deux méthodes originales d'indexation à partir de la transformée en ondelettes des images : 1) une méthode globale, modélisant la distribution des coefficients d'ondelette dans l'image, 2) une méthode locale, basée sur l'extraction de lésions modélisables par une fonction paramétrique. Une des originalités de ces méthodes réside dans le fait que la base d'ondelettes est recherchée par optimisation dans le cadre du schéma de lissage. Après avoir obtenu les signatures caractérisant les images, nous cherchons à fusionner les signatures provenant de l'ensemble des images du dossier, ainsi que des informations sémantiques contextuelles, pour sélectionner les dossiers patients les plus proches. Outre le problème de l'hétérogénéité des données, nous devons résoudre le problème de l'incomplétude des dossiers patients. A notre connaissance, seuls des systèmes de recherche traitant séparément chaque type d'information ont été proposées dans la littérature. Nous proposons trois nouvelles approches, inspirées de la fouille de données et de la fusion d'information, pour réellement intégrer les différentes sources d'information hétérogènes tout en gérant les informations manquantes. La première est basée sur les arbres de décision et ses extensions, la deuxième sur les réseaux bayésiens et la troisième sur la théorie de Dezert-Smarandache (DSmT). Les résultats que nous obtenons pour les deux bases de données médicales multimodales que nous étudions sont très satisfaisants et supérieurs aux méthodes classiques. Ainsi, la précision moyenne pour une fenêtre de cinq cas atteint 81,78% pour la base d'images rétiniennes et 92,90% pour la base des mammographies
In this Ph. D thesis, we study methods for information retrieval in databases made of multidimedia documents. Our objective is to select in a database documents similar to a query document. The aimed application is computer aided diagnosis in a medical framework: the database is made up of several images together with clinical contextual information about the patient. We firts try to characterize each image in the patient file individually. We have thus proposed two original indexing methods derived from the wavelet transform of images: 1) a global method, modeling the distribution of wavelet coefficients in the image, 2) a local method, based on the extraction of lesions. Once images are characterized, we try to used all the information in the file to retrieve the closest patient files. In addition to the heterogeneity of the data, with have to cope with missing information in patient files. We propose three new approaches, derived from data mining and information fusion theory. The first approach is based on decision trees, the second one on Bayesian networks and the third one on the Dezert-Smarandache theory (DSmT). The results obtained on two multimodamedical databases are satisfying and superior to existing methods. Thus, the mean precision at five research 81. 78 % on a retinal image database and 92. 90 % on a mammography database
APA, Harvard, Vancouver, ISO, and other styles
22

Lemaire, Pierre. "Base de données informatique : application aux leucémies aigue͏̈s." Paris 5, 1997. http://www.theses.fr/1997PA05P039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Ly, Birama Apho. "Prévalence et facteurs associés aux données manquantes des registres de consultations médicales des médecins des centres de santé communautaires de Bamako." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28555/28555.pdf.

Full text
Abstract:
Objectifs Cette étude avait pour but d’estimer la prévalence des données manquantes dans les registres de consultations médicales tenus par les médecins des Centres de santé communautaire (CSCOM) de Bamako et d’identifier, à partir de la théorie du comportement planifié, les facteurs qui prédisent l’intention des médecins de faire la collecte exhaustive des données dans leurs registres. Méthode Une étude transversale exploratoire a été conduite, incluant 3072 consultations médicales et 32 médecins aléatoirement choisis. Les données ont été collectées entre janvier et février 2011 à travers une fiche de dépouillement et un questionnaire portant sur les caractéristiques sociodémographiques et professionnelles des médecins et sur les construits de la théorie du comportement planifié. Des statistiques descriptives, des corrélations et des analyses de régression ont été effectuées. Résultats Toutes les variables contenues dans les registres de consultations médicales comportent des données manquantes. Toutefois, seules quatre variables (symptôme, diagnostic, traitement et observation) ont des prévalences élevées de données manquantes. La variable observation a la prévalence la plus élevée avec 95,6 % de données manquantes. Par ailleurs, l’intention des médecins de faire la collecte exhaustive des données est prédite par la norme subjective et le nombre d’années de service. Conclusion Les résultats de cette étude contribueront à faire avancer les connaissances sur les données manquantes en identifiant les stratégies possibles à mettre en œuvre pour améliorer la qualité de l’information sanitaire recueillie au niveau des CSCOM. Ils permettront, aussi, de mieux informer les décisions concernant l’allocation des ressources.
Objective This study aims to estimate the prevalence of missing data in the medical consultation registries held by physicians working in Bamako community health Centers (COMHC) and to identify the factors which predict physicians’ intention to collect completely the data in their registries, based on the Theory of Planned Behaviour (TPB). Method A exploratory cross-sectional study was conducted, including a random sample of 3072 medical consultations and 32 physicians. Data were collected between January and February 2011 through a standardized extraction form and a questionnaire measuring physicians’ sociodemographic and professional characteristics as well as constructs from the Theory of Planned Behaviour (TPB). Descriptive statistics, correlations and linear regression were performed. Results All the variables contained in the medical consultations registries have missing data. However, only four variables (symptom, diagnosis, treatment and observation) have a high prevalence of missing data. The variable observation has the highest prevalence with 95.6% of missing data. Physician’s intention to collect completely the data is predicted by their subjective norm and the number of years of practice. Conclusion The results of this study should contribute to advance knowledge on the prevalence of missing data and possible strategies to improve the quality of health information collected from the CSCOM. This information can possibly allow to better inform the decisions concerning resource allocation.
APA, Harvard, Vancouver, ISO, and other styles
24

Dorais-Joncas, Alexis. "Un mécanisme de conférence basé sur le protocole SIP pour la transmission simultanée de voix et de données médicales." Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/1378.

Full text
Abstract:
Dans une situation où une personne est victime d'un malaise cardiaque, il est connu que la rapidité d'intervention de l'équipe médicale est cruciale pour maximiser les chances de survie de la victime et minimiser les séquelles résultantes. Ceci permet de réduire la durée du séjour hospitalier, contribuant ainsi à une économie dans la prestation des soins de santé. Si un moyen de suivi du patient pendant le transport ambulancier et une rapide mise en conférence multimédia de plusieurs entités médicales était disponible, un problème double serait éliminé. D'une part, la communication vocale et la transmission de données physiologiques (e.g. électrocardiogrammes) permettrait à un urgentologue d'établir un premier diagnostic pour ainsi être mieux préparé à recevoir le patient. D'autre part, cet urgentologue pourrait déterminer que la condition du patient est telle qu'un autre spécialiste, un cardiologue par exemple, doit être consulté. Celui-ci pourrait être mis en conférence tout en étant exposé aux données physiologiques transmises en temps réel. Il pourrait alors conseiller l'urgentologue sur les mesures à prendre. Par exemple, il serait possible de conseiller la redirection de l'ambulance vers un établissement hospitalier alternatif, mieux adapté au type de malaise en cause. L'élaboration d'un moyen de suivi du patient pendant le transport ambulancier et d'une rapide mise en conférence multimédia d'entités médicales est possible. De nombreux aspects techniques, allant des communications radio aux considérations applicatives de haut niveau, doivent être abordés. La contribution apportée par ces travaux à l'élaboration d'un tel moyen se situe au niveau du développement d'un mécanisme permettant la mise en conférence multimédia de plusieurs entités que l'on suppose reliées à un réseau IP. Une architecture de mise en conférence totalement distribuée et maillée a été retenue, où chaque paire d'entités est responsable de maintenir une communication directe entre elles. On doit maintenir n*(n-1)/2 communications pour une conférence entre n entités. Aucun serveur central n'est requis, évitant ainsi le problème de point de défaillance unique et facilitant alors l'extensibilité du système. L'inconvénient principal de cette architecture est que la quantité de bande passante requise croît rapidement en fonction du nombre d'entités. Il s'agit d'un inconvénient mineur puisque les communications vocales et la transmission d'électrocardiogrammes ne nécessitent pas de débits importants tant que le nombre d'entités sera inférieur à dix. Pour le partage d'électrocardiogrammes en temps réel, il a été choisi de représenter les informations physiologiques sous forme de fichiers XML. Précisément, c'est le format ecgML, développé par H. Wang et F. Azuaje, que nous avons choisi. Nous avons réalisé le mécanisme de mise en conférence par une application logicielle. Basée sur le protocole SIP, elle permet l'établissement des communications en mode totalement distribué et maillé et la communication vocale sous le protocole RTP. Finalement, elle offre une interface graphique permettant la visualisation des électrocardiogrammes communiqués en format ecgML. L'application logicielle développée n'est que le premier jet d'un système qui peut être beaucoup plus élaboré. D'autres travaux orientés vers l'intégration du concept de présence et vers l'adaptation de contenu sont également en cours et il est envisagé d'explorer certains aspects de la communication radio ambulance-hôpital. La technologie ainsi développée contribuera à augmenter la rapidité et l'efficacité d'intervention des équipes médicales pour le plus grand bénéfice de la société.
APA, Harvard, Vancouver, ISO, and other styles
25

Jacques, Julie. "Classification sur données médicales à l'aide de méthodes d'optimisation et de datamining, appliquée au pré-screening dans les essais cliniques." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00919876.

Full text
Abstract:
Les données médicales souffrent de problèmes d'uniformisation ou d'incertitude, ce qui les rend difficilement utilisables directement par des logiciels médicaux, en particulier dans le cas du recrutement pour les essais cliniques. Dans cette thèse, nous proposons une approche permettant de palier la mauvaise qualité de ces données à l'aide de méthodes de classification supervisée. Nous nous intéresserons en particulier à 3 caractéristiques de ces données : asymétrie, incertitude et volumétrie. Nous proposons l'algorithme MOCA-I qui aborde ce problème combinatoire de classification partielle sur données asymétriques sous la forme d'un problème de recherche locale multi-objectif. Après avoir confirmé les apports de la modélisation multi-objectif dans ce contexte, nous calibrons MOCA-I et le comparons aux meilleurs algorithmes de classification de la littérature, sur des jeux de données réels et asymétriques de la littérature. Les ensembles de règles obtenus par MOCA-I sont statistiquement plus performants que ceux de la littérature, et 2 à 6 fois plus compacts. Pour les données ne présentant pas d'asymétrie, nous proposons l'algorithme MOCA, statistiquement équivalent à ceux de la littérature. Nous analysons ensuite l'impact de l'asymétrie sur le comportement de MOCA et MOCA-I, de manière théorique et expérimentale. Puis, nous proposons et évaluons différentes méthodes pour traiter les nombreuses solutions Pareto générées par MOCA-I, afin d'assister l'utilisateur dans le choix de la solution finale et réduire le phénomène de sur-apprentissage. Enfin, nous montrons comment le travail réalisé peut s'intégrer dans une solution logicielle.
APA, Harvard, Vancouver, ISO, and other styles
26

Le, Duff Franck. "Enrichissement quantitatif et qualitatif de relations conceptuelles des bases de connaissances médicales par extraction et héritage automatique par des méthodes informatiques et probabilistes." Rennes 1, 2006. http://www.theses.fr/2006REN1B094.

Full text
Abstract:
Le projet de Système du Langage Unifié Médical (UMLS) vise à élaborer un entrepôt de termes, concepts et rapports entre concepts à partir de plusieurs classifications médicales. Cette thèse décrit la possibilité d'enrichir automatiquement avec des liens "sensés" la base de connaissances UMLS en employant la description des maladies d'autres bases de connaissance, dans notre cas l'ADM (Aide au Diagnostic Médical) et la SNOMED internationale. Malgré les contraintes et les difficultés pour qualifier les liens interconceptuels, les résultats prouvent qu'il est possible de trouver, de créer et de typer de nouveaux liens et de les intégrer ensuite automatiquement dans la base UMLS. Un des intérêts de ce travail est que l'étude automatisée des rapprochements entre bases pourrait être employé avec d'autres bases de connaissances comme des bases de données de systèmes experts et permettre la navigation sémantique dans un réseau de concepts actuellement encore trop dépourvu d'intelligence.
APA, Harvard, Vancouver, ISO, and other styles
27

Sauquet, Dominique. "Lied : un modèle de données sémantique et temporel : son intégration dans une architecture distribuée et son utilisation pour des applications médicales." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0586.

Full text
Abstract:
Le travail présenté propose une solution au traitement de l'information complexe et distribuée dans le contexte d'applications médicales. La solution repose à la fois sur un modèle de données qui facilite la représentation des données temporelles ou répétitives et des relations entre les données (le modèle LIED, langage interactif pour l'exploitation des données) et sur une architecture de communication (le HUB, HELIOS Unification Bus). Apres une rapide introduction sur le contexte médical d'expérimentation et sur une brève présentation du modèle, on y aborde en détails les aspects de modélisation. On y fait référence aux travaux de normalisation ou de recherche du domaine médical (travaux du CEN TC 251 ou de l'ODMG, projets HELIOS, GEHR, GALEN, …). On y décrit ensuite le modèle choisi pour la représentation des concepts médicaux et des items ainsi que la façon dont ces items sont agrégés pour former le modèle d'information. Les aspects temporels sont aussi abordés, à la fois d'un point de vue bibliographique portant sur les bases de données temporelles et d'un point de vue de la solution proposée dans le modèle LIED. L'auteur s'intéresse ensuite aux aspects de distribution et aux solutions en terme de logiciels pour assurer l'intégration des systèmes hétérogènes distribués. Les différentes solutions, connues sous le nom générique de middleware, sont présentées. Une proposition de classification des middlewares est aussi faite, ainsi qu'une présentation des tendances en matière d'évolution de ces logiciels. L'auteur s'intéresse ensuite à la solution middleware qu'il a mise en œuvre dans le cadre du projet HELIOS, le HUB, et à la façon dont LIED a bénéficié des apports du HUB. Les aspects d'interface homme-machine sont ensuite étudiés, avant d'aborder les résultats de l'implémentation et de la mise en production dans les différents services de l'hôpital Broussais. Le travail se termine sur une étude critique de positionnement par rapport aux « SGBD Orienté Objet » ainsi que sur les perspectives qu'il offre dans le cadre des projets de recherche européens Synapses et SynEx, références en terme de plateformes d'intégration du domaine médical. Ce travail résume l'investissement personnel de l'auteur depuis de nombreuses années (entre 12 et 15) ainsi que l'état de l'art du génie logiciel, dans le contexte des réalisations d'informatique médicale.
APA, Harvard, Vancouver, ISO, and other styles
28

Nouri, Nedia. "Évaluation de la qualité et transmission en temps-réel de vidéos médicales compressées : application à la télé-chirurgie robotisée." Electronic Thesis or Diss., Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL049N.

Full text
Abstract:
L'évolution des techniques chirurgicales, par l'utilisation de robots, permet des interventions mini-invasives avec une très grande précision et ouvre des perspectives d'interventions chirurgicales à distance, comme l'a démontré la célèbre expérimentation « Opération Lindbergh » en 2001. La contrepartie de cette évolution réside dans des volumes de données considérables qui nécessitent des ressources importantes pour leur transmission. La compression avec pertes de ces données devient donc inévitable. Celle-ci constitue un défi majeur dans le contexte médical, celui de l'impact des pertes sur la qualité des données et leur exploitation. Mes travaux de thèse concernent l'étude de techniques permettant l'évaluation de la qualité des vidéos dans un contexte de robotique chirurgicale. Deux approches méthodologiques sont possibles : l'une à caractère subjectif et l'autre à caractère objectif. Nous montrons qu'il existe un seuil de tolérance à la compression avec pertes de type MPEG2 et H.264 pour les vidéos chirurgicales. Les résultats obtenus suite aux essais subjectifs de la qualité ont permis également de mettre en exergue une corrélation entre les mesures subjectives effectuées et une mesure objective utilisant l'information structurelle de l'image. Ceci permet de prédire la qualité telle qu'elle est perçue par les observateurs humains. Enfin, la détermination d'un seuil de tolérance à la compression avec pertes a permis la mise en place d'une plateforme de transmission en temps réel sur un réseau IP de vidéos chirurgicales compressées avec le standard H.264 entre le CHU de Nancy et l'école de chirurgie
The digital revolution in medical environment speeds up development of remote Robotic-Assisted Surgery and consequently the transmission of medical numerical data such as pictures or videos becomes possible. However, medical video transmission requires significant bandwidth and high compression ratios, only accessible with lossy compression. Therefore research effort has been focussed on video compression algorithms such as MPEG2 and H.264. In this work, we are interested in the question of compression thresholds and associated bitrates are coherent with the acceptance level of the quality in the field of medical video. To evaluate compressed medical video quality, we performed a subjective assessment test with a panel of human observers using a DSCQS (Double-Stimuli Continuous Quality Scale) protocol derived from the ITU-R BT-500-11 recommendations. Promising results estimate that 3 Mbits/s could be sufficient (compression ratio aroundthreshold compression level around 90:1 compared to the original 270 Mbits/s) as far as perceived quality is concerned. Otherwise, determining a tolerance to lossy compression has allowed implementation of a platform for real-time transmission over an IP network for surgical videos compressed with the H.264 standard from the University Hospital of Nancy and the school of surgery
APA, Harvard, Vancouver, ISO, and other styles
29

Loukil, Adlen. "Méthodologies, Modèles et Architectures de Référence pour la Gestion et l'Echange de Données Médicales Multimédia : Application aux Projets Européen OEDIPE et BRITER." Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0016.

Full text
Abstract:
La coopération entre les systèmes d’information médicaux constitue l’un des principaux challenges de la Télémédecine et de son principal corollaire : l’amélioration de la qualité des soins. Cependant, aucune solution d'ordre général n'a encore été proposée pour faciliter l’interopérabilité entre des systèmes de gestion de données hétérogène, et ce malgré l'intérêt que suscite ce problème. Après avoir présenté une synthèse des architectures et. Standards existants, nous proposons dans ce mémoire une solution générale qui consiste en la définition de protocoles de communications entre les systèmes coopérants et en la conception de modules générique et réutilisables assurant la gestion de la communication, l’extraction et la mise çà jour automatique des bases de données cibles. Ces modules applicatifs s’appuient sur un dictionnaire de données modélisant la structure des messages de donnée véhiculés par les protocoles de communication, la structure des bases de données cibles, et les interrelations entre les deux. Des procédures de rétro conception et de génération automatique de commandes SQL ont été implémentées afin de répondre aux contraintes d'évolutivité des schémas des bases de données. Nous décrivons à titre d’exemple l'architecture applicative implémentée dans le cadre du projet OEDIPE pour interfacer des protocoles d’échange de données et de signaux en Cardiologie avec des bases de données électrocardiographiques de référence. Enfin, nous traitons de la modélisation et de l’intégration de systèmes de gestion de dossiers médicaux répartis par le biais de protocoles de communications préétablis. Nous présentons d'abord une approche multidimensionnelle de la structuration des informations contenues dans les dossiers médicaux et en proposons un modèle d'information générique. Puis nous explicitons l'architecture d'un système développé pour l’échange de données hétérogènes multi sources à des fins de Télé expertise dans le domaine de la Réhabilitation (projet BRITER). Nous démontrons ainsi que l'utilisation de protocoles de communication standard permet la réutilisation d'applications portables et interopérables, d’un grand intérêt pour les professionnels de santé
Interchange and Integration of medical data is a fundamental task in modern medicine. However, a significant obstacle to the development of efficient interoperable information systems is the lack of software tools that provide transparent access to heterogeneous distributed databases. Currently most of the solutions are stand-alone ones fitting only one configuration. To solve this problems of integration and interoperability, we propose in this thesis an original approach which is based on the definition of communication protocols and the design of generic interface between the specific implementations of the protocols and the target databases associated to the Hospital Information Systems. The proposed solution is based on the development of a data dictionary modelling the communications protocols and the databases structures and generic module for the data storage and extraction. The design involves issues related to reverse engineering procedures and to automatic generation of SQL statements. To illustrate this approach, we present the demonstration prototype we have developed in the framework of the OEDIPE AIM project to experiment and to test open interchange of ECGs and associated clinical data. The second part is devoted to the modelling and integration of distributed electronic patient records using communications protocols. We first present a multidimensional approach for the structuring of patient records and propose a generic object oriented information model which integrates bio signals, images and accompanying clinical information. We then, describe a prototype system which has been developed in the framework of the BRITER AIM project for accessing and handling heterogeneous patient data stored in distributed electronic patient records in order to support Rehabilitation healthcare professional in making decisions. We thus demonstrate that the use of standard communications protocols allows and facilitate the development of portable and interoperable medical applications for the benefit of the health care field
APA, Harvard, Vancouver, ISO, and other styles
30

Beylot, Saphia. "Maternité de Langon : rapport d'activité pour l'année 1990, essai d'évaluation de la qualité des soins par un traitement informatique des données médicales." Bordeaux 2, 1991. http://www.theses.fr/1991BOR2M230.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Li, Huiyu. "Exfiltration et anonymisation d'images médicales à l'aide de modèles génératifs." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4041.

Full text
Abstract:
Cette thèse aborde plusieurs problèmes de sécurité et de confidentialité lors du traitement d'images médicales dans des lacs de données. Ainsi, on explore la fuite potentielle de données lors de l'exportation de modèles d'intelligence artificielle, puis on développe une approche d'anonymisation d'images médicales qui protège la confidentialité des données. Le Chapitre2 présente une nouvelle attaque d'exfiltration de données, appelée Data Exfiltration by Compression (DEC), qui s'appuie sur les techniques de compression d'images. Cette attaque est effectuée lors de l'exportation d'un réseau de neurones entraîné au sein d'un lac de données distant et elle est applicable indépendamment de la tâche de traitement d'images considérée. En explorant à la fois les méthodes de compression sans perte et avec perte, ce chapitre montre comment l'attaque DEC peut être utilisée efficacement pour voler des images médicales et les reconstruire avec une grande fidélité, grâce à l'utilisation de deux ensembles de données CT et IRM publics. Ce chapitre explore également les contre-mesures qu'un propriétaire de données peut mettre en œuvre pour empêcher l'attaque. Il étudie d'abord l'ajout de bruit gaussien pour atténuer cette attaque, et explore comment les attaquants peuvent créer des attaques résilientes à cet ajout. Enfin, une stratégie alternative d'exportation est proposée, qui implique un réglage fin du modèle et une vérification du code. Le Chapitre 3 présente une méthode d'anonymisation d'images médicales par approche générative, une nouvelle approche pour trouver un compromis entre la préservation de la confidentialité des patients et l'utilité des images générées pour résoudre les tâches de traitement d'images. Cette méthode sépare le processus d'anonymisation en deux étapes : tout d'abord, il extrait les caractéristiques liées à l'identité des patients et à l'utilité des images médicales à l'aide d'encodeurs spécialement entrainés ; ensuite, il optimise le code latent pour atteindre le compromis souhaité entre l'anonymisation et l'utilité de l'image. Nous utilisons des encodeurs d'identité, d'utilité et un encodeur automatique génératif basé sur un réseau antagoniste pour créer des images synthétiques réalistes à partir de l'espace latent. Lors de l'optimisation, nous incorporons ces encodeurs dans de nouvelles fonctions de perte pour produire des images qui suppriment les caractéristiques liées à l'identité tout en conservant leur utilité pour résoudre un problème de classification. L'efficacité de cette approche est démontrée par des expériences sur l'ensemble de données de radiographie thoracique MIMIC-CXR, où les images générées permettent avec succès la détection de pathologies pulmonaires. Le Chapitre 4 s'appuie sur les travaux du Chapitre 3 en utilisant des réseaux antagonistes génératifs (GAN) pour créer une solution d'anonymisation plus robuste et évolutive. Le cadre est structuré en deux étapes distinctes : tout d'abord, nous développons un encodeur simplifié et un nouvel algorithme d'entraînement pour plonger chaque image dans un espace latent. Dans la deuxième étape, nous minimisons les fonctions de perte proposées dans le Chapitre 3 pour optimiser la représentation latente de chaque image. Cette méthode garantit que les images générées suppriment efficacement certaines caractéristiques identifiables tout en conservant des informations diagnostiques cruciales. Des expériences qualitatives et quantitatives sur l'ensemble de données MIMIC-CXR démontrent que notre approche produit des images anonymisées de haute qualité qui conservent les détails diagnostiques essentiels, ce qui les rend bien adaptées à la formation de modèles d'apprentissage automatique dans la classification des pathologies pulmonaires. Le chapitre de conclusion résume les contributions scientifiques de ce travail et aborde les problèmes et défis restants pour produire des données médicales sensibles, sécurisées et préservant leur confidentialité
This thesis aims to address some specific safety and privacy issues when dealing with sensitive medical images within data lakes. This is done by first exploring potential data leakage when exporting machine learning models and then by developing an anonymization approach that protects data privacy.Chapter 2 presents a novel data exfiltration attack, termed Data Exfiltration by Compression (DEC), which leverages image compression techniques to exploit vulnerabilities in the model exporting process. This attack is performed when exporting a trained network from a remote data lake, and is applicable independently of the considered image processing task. By exploring both lossless and lossy compression methods, this chapter demonstrates how DEC can effectively be used to steal medical images and reconstruct them with high fidelity, using two public CT and MR datasets. This chapter also explores mitigation measures that a data owner can implement to prevent the attack. It first investigates the application of differential privacy measures, such as Gaussian noise addition, to mitigate this attack, and explores how attackers can create attacks resilient to differential privacy. Finally, an alternative model export strategy is proposed which involves model fine-tuning and code verification.Chapter 3 introduces the Generative Medical Image Anonymization framework, a novel approach to balance the trade-off between preserving patient privacy while maintaining the utility of the generated images to solve downstream tasks. The framework separates the anonymization process into two key stages: first, it extracts identity and utility-related features from medical images using specially trained encoders; then, it optimizes the latent code to achieve the desired trade-off between anonymity and utility. We employ identity and utility encoders to verify patient identities and detect pathologies, and use a generative adversarial network-based auto-encoder to create realistic synthetic images from the latent space. During optimization, we incorporate these encoders into novel loss functions to produce images that remove identity-related features while maintaining their utility to solve a classification problem. The effectiveness of this approach is demonstrated through extensive experiments on the MIMIC-CXR chest X-ray dataset, where the generated images successfully support lung pathology detection.Chapter 4 builds upon the work from Chapter 4 by utilizing generative adversarial networks (GANs) to create a more robust and scalable anonymization solution. The framework is structured into two distinct stages: first, we develop a streamlined encoder and a novel training scheme to map images into a latent space. In the second stage, we minimize the dual-loss functions proposed in Chapter 3 to optimize the latent representation of each image. This method ensures that the generated images effectively remove some identifiable features while retaining crucial diagnostic information. Extensive qualitative and quantitative experiments on the MIMIC-CXR dataset demonstrate that our approach produces high-quality anonymized images that maintain essential diagnostic details, making them well-suited for training machine learning models in lung pathology classification.The conclusion chapter summarizes the scientific contributions of this work, and addresses remaining issues and challenges for producing secured and privacy preserving sensitive medical data
APA, Harvard, Vancouver, ISO, and other styles
32

Mhedhbi, Imen. "Compression en qualité diagnostic de séquences d’images médicales pour des plateformes embarquées." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066745.

Full text
Abstract:
Les hôpitaux et les centres médicaux produisent une énorme quantité d'images médicales numériques chaque jour, notamment sous la forme de séquences d'images. En raison de la grande capacité de stockage et de la bande passante de transmission limitée, une technique de compression efficace est nécessaire. Nous avons proposé un algorithme de compression de séquences d'images médicales MMWaaves. Il repose sur l'utilisation de modèles Markovien couplé avec le codeur Waaves de la société Cira qui est certifié en tant que dispositif médicale. Nous avons démontré que MMWaaves a apporté un gain de compression supérieur à 30% par rapport à JPEG2000 et Waaves tout en gardant la qualité nécessaire pour les diagnostics cliniques (SSIM>0.98). En outre, il a permis d'atteindre des taux de compression égaux à ceux obtenus par H.264 en améliorant la qualité. Ensuite, nous avons développé une nouvelle chaine de compression MLPWaaves à base de différence en DWT suivie d'un nouveau modèle de tri adaptatif LPEAM permettant l'optimisation de la stationnarité locale des coefficients. Nous avons obtenu un gain de compression allant à 80% par rapport à Waaves et JPEG2000 tout en assurant une qualité exceptionnelle pour le diagnostic médical. Finalement, afin de transmettre à distance les images médicales du centre de santé à l'appareil mobile du médecin, nous avons proposé un système de télé-radiologie pour le codage et le décodage basé sur nouveau paradigme multithreading. La validation de cette nouvelle solution a été réalisée sur deux plateformes différentes. Nous avons obtenu un facteur d'accélération égal à 5 sur un Intel Core i7-2600 et un facteur égal à 3 sur une tablette Samsung Galaxy
Hospitals and medical centers produce an enormous amount of digital medical images every day especially in the form of image sequences. Due to the large storage size and limited transmission and width, an efficient compression technique is necessary. We first proposed a compressor algorithm for medical images sequences MMWaaves. It is based on Markov fields coupled with the certified medical device Waaves of Cira company. We demonstrated that MMWaaves provided a compression gains greater than 30% compared to JPEG2000 and Waaves while ensuring outstanding image quality for medical diagnosis (SSIM> 0.98). In addition, it achieved compression rates equal to those obtained by H.264 while improving the image quality. Then we developed a new compression algorithm MLPWaaves based on DWT difference followed by a new adaptive scanning model LPEAM in order to optimize the local stationary of wavelet coefficients. We obtained a compression gain up to 80% compared to Waaves and JPEG2000 while ensuring exceptional quality for medical diagnosis. Finally, in order to transmit medical images for diagnostic from the health center to the mobile device of the doctor, we proposed client-server remote radiology system for encoding and decoding. It is based on a multithreading paradigm to accelerate treatment. The validation of this solution was performed on two different platforms. We achieved an acceleration factor of 5 on an Intel Core i7-2600 and a factor of 3 on Samsung Galaxy tablet
APA, Harvard, Vancouver, ISO, and other styles
33

Klotz, Rémi. "Analyse sur le long terme des complications médicales chez les blessés médullaires tétraplégiques vivant à domicile : données de l'enquête TETRAFIGAP sur 1668 patients." Bordeaux 2, 1998. http://www.theses.fr/1998BOR23029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Byk, Christian. "Ethique et droit face au développement des sciences biologiques et médicales : Données pour une méthodologie législative en Europe à partir de l'exemple nord-américain." Paris 2, 1991. http://www.theses.fr/1991PA020037.

Full text
Abstract:
Avec le developpement des sciences biologiques et medicales l'homme a pris conscience de la dimension nouvelle qui s'offre a lui, de maitriser sa nature. Comment le debat qui a lieu en europe sur l'opportunite et la maniere de legiferer peut-il etre eclaire par l'experience acquise en amerique du nord l'analyse des sources qui contribuent a l'elaboration de ces nouvelles normes montre une inadaptation des institutions classiques ( parlement, juge ). En revanche, d'autres institutions ( celles du monde scientifique ou medical et les nouvelles instances d'ethique) jouent un role de plus en plus important. S'agissant du contenu de ces regles, qu'elle place offrent-elles a l'individu ? va-t-on vers un renforcement des droits de la personne sur son corps ou, au contraire, vers une plus grande ingerence de la societe sur celui-ci?
The development of biological sciences is the occasion for man to take conscience of the new dimension offered to him to dominate his nature. How can the present debate in europe on the the opportunity and methodology to legislate take into account the north-american experience ? the analysis of sources ( law jurisprudence) seem rather inadapted. However, other institutions ( belonging to the medical and scientific sphere and the new ethics committees ) play a role which is more and more important. Concerning the content of these new rules, what will be the importance of individuel rights ? could we expect a reinforcement of the rights of the individual on his own body or, on the contrary, will it lead to a greater interference of the state in the induvidual privacy ?
APA, Harvard, Vancouver, ISO, and other styles
35

Duque, Hector. "Conception et mise en oeuvre d'un environnement logiciel de manipulation et d'accès à des données réparties : application aux grilles d'images médicales : le système DSEM / DM2." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0050/these.pdf.

Full text
Abstract:
La vision que nous défendons est celle de grilles biomédicales partenaires des systèmes médicaux (hôpitaux), à la fois fournisseuses de puissance de calcul et plates-formes de partage d'informations. Nous proposons une architecture logicielle de partage d'images médicales réparties à grande échelle. S'appuyant sur l'existence a priori d'une infrastructure de grille, nous proposons une architecture multi-couche d'entités logicielles communicantes (DSE : Distributed Systems Engines). Fondée sur une modélisation hiérarchique sémantique, cette architecture permet de concevoir et de déployer des applications réparties performantes, fortement extensibles et ouvertes, capables d'assurer l'interface entre grille, systèmes de stockage de données et plates-formes logicielles locales (propres aux entités de santé) et dispositifs d'acquisition d'images, tout en garantissant à chaque entité une maîtrise complète de ses données dont elle reste propriétaire
Our vision, in this thesis, is the one of a bio-medical grip as a partner of hospital's information systems, sharing computing resources as well as a platform for sharing information. Therefore, we aim at (i) providing transparent access to huge distributed medical data sets, (ii) querying these data by their content, and (iii), sharing computing resources within the grip. Assuming the existence of a grip infrastructure, we suggest a multi-layered architecture (Distributed Systems Engines – DSE). This architecture allows us to design High Performance Distributed Systems which are highly extensible, scalable and open. It ensures the connection between the grip, data storing systems, and medical platforms. The conceptual design of the architecture assumes a horizontal definition for each one of the layers, and is based on a multi-process structure. This structure enables the exchange of messages between processes by using the Message Passing Paradigm. These processes and messages allow one to define entities of a higher level of semantic significance, which we call Drivers and, which instead of single messages, deal with different kinds of transactions: queries, tasks and requests. Thus, we define different kinds of drivers for dealing with each kind of transaction, and in a higher level, we define services as an aggregation of drivers. The architectural framework of drivers and services eases the design of components of a Distributed System (DS), which we call engines, and also eases the extensibility and scalability of DS
APA, Harvard, Vancouver, ISO, and other styles
36

Lelong, Romain. "Accès sémantique aux données massives et hétérogènes en santé." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR030/document.

Full text
Abstract:
Les données cliniques sont produites par différents professionnels de santé, dans divers lieux et sous diverses formes dans le cadre de la pratique de la médecine. Elles présentent par conséquent une hétérogénéité à la fois au niveau de leur nature et de leur structure mais également une volumétrie particulièrement importante et qualifiable de massive. Le travail réalisé dans le cadre de cette thèse s’attache à proposer une méthode de recherche d’information efficace au sein de ce type de données complexes et massives. L’accès aux données cliniques se heurte en premier lieu à la nécessité de modéliser l’informationclinique. Ceci peut notamment être réalisé au sein du dossier patient informatisé ou, dans une plus large mesure, au sein d’entrepôts de données. Je propose dans ce mémoire unepreuve de concept d’un moteur de recherche permettant d’accéder à l’information contenue au sein de l’entrepôt de données de santé sémantique du Centre Hospitalier Universitaire de Rouen. Grâce à un modèle de données générique, cet entrepôt adopte une vision de l’information assimilable à un graphe de données rendant possible la modélisation de cette information tout en préservant sa complexité conceptuelle. Afin de fournir des fonctionnalités de recherche adaptées à cette représentation générique, un langage de requêtes permettant l’accès à l’information clinique par le biais des diverses entités qui la composent a été développé et implémenté dans le cadre de cette thèse. En second lieu, la massivité des données cliniques constitue un défi technique majeur entravant la mise en oeuvre d’une recherche d’information efficace. L’implémentation initiale de la preuve de concept sur un système de gestion de base de données relationnel a permis d’objectiver les limites de ces derniers en terme de performances. Une migration vers un système NoSQL orienté clé-valeur a été réalisée. Bien qu’offrant de bonnes performances d’accès atomique aux données, cette migration a également nécessité des développements annexes et la définition d’une architecture matérielle et applicative propice à la mise en oeuvre des fonctionnalités de recherche et d’accès aux données. Enfin, l’apport de ce travail dans le contexte plus général de l’entrepôt de données de santé sémantique du CHU de Rouen a été évalué. La preuve de concept proposée dans ce travail a ainsi été exploitée pour accéder aux descriptions sémantiques afin de répondre à des critères d’inclusion et d’exclusion de patients dans des études cliniques. Dans cette évaluation, une réponse totale ou partielle a pu être apportée à 72,97% des critères. De plus, la généricité de l’outil a également permis de l’exploiter dans d’autres contextes tels que la recherche d’information documentaire et bibliographique en santé
Clinical data are produced as part of the practice of medicine by different health professionals, in several places and in various formats. They therefore present an heterogeneity both in terms of their nature and structure and are furthermore of a particularly large volume, which make them considered as Big Data. The work carried out in this thesis aims at proposing an effective information retrieval method within the context of this type of complex and massive data. First, the access to clinical data constrained by the need to model clinical information. This can be done within Electronic Health Records and, in a larger extent, within data Warehouses. In this thesis, I proposed a proof of concept of a search engine allowing the access to the information contained in the Semantic Health Data Warehouse of the Rouen University Hospital. A generic data model allows this data warehouse to view information as a graph of data, thus enabling to model the information while preserving its conceptual complexity. In order to provide search functionalities adapted to this generic representation of data, a query language allowing access to clinical information through the various entities of which it is composed has been developed and implemented as a part of this thesis’s work. Second, the massiveness of clinical data is also a major technical challenge that hinders the implementation of an efficient information retrieval. The initial implementation of the proof of concept highlighted the limits of a relational database management systems when used in the context of clinical data. A migration to a NoSQL key-value store has been then completed. Although offering good atomic data access performance, this migration nevertheless required additional developments and the design of a suitable hardware and applicative architecture toprovide advanced search functionalities. Finally, the contribution of this work within the general context of the Semantic Health Data Warehouse of the Rouen University Hospital was evaluated. The proof of concept proposed in this work was used to access semantic descriptions of information in order to meet the criteria for including and excluding patients in clinical studies. In this evaluation, a total or partial response is given to 72.97% of the criteria. In addition, the genericity of the tool has also made it possible to use it in other contexts such as documentary and bibliographic information retrieval in health
APA, Harvard, Vancouver, ISO, and other styles
37

Mechinaud, Lamarche Vadel Agathe. "Elaboration d'indicateurs de mortalité post-hospitalière à différents délais avec prise en compte des causes médicales de décès." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA11T073/document.

Full text
Abstract:
L’objectif de cette thèse était d’investiguer différents choix méthodologiques, en particulier le choix du délai et la prise en compte des causes médicales de décès, dans l’élaboration des indicateurs de mortalité post-hospitalière visant à refléter la qualité des soins.Dans une première phase, les données médico-administratives hospitalières des bénéficiaires du Régime Général (RG) de l’Assurance Maladie décédés dans l'année suivant une hospitalisation en 2008 ou 2009 ont été appariées aux causes de décès (base du CépiDc). Le taux d’appariement était de 96,4%.Dans une deuxième phase les séjours pour lesquels la cause initiale de décès pouvait être qualifiée d'indépendante du diagnostic principal du séjour ont été repérés à l'aide d'un algorithme et d'un logiciel s'appuyant sur des standards internationaux. Dans une troisième phase, le modèle le plus souvent utilisé à l'international pour évaluer la mortalité intra-hospitalière (modèle « de Jarman ») a été reproduit et utilisé pour construire des indicateurs de mortalité par établissement à 30, 60, 90, 180 et 365 jours post-admission, pour l'année 2009 (12 322 831 séjours PMSI-MCO des bénéficiaires du RG).L’indicateur de mortalité intra-hospitalière s’est révélé biaisé par les pratiques de sortie des établissements (caractérisées par la durée moyenne de séjour et le taux de transfert vers d’autres établissements). Les indicateurs à 60 ou 90 jours post-admission doivent être préférés à l’indicateur à 30 jours car ils ont l’avantage d’inclure presque tous les décès intra-hospitaliers, limitant notamment les incitations à maintenir les patients en vie jusqu’à la fin de la période de suivi et/ou à cesser de leur dédier des ressources une fois ce terme atteint. L’utilisation des causes de décès en supprimant les décès indépendants change de façon négligeable les indicateurs de mortalité globale par établissement, toutefois elle pourrait être utile pour des indicateurs spécifiques, limités à certaines pathologies ou procédures.Des réserves quant à la pertinence de ces indicateurs ont été décrites (limites du modèle et des variables d'ajustement, hétérogénéité de la qualité du codage entre les établissements), mettant en évidence la nécessité de recherches complémentaires, en particulier sur leur capacité à refléter la qualité des soins et sur l’impact de leur diffusion publique. A ce jour, l’interprétation des indicateurs de mortalité par établissement nécessite la plus grande prudence
The main objective of this PhD work was to investigate different methodological options for the elaboration of post hospital mortality indicators aiming at reflecting quality of care, in particular to identify the most relevant timeframes and to assess the contribution of the causes of death information.In a first phase, the hospital discharge data of the French General health insurance scheme beneficiaries who died during the year following an hospital stay in 2008 or 2009 were linked to the cause of death register. The matching rate was 96.4%.In a second phase, the hospital stays for which the underlying cause of death could be qualified as independent from the main diagnosis were identified with an algorithm and a software relying on international standards.In a third phase, the method most widely used to assess in-hospital mortality (Dr Foster Unit method) was reproduced and used to construct hospital mortality indicators at 30, 60, 90, 180 et 365 days post-admission, on year 2009 (12 322 831 acute-care stays)..As in other countries, in-hospital mortality revealed biased by discharge patterns in the French data: hospitals : short length-of-stay or high transfer-out rates for comparable casemix tend to have lower in-hospital mortality. The 60-day and 90-day indicators should be preferred to the 30-day indicator, because they reflect a larger part of in-hospital mortality, and are less subject to the incentives either to maintain patients alive until the end of the follow-up window or to shift resources away when this length of stay is reached. The contribution of the causes of death seems negligible in the context of hospital-wide indicators, but it could prove its utility in future health services research about specific indicators limited to selected conditions or procedures.However, reservations about the relevance of hospital-wide mortality indicators aiming at assessing quality of care are described (limits of the statistical model and adjustment variables available, heterogeneity of the coding quality between hospitals). Further research is needed, in particular on the capacity of these indicators to reflect quality of care and on the impact of their public reporting. To date, the use of hospital-wide mortality indicators needs to be extremely cautious
APA, Harvard, Vancouver, ISO, and other styles
38

Nouri, Nedia. "Évaluation de la qualité et transmission en temps-réel de vidéos médicales compressées : application à la télé-chirurgie robotisée." Thesis, Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL049N/document.

Full text
Abstract:
L'évolution des techniques chirurgicales, par l'utilisation de robots, permet des interventions mini-invasives avec une très grande précision et ouvre des perspectives d'interventions chirurgicales à distance, comme l'a démontré la célèbre expérimentation « Opération Lindbergh » en 2001. La contrepartie de cette évolution réside dans des volumes de données considérables qui nécessitent des ressources importantes pour leur transmission. La compression avec pertes de ces données devient donc inévitable. Celle-ci constitue un défi majeur dans le contexte médical, celui de l'impact des pertes sur la qualité des données et leur exploitation. Mes travaux de thèse concernent l'étude de techniques permettant l'évaluation de la qualité des vidéos dans un contexte de robotique chirurgicale. Deux approches méthodologiques sont possibles : l'une à caractère subjectif et l'autre à caractère objectif. Nous montrons qu'il existe un seuil de tolérance à la compression avec pertes de type MPEG2 et H.264 pour les vidéos chirurgicales. Les résultats obtenus suite aux essais subjectifs de la qualité ont permis également de mettre en exergue une corrélation entre les mesures subjectives effectuées et une mesure objective utilisant l'information structurelle de l'image. Ceci permet de prédire la qualité telle qu'elle est perçue par les observateurs humains. Enfin, la détermination d'un seuil de tolérance à la compression avec pertes a permis la mise en place d'une plateforme de transmission en temps réel sur un réseau IP de vidéos chirurgicales compressées avec le standard H.264 entre le CHU de Nancy et l'école de chirurgie
The digital revolution in medical environment speeds up development of remote Robotic-Assisted Surgery and consequently the transmission of medical numerical data such as pictures or videos becomes possible. However, medical video transmission requires significant bandwidth and high compression ratios, only accessible with lossy compression. Therefore research effort has been focussed on video compression algorithms such as MPEG2 and H.264. In this work, we are interested in the question of compression thresholds and associated bitrates are coherent with the acceptance level of the quality in the field of medical video. To evaluate compressed medical video quality, we performed a subjective assessment test with a panel of human observers using a DSCQS (Double-Stimuli Continuous Quality Scale) protocol derived from the ITU-R BT-500-11 recommendations. Promising results estimate that 3 Mbits/s could be sufficient (compression ratio aroundthreshold compression level around 90:1 compared to the original 270 Mbits/s) as far as perceived quality is concerned. Otherwise, determining a tolerance to lossy compression has allowed implementation of a platform for real-time transmission over an IP network for surgical videos compressed with the H.264 standard from the University Hospital of Nancy and the school of surgery
APA, Harvard, Vancouver, ISO, and other styles
39

Jaborska, Alexandre. "Conception et réalisation d'une plate-forme d'acquisition et de traitement des données médicales : application à l'étude de la pertinence des alarmes en unités de soins intensifs." Compiègne, 2000. http://www.theses.fr/2000COMP1267.

Full text
Abstract:
L’augmentation importante du nombre d’appareils biomédicaux et l’accroissement de leur technicité dans l’environnement direct du patient de soins intensifs pose plusieurs problèmes. Le premier concerne la difficulté d’expliciter l’ensemble des informations produites par cet équipement. Le second est posé par la multitude d’alarmes générées par ce matériel, ce qui augmente le risque d’erreur d’interprétation. Ce travail présente dans une première partie la conception et la réalisation d’un système informatique évolutif, nommé Aiddiag , destiné à être une plate-forme de recherche et d’évaluation de différentes approches pour l’aide à la décision. L’utilisation de bases de connaissances étant nécessaire pour apporter cette aide, le système a été conçu pour permettre l’acquisition des connaissances. Les contraintes liées à la conception d’un tel système sont décrites. Une architecture modulaire, robuste et souple, est présentée. Une question de données originale par son efficacité dans la gestion d’un nombre important de données hétérogènes et sur de longues durées, a été mise au point. Un prototype a été réalisé, permettant la collecte des données depuis de nombreux appareils biomédicaux. La seconde partie du mémoire présente une étude destinée à évaluer la pertinence des alarmes dans une unité de soins intensifs adulte. Un relevé manuel des alarmes déclenchées a été rapproché d’un relevé automatique réalisé par la plate-forme Aiddiag dans le même temps. Une analyse a été réalisée afin de tenter de déterminer des critères permettant de différencier les vraies alarmes des fausses alarmes. Le faible nombre de vraies alarmes enregistrées ne permet d’obtenir que des résultats indicatifs, mais qui tracent la voie vers de nouvelles études. Après avoir décrit les perspectives, on conclut sur la bonne réponse du prototype aux contraintes exposées. Une évolution rapide du système peut se faire en particulier par l’adjonction de molécule à base de connaissances
In intensive Care Units, the increasing in number and technicality of biomedical devices in direct patient’s environment lead to several problems. The first is the difficulty for the medical staff in exploiting all the information provided by these devices. The second problem lies in the multiplicity of alarms generated, which can lead to misinterpretation. In first part, this work presents the design and implementation of an open computer-based system, named Aiddiag. It a research and evaluation platform able to support different approaches for decision support. As it is necessary to use knowledge-based systems in decision support, Aiddiag was designed to allow knowledge acquisition. The constraints associated with such a system are exposed. A modular, robust and open architecture is presented. A data management system was devised that can efficiently manage large amount of heterogeneous data over long periods. A functional prototype was implemented. It can be used to acquire data from several biomedical devices. The second part presents study concerning the evaluation of monitor alarms in adult intensive care unit. A manual report of alarms was linked to an automatic record performed by the Aiddiag platform on the same patient. An analysis procedure tried to extract criteria to differentiate true from the false alarms. The low number of true alarms allows only for qualitative results, but these may forward to new studies. After a description of the perspectives, we conclude on the appropriateness of the computer-based Aiddiag system to the initial constraints. The current evolution of this system involves the addition of new knowledge-based modules
APA, Harvard, Vancouver, ISO, and other styles
40

Bruandet, Amelie. "Facteurs pronostiques de patients atteints de démence suivis en centre mémoire de ressource et de recherche : exemple d'utilisation de bases de données médicales à des fins de recherche clinique." Phd thesis, Université du Droit et de la Santé - Lille II, 2008. http://tel.archives-ouvertes.fr/tel-00336252.

Full text
Abstract:
Les démences constituent une préoccupation majeure de santé publique. Les facteurs pronostiques des démences vont conditionner la rapidité du déclin des fonctions cognitives et exécutives et la survie des patients. Quand ces facteurs sont modifiables, l'amélioration de leur connaissance peut permettre de mettre en place des actions visant à limiter le déclin cognitif et à prolonger l'autonomie. Les études permettant leur analyse sont réalisées sur des populations de sujets malades et s'inscrivent dans le cadre de la recherche clinique. Les bases de données médicales, qui ne sont pas toujours constituées à des fins de recherche, sont néanmoins de plus en plus utilisées à ces fins.
L'objectif de mon travail est l'étude des facteurs pronostiques de patients, pris en charge au centre de mémoire de ressource et de recherche (CMRR) du Centre Hospitalier Régional et Universitaire (CHRU) de Lille et du centre médical des monts de Flandres de Bailleul. Pour cela, nous avons utilisé la base de données médicales informatisées des patients consultant au CMRR de Lille-Bailleul. Ce travail s'est en particulier intéressé aux avantages et aux limites de l'utilisation de bases de données médicales à des fins de recherche clinique dans l'étude des facteurs pronostiques des démences.
Dans une population de 670 patients ayant une maladie d'Alzheimer, nous avons confirmé que le déclin des fonctions cognitives (évaluées par le MMSE) était significativement plus élevé chez les sujets ayant un niveau d'éducation intermédiaire ou élevé par rapport aux sujets ayant un bas niveau d'éducation. Cependant, la mortalité ne différaient pas de façon significative entre ces trois groupes. Nous avons décrit une mortalité similaire entre patients ayant une maladie d'Alzheimer, une démence mixte ou une démence vasculaire. Les patients ayant une démence mixte avaient un déclin du MMSE plus important que les patients ayant une démence vasculaire mais moins important que les patients ayant une maladie d'Alzheimer. Enfin, nous avons montré que le risque de développer une démence vasculaire ou mixte augmentait de manière significative avec le nombre d'hypersignaux sous corticaux chez des patients ayant un mild cognitive impairment.
Ces travaux soulignent la difficulté de l'établissement du diagnostic des démences mixtes, la complexité de l'analyse du déclin des fonctions cognitives (prise en compte du stade de progression des démences, absence d'instrument de suivi des fonctions cognitives à la fois simple d'utilisation et sensible aux faibles variations au cours du temps ou non linéarité du déclin des fonctions cognitives), les avantages en terme de coût et de temps de l'utilisation de bases de données médicales, et les problème de sélection de la population issue d'une structure de soins.
Malgré les problèmes de représentativité des populations, ce travail montre l'intérêt de l'utilisation à des fins de recherche clinique de données médicales concernant des patients pris en charge en structure de soins.
APA, Harvard, Vancouver, ISO, and other styles
41

Molé, Christian. "Intérêts de procédés de nouvelles technologies en chirurgie expérimentale : Implémentations de données médicales en modélisation surfacique tridimensionnelle et en reconstruction plastique par stéréophotolithographie laser : applications en implantologie maxillo-mandibulaire." Nancy 1, 1996. http://docnum.univ-lorraine.fr/public/SCD_T_1996_0380_MOLE.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Bruandet, Amélie. "Facteurs pronostiques de patients atteints de démence suivis en Centre mémoire de ressources et de recherche : exemple d'utilisation de bases de données médicales à des fins de recherche clinique." Lille 2, 2008. http://tel.archives-ouvertes.fr/tel-00336252/fr/.

Full text
Abstract:
Les démences constituent une préoccupation majeure de santé publique. Les facteurs pronostiques des démences vont conditionner la rapidité du déclin des fonctions cognitives et exécutives et la survie des patients. Quand ces facteurs sont modifiables, l'amélioration de leur connaissance peut permettre de mettre en place des actions visant à limiter le déclin cognitif et à prolonger l'autonomie. Les études permettant leur analyse sont réalisées sur des populations de sujets malades et s'inscrivent dans le cadre de la recherche clinique. Les bases de données médicales, qui ne sont pas toujours constituées à des fins de recherche, sont néanmoins de plus en plus utilisées à ces fins. L'objectif de mon travail est l'étude des facteurs pronostiques de patients, pris en charge au centre de mémoire de ressource et de recherche (CMRR) du Centre Hospitalier Régional et Universitaire (CHRU) de Lille et du centre médical des monts de Flandres de Bailleul. Pour cela, nous avons utilisé la base de données médicales informatisées des patients consultant au CMRR de Lille-Bailleul. Ce travail s'est en particulier intéressé aux avantages et aux limites de l'utilisation de bases de données médicales à des fins de recherche clinique dans l'étude des facteurs pronostiques des démences. Dans une population de 670 patients ayant une maladie d'Alzheimer, nous avons confirmé que le déclin des fonctions cognitives (évaluées par le MMSE) était significativement plus élevé chez les sujets ayant un niveau d'éducation intermédiaire ou élevé par rapport aux sujets ayant un bas niveau d'éducation. Cependant, la mortalité ne différaient pas de façon significative entre ces trois groupes. Nous avons décrit une mortalité similaire entre patients ayant une maladie d'Alzheimer, une démence mixte ou une démence vasculaire. Les patients ayant une démence mixte avaient un déclin du MMSE plus important que les patients ayant une démence vasculaire mais moins important que les patients ayant une maladie d'Alzheimer. Enfin, nous avons montré que le risque de développer une démence vasculaire ou mixte augmentait de manière significative avec le nombre d'hypersignaux sous corticaux chez des patients ayant un mild cognitive impairment. Ces travaux soulignent la difficulté de l'établissement du diagnostic des démences mixtes, la complexité de l'analyse du déclin des fonctions cognitives (prise en compte du stade de progression des démences, absence d'instrument de suivi des fonctions cognitives à la fois simple d'utilisation et sensible aux faibles variations au cours du temps ou non linéarité du déclin des fonctions cognitives), les avantages en terme de coût et de temps de l'utilisation de bases de données médicales, et les problème de sélection de la population issue d'une structure de soins. Malgré les problèmes de représentativité des populations, ce travail montre l'intérêt de l'utilisation à des fins de recherche clinique de données médicales concernant des patients pris en charge en structure de soins
APA, Harvard, Vancouver, ISO, and other styles
43

Shen, Ying. "Élaboration d'ontologies médicales pour une approche multi-agents d'aide à la décision clinique." Thesis, Paris 10, 2015. http://www.theses.fr/2015PA100040/document.

Full text
Abstract:
La combinaison du traitement sémantique des connaissances (Semantic Processing of Knowledge) et de la modélisation des étapes de raisonnement (Modeling Steps of Reasoning), utilisés dans le domaine clinique, offrent des possibilités intéressantes, nécessaires aussi, pour l’élaboration des ontologies médicales, utiles à l'exercice de cette profession. Dans ce cadre, l'interrogation de banques de données médicales multiples, comme MEDLINE, PubMed… constitue un outil précieux mais insuffisant car elle ne permet pas d'acquérir des connaissances facilement utilisables lors d’une démarche clinique. En effet, l'abondance de citations inappropriées constitue du bruit et requiert un tri fastidieux, incompatible avec une pratique efficace de la médecine.Dans un processus itératif, l'objectif est de construire, de façon aussi automatisée possible, des bases de connaissances médicales réutilisables, fondées sur des ontologies et, dans cette thèse, nous développons une série d'outils d'acquisition de connaissances qui combinent des opérateurs d'analyse linguistique et de modélisation de la clinique, fondés sur une typologie des connaissances mises en œuvre, et sur une implémentation des différents modes de raisonnement employés. La connaissance ne se résume pas à des informations issues de bases de données ; elle s’organise grâce à des opérateurs cognitifs de raisonnement qui permettent de la rendre opérationnelle dans le contexte intéressant le praticien.Un système multi-agents d’aide à la décision clinique (SMAAD) permettra la coopération et l'intégration des différents modules entrant dans l'élaboration d'une ontologie médicale et les sources de données sont les banques médicales, comme MEDLINE, et des citations extraites par PubMed ; les concepts et le vocabulaire proviennent de l'Unified Medical Language System (UMLS).Concernant le champ des bases de connaissances produites, la recherche concerne l'ensemble de la démarche clinique : le diagnostic, le pronostic, le traitement, le suivi thérapeutique de différentes pathologies, dans un domaine médical donné.Différentes approches et travaux sont recensés, dans l’état de question, et divers paradigmes sont explorés : 1) l'Evidence Base Medicine (une médecine fondée sur des indices). Un indice peut se définir comme un signe lié à son mode de mise en œuvre ; 2) Le raisonnement à partir de cas (RàPC) se fonde sur l'analogie de situations cliniques déjà rencontrées ; 3) Différentes approches sémantiques permettent d'implémenter les ontologies.Sur l’ensemble, nous avons travaillé les aspects logiques liés aux opérateurs cognitifs de raisonnement utilisés et nous avons organisé la coopération et l'intégration des connaissances exploitées durant les différentes étapes du processus clinique (diagnostic, pronostic, traitement, suivi thérapeutique). Cette intégration s’appuie sur un SMAAD : système multi-agent d'aide à la décision
The combination of semantic processing of knowledge and modelling steps of reasoning employed in the clinical field offers exciting and necessary opportunities to develop ontologies relevant to the practice of medicine. In this context, multiple medical databases such as MEDLINE, PubMed are valuable tools but not sufficient because they cannot acquire the usable knowledge easily in a clinical approach. Indeed, abundance of inappropriate quotations constitutes the noise and requires a tedious sort incompatible with the practice of medicine.In an iterative process, the objective is to build an approach as automated as possible, the reusable medical knowledge bases is founded on an ontology of the concerned fields. In this thesis, the author will develop a series of tools for knowledge acquisition combining the linguistic analysis operators and clinical modelling based on the implemented knowledge typology and an implementation of different forms of employed reasoning. Knowledge is not limited to the information from data, but also and especially on the cognitive operators of reasoning for making them operational in the context relevant to the practitioner.A multi-agent system enables the integration and cooperation of the various modules used in the development of a medical ontology.The data sources are from medical databases such as MEDLINE, the citations retrieved by PubMed, and the concepts and vocabulary from the Unified Medical Language System (UMLS).Regarding the scope of produced knowledge bases, the research concerns the entire clinical process: diagnosis, prognosis, treatment, and therapeutic monitoring of various diseases in a given medical field.It is essential to identify the different approaches and the works already done.Different paradigms will be explored: 1) Evidence Based Medicine. An index can be defined as a sign related to its mode of implementation; 2) Case-based reasoning, which based on the analogy of clinical situations already encountered; 3) The different semantic approaches which are used to implement ontologies.On the whole, we worked on logical aspects related to cognitive operators of used reasoning, and we organized the cooperation and integration of exploited knowledge during the various stages of the clinical process (diagnosis, prognosis, treatment, therapeutic monitoring). This integration is based on a SMAAD: multi-agent system for decision support
APA, Harvard, Vancouver, ISO, and other styles
44

Belot, Aurélien. "Modélisation flexible des données de survie en présence de risques concurrents et apports de la méthode du taux en excès." Aix-Marseille 2, 2009. http://www.theses.fr/2009AIX20709.

Full text
Abstract:
En épidémiologie, la probabilité de survie (associée au délai jusqu'au décès) d’une cohorte de patients est un indicateur-clé de l’impact d’une maladie. Mais, cette survie peut être estimée selon diverses causes de décès qui sont alors des événements concurrents. Dans cette thèse, après présentation théorique de ce cadre d’analyse, nous proposons un modèle flexible qui permet d'estimer conjointement les taux des événements concurrents ainsi que les effets de facteurs pronostiques en fonction du temps écoulé depuis le diagnostic. De plus, ce modèle permet de comparer les effets des facteurs pronostiques sur les taux des événements concurrents ; il est illustré par l’analyse de données sur patients atteints de cancer colorectal aux Etats-Unis. Mais les causes des décès s’avèrent parfois difficiles à obtenir ou inutilisables (cas des registres qui ne recueillent pas la cause de décès en routine). La méthode statistique du taux en excès permet de s’affranchir des causes de décès en utilisant la mortalité de la population générale pour estimer la mortalité en excès liée directement ou non à la maladie. Une stratégie d'analyse est proposée pour estimer la mortalité en excès ainsi que les effets dépendants du temps et/ou non linéaires des facteurs pronostiques. En plus du décès, la méthode des événements concurrents est appliquée aussi aux événements intercurrents (récidives ou métastases). Un modèle combinant les méthodes des événements concurrents et du taux en excès est proposé pour estimer les taux des événements intercurrents et la mortalité en excès ; il est appliqué à des données de registres FRANCIM sur patients atteints de cancer colorectal et traités à but curatif
In epidemiology, the probability of survival (associated to the delay until death) of a cohort of patients is a key indicator of the impact of the disease. But, this survival may be estimated according to various causes of death; these constitute then competing events. In this dissertation, after presenting the analysis setting, we propose a flexible model to estimate jointly the hazards of competing events as well as the effects of prognostic factors in function of the time elapsed since diagnosis. Furthermore, this model allows comparing the effects of the prognostic factors on the competing events; it was applied to an analysis of data on an American cohort of patients with colorectal cancer. However, the causes of death may sometimes be missing or invalid (case of registries that do not routinely collect the causes of death). The statistical method of the excess hazard makes it possible to overcome the need for the causes of death by using the general population mortality to estimate the excess mortality directly or indirectly linked to the disease. An analysis strategy is proposed to estimate the excess mortality as well as the non-linear and/or time-dependent effects of the prognostic factors. In addition to death, the competing events method is also applied to intercurrent events such as relapse or metastasis. A model that combines the competing events and the excess hazard methods is proposed to estimate the hazards of intercurrent events and the excess mortality; it is applied to data from FRANCIM registries on colorectal cancer cases with curative-intent treatment
APA, Harvard, Vancouver, ISO, and other styles
45

Guelfucci, Florent. "Utilisation des grandes bases de données longitudinales non cliniques dans la déscription des trajectoires pharmaco-thérapeutiques de patients atteints d’une maladie clinique." Paris, EPHE, 2013. http://www.theses.fr/2013EPHE3002.

Full text
Abstract:
Les grandes bases de Données médicales longitudinales non cliniques permettent de décrire la prise en charge réelle des patients et d’évaluer les pratiques des professionnels de santé sur une longue période de temps et en tenant compte des interactions des différents facteurs relatifs à l’état de santé du patient et à l’utilisation du système de soins. Leur utilisation est plus particulièrement intéressante pour analyser les stratégies développées pour traiter une maladie chronique, leurs résultats et leur impact économique. De par la densité de l’information et le mode de recueil, ces bases de données constituent une source d’information aussi importante que difficile à manipuler. Leurs utilisations croissantes posent une série de défis méthodologiques, plus particulièrement lorsqu’il s’agit de décrire les différentes trajectoires thérapeutiques des patients atteints d’une maladie chronique car de nombreux évènements fortuits peuvent cacher les tendances clés. Aujourd’hui encore, il n’existe pas de réel consensus et peu de transparence sur les méthodes à utiliser. L'objectif de cette thèse est multiple: Apprécier les limites et avantages de l’utilisation des bases de données dans la description des différentes trajectoires pharmaco-thérapeutiques des patients atteints d’une maladie chronique dans le système de soin et proposer des pistes de méthodologies adaptées. Deux types de bases de données longitudinales sont considérés: (1) Les bases de données d’assurance maladies ; (2) Les bases de données de prescription issues du recueil informatique lors des consultations chez le généraliste. Une première partie présente d’une part, les différents types de prises en charge médicamenteuses des patients atteints d’une maladie chronique, définitions nécessaires pour bien caractériser les trajectoires thérapeutiques de ces patients, et d’autre part, les bases de données longitudinales non cliniques, leur utilité et leur fonctionnement. Une deuxième partie permet, au travers de plusieurs analyses de bases de données sur des pathologies chroniques diverses, de mieux comprendre aussi bien l’utilité, les forces et les limites de ces bases de données pour décrire le parcours pharmaco-thérapeutique du patient. L’intérêt de ces travaux ne réside pas dans le caractère explicatif ou prédictif des résultats, qu’ils soient économiques ou cliniques, mais plutôt dans la démarche méthodologique, largement mise en avant dans ces exemples. Différentes méthodologies et algorithmes de définition des trajectoires pharmaco thérapeutiques ont été développés au cours de ces analyses. Ces algorithmes sont comparés et discutés. La dernière partie s’appuie sur ces recherches pour (1) énumérer les difficultés et les embuches à éviter dans l’utilisation des bases de données médicales longitudinales non cliniques (ou de vie réelle) lorsqu’il s’agit de caractériser le parcours pharmaco-thérapeutique du patient et le comportement du patient au sein du système de santé (2) démontrer l’intérêt d’une approche globale simple et transparente, reflétant la réalité de manière globale, et non individuelle, pour décrire les différentes stratégies médicamenteuses de patients atteints d’une maladie chronique. Ces travaux mettent en évidence la nécessité de progrès dans la manipulation des données pour que les mesures d’efficacité en vie réelle puissent prendre une place importante dans le développement des médicaments. Une méthodologie adaptée à la problématique et au contexte (maladie, option thérapeutique) peut offrir aux utilisateurs des bases de données médicales longitudinales une photographie globale juste et relativement précise des différentes trajectoires possibles des patients dans le parcours de soins à condition que cet outil soit simple et transparent
Large longitudinal and non-clinical medical databases allows researchers to describe the patient healthcare management and healthcare provider practices in real life setting over a long period of time taking into account interactions of various factors relating the patient health status and the health care system characteristics. Due to the quantity of information available and the data collection methods used, the large longitudinal databases are a source of information as important as difficult to handle. Their increasing uses pose a series of methodological challenges, especially when it comes to identifying and observing treatment pathways in patients with a chronic disease, as many incidental events may hide the key trends. The task is complex and there is still no consensus and a lack of transparency about the methods to use. The objective of this thesis is multiple: appraise the limits and advantages of using longitudinal databases in the description of pharmaco-therapeutic pathways of patients in healthcare systems and propose potential appropriate methodologies. Two types of longitudinal databases are considered as part of the thesis: (1) administrative claim databases insurance, (2) Primary and/or secondary care databases including data collected during visits or hospitalisations. A first part describes the different types of therapeutic management for patients with a chronic disease and presents the large longitudinal and non-clinical medical databases, their utility and function. Various comparative studies on chronic diseases are presented in the second part. It enables to understand the strengths and limitations of these databases to describe the treatment pathways. Each analysis has led to the use of a global approach and to the development of different methodologies and algorithms of definition of the treatment pathways. Those methods are criticised and compared. Based on this researches, the last part (1) enumerate the problems and pitfalls to avoid while using large longitudinal and non-clinical medical databases to characterise treatment pathways of patients with chronic disease (2) demonstrate the benefits of a simple and transparent global approach, reflecting the reality globally, not individually, to describe the different pharmaco-therapeutic strategies. These works lead to the conclusion that real-word efficacy assessments using large longitudinal databases can play an important role in drug development process in chronic disease, but this will only be possible through gradual progress and greater transparency in data handling. A methodology adaptable to the objective, the variable of interest, the disease characteristics and the treatment specificities can provide investigators a clear representation of the different possible treatment pathways, provided that this tool is simple and transparent
APA, Harvard, Vancouver, ISO, and other styles
46

Gourmelin, Yves. "Optimisation de l'utilisation des systèmes de traitement des analyses biologiques." Paris 12, 1995. http://www.theses.fr/1995PA120012.

Full text
Abstract:
Le travail presente s'inscrit dans le cadre de 20 ans de pratique de la biologie hospitaliere et d'evaluations de materiels de biochimie clinique. Ce travail a pour but de proposer et promouvoir, a travers une reflexion critique sur nos travaux et ceux de nos collegues francais et etrangers, une approche aussi efficace que possible de la qualite totale en biologie medicale. Apres avoir etudie des evaluations francaises et etrangeres et les compte-rendus qui en on ete faits, nous constatons qu'il n'existe aucune homogeneite dans ces etudes, tant pour les protocoles que pour l'interpretation des resultats. Nous demontrons que les outils statistiques classiques ne sont pas suffisamment performants et qu'il faut privilegier les representations graphiques dont nous donnons de nombreux exemples issus de nos propres travaux. Cette representation graphique doit egalement etre utilisee pour les autres donnees fournies par le laboratoire d'analyses medicales, comme les resultats d'analyses pour les patients. Les outils informatiques aujourd'hui disponibles permettent de realiser aisement des presentations claires et informatives et de se placer dans un reseau de communications. Il est propose: des protocoles evolutifs adaptes aux systemes etudies des procedures permettant une auto-evaluation des representations graphiques claires et informatives
APA, Harvard, Vancouver, ISO, and other styles
47

Azami, Ikram El. "Ingéniérie des Systèmes d'Information Coopératifs, Application aux Systèmes d'Information Hospitaliers." Thesis, Valenciennes, 2012. http://www.theses.fr/2012VALE0013.

Full text
Abstract:
Dans cette thèse, nous traitons les systèmes d’information hospitaliers (SIH), nous analysons leurs problématiques de conception, d’interopérabilité et de communication, dans l’objectif de contribuer à la conception d’un SIH canonique, coopératif, et communicant, ainsi de modéliser les échanges entre ses composants et également avec les autres systèmes impliqués dans la prise en charge du patient dans un réseau de soin. Nous proposons une structure et un modèle de conception d’un SIH canonique en se basant sur trois concepts principaux responsables de la production de l’information médicale, à savoir, le cas pathologique, le Poste de Production de l’Information Médicale (PPIM) et l’activité médicale elle même. Cette dernière, étant modélisée sur la notion d’arbre, permettra une meilleure structuration du processus de soin.Autant, dans l’optique d'assurer la continuité de soins, nous fournissons un modèle d’échange de données médicales à base du standard XML. Ce modèle consiste en un ensemble de données pertinentes organisées autours de cinq catégories : les données du patient, les données sur les antécédents du patient, les données de l’activité médicale, les données des prescriptions médicales et les données sur les documents médicaux (images, compte rendu…).Enfin, nous décrivons une solution d’intégration des systèmes d’information hospitaliers. La solution est inspirée de l’ingénierie des systèmes d’information coopératifs et consiste en une architecture de médiation structurée en trois niveaux : le niveau système d’information, le niveau médiation, et le niveau utilisateur. L’architecture propose une organisation modulaire des systèmes d'information hospitaliers et contribue à satisfaire l’intégration des données, des fonctions et du workflow de l’information médicale
In this thesis, we deal with hospital information systems (HIS), we analyze their design issues, interoperability and communication, with the aim of contributing to the design of a canonical, cooperative, and communicative HIS, and model the exchanges between its components and also with other systems involved in the management of patient in a healthcare network.We propose a structure and a conceptual model of a canonical HIS based on three main concepts involved in the production of healthcare data, namely, the pathological case, the Production Post of Healthcare Data (PPHD) and medical activity itself. The latter, being modeled as a tree, will allow better structuring of the care process.However, in view of ensuring continuity of care, we provide an XML-based model for exchanging medical data. This model consists of a set of relevant data organized around five categories: patient data, data on patient history, data of medical activity, data of medical prescriptions and medical records data (images, reporting ...).Finally, we describe a solution for integrating hospital information systems. The solution is inspired by the engineering of cooperatives information systems and consists of mediation-based architecture, structured into three levels: the level of information systems, the level of mediation, and the user level. The architecture offers a modular organization of hospital information systems and helps to insure data, function and workflow integration
APA, Harvard, Vancouver, ISO, and other styles
48

Cabon, Yann. "Modélisation statistique des données d'imagerie médicale : application dans l'asthme." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS014/document.

Full text
Abstract:
Cette thèse a pour but de présenter une solution permettant d’identifier et de comparer différents profils de piégeage aérique chez des patients asthmatiques. L’asthme se décrit comme l’atteinte des voies aériennes en réponse à une irritation. Les réactions mécaniques associées à cette stimulation affectent le flux expiratoire en réduisant la lumière des bronches, et engendrent une exacerbation. La réduction du flux d’air entraine, lors de l’expiration, l’apparition de régions d’air piégé non expiré, phénomène appelé trappage aérien. Les facteurs déclencheurs ou d’aggravation sont bien connus, mais les mécanismes sous-jacents à l’irritation sont complexes et méconnus, le poumon étant un organe complexe et interne. Le travail présenté ici a pour but premier de rechercher l’existence de profils de trappage différents, correspondant à des sensibilités spécifiques de l’arbre bronchique entre patients. Nous avons également cherché à associer une dimension clinique aux profils de trappage. Pour cela, le travail se base sur des données de scanners de patients recueillis au cours d’un test de réactivité bronchique, permettant de capturer l’évolution de l’obstruction des voies respiratoires. Le modèle statistique mis en place consiste à comparer le profil normalisé de trappage de chaque patient. Ce profil est issu d’un parenchyme pulmonaire segmenté, complété dans un espace aux propriétés mathématiques permettant une analyse. Dans cet espace, les profils de trappage sont caractérisés par la distribution de leurs proches voisins. Cela permet d’obtenir pour chaque image une représentation locale de la distribution du trappage. L’estimateur de cette distribution est normalisé par une distribution théorique sous condition d’uniformité, permettant une comparaison entre les patients. Pour finir, une classification en B-splines des profils de distribution normalisée et faite par la méthode non supervisée de Ward, permettant d’obtenir des profils similaires de trappage. Ces profils sont ensuite comparés aux observations cliniques
This thesis presents a solution for comparing and identifying air trapping profiles among asthmatic patients. Asthma is defined as a narrowing of the airways following irritation. The mechanical reactions associated with irritation affect the expiratory flow by reducing the bronchial lumen, and thus causing exacerbation. This air flow reduction leads to the non-evacuation of air from certain regions of the lung upon expiration, a phenomenon named air trapping. Though triggers are well known, the mechanisms underlying the irritation are complex and poorly understood, the lung being a complex internal organ. This work is primarily intended to detect and describe different trapping profiles which correspond to specific sensitivities of the bronchial tree between patients. We also sought to associate a clinical data with trapping profiles. This work is based on data from patient scans collected during a bronchial reactivity test designed to capture the evolution of airway obstruction. The statistical models consists of comparing trapping profiles in a standardized way. Such profiles are derived by isolating pulmonary parenchyma on CT images, then generating a data space with mathematical properties enabling analysis. In this space, trapping profiles are characterized by the distribution of their nearest neighbors. This makes it possible to obtain for each image a local representation of the trapping distribution. The estimator of this distribution is standardized by a theoretical uniform distribution, which further renders between-patient comparisons possible. Finally, a B-spline classification of standardized distribution profiles using Ward's unsupervised method was performed. These grouped profiles were then compared to clinical observations
APA, Harvard, Vancouver, ISO, and other styles
49

Kronek, Louis-Philippe. "Analyse combinatoire de données appliquée à la recherche médicale." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0146.

Full text
Abstract:
L’analyse combinatoire de données est une méthode d’apprentissage supervisé développée à partir de la théorie des fonctions booléennes partiellement définies et de l’optimisation combinatoire. En pratique, sa mise en œuvre fait appel à un large ensemble des méthodes de résolutions de la recherche opérationnelle. Le but de ce travail est de continuer le développement de cette méthode en gardant à l’esprit certaines contraintes liées à la recherche médicale et plus particulièrement celle de la lisibilité du résultat qui doit être accessible avec des connaissances mathématiques de base. Nous avons traité trois aspects de ce problème : la génération efficace de modèles, l'adaptation à l'analyse de temps de survie et l'optimisation du déploiement d'un modèle
Logical analysis of a data is a supervised learning method based on theory of partially defined Boolean functions and combinatorial optimization. Its implementation involves a wide range of methods of resolutions of operation research. The purpose of this work is to continue on developing this method keeping in mind constraints relating to medical research and more particularly the elegance and ease of understanding of the result which should be accessible with basic mathematical knowledge. Three parts of this problem has been treated : efficient model generation, adaptation to survival analysis and optimization of the implementation of a new decision model
APA, Harvard, Vancouver, ISO, and other styles
50

Texier, Romain. "Système de globalisation des ressources données-calculs : Application à l'imagerie médicale." Paris 11, 2007. http://www.theses.fr/2007PA112230.

Full text
Abstract:
La transparence de l'accès à la puissance de calcul et aux données est la métaphore fondatrice des grilles. Les systèmes de grilles ciblent des catégories d'applications qui requièrent des ressources de calcul, de stockage et réseau importantes. Certaines de ces applications, appartenant à divers domaines scientifiques tels que la physique des particules, impliquent peu d'Interaction Homme-Machine. Pour d'autres applications, la compétence du système visuel humain à reconnaître et à interpréter des structures complexes reste utile ou même incontournable. Le traitement interactif, incluant une composante de visualisation, peut alors s'inscrire dans une boucle avec le calcul réalisé à distance sur la grille. Cela impose au système de grille une contrainte d'interactivité. La première contribution de ce travail de thèse est l'extension aux grilles de PTM3D, une application reconnue et utilisée en milieu médical. Cette extension est réalisée par un intergiciel généraliste qui intègre un ordonnancement au niveau applicatif. Cet intergiciel satisfait les contraintes médicales par l'intégration sans rupture d'un accès totalement transparent à la grille à partir de l'environnement habituel, celui du poste de travail individuel. La seconde contribution est un début de réponse à la question générale des évolutions nécessaires au niveau des intergiciels de grille pour le support de l'interactivité. Cette réponse inclue la mise en oeuvre d'une qualité de service adapté à l'interactivité, qui réalise un partage efficace des ressources de calculs, sur une grille institutionnelle généraliste. La grille européenne EGEE a été la cible de nos développements et déploiements
The transparency of access to computing power and data storage is the founding metaphor of the Grid. Grids target applications with needs for high end computing, data and network resources. Many of these applications, such as the ones belonging to the area of High Energy Physics, require little Human-Computer Interaction. For others, the ability of the human visual system to recognize and interpret complex scenes cannot be challenged. The interactive processing, including a visualization part, is embedded in a loop involving remote Grid computations. This loop implies a interactivity constraint for the Grid system. The Medical Image Processing is an application area example for which an interactive Grid infrastructure is both required and very challenging. This PhD thesis work targets a double contribution. First, the well established in clinical usage PTM3D application is ported to a Grid infrastructure. A generic high level middleware has been designed. It includes an application level scheduler and it meets the requirements of the medical user. Users access completely transparently to the Grid resources from their usual environment. Second, we address the problem of adapting the Grid middleware to support interactivity in a wide context. In particular, we achieve a quality of service adapted to interactivity with an efficient and fair share of the computing resources on a production Grid. The European EGEE Grid is the target of our development and deployment
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography