To see the other types of publications on this topic, follow the link: Intelligence artificielle en médecine.

Dissertations / Theses on the topic 'Intelligence artificielle en médecine'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intelligence artificielle en médecine.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Julen, Nathalie. "Eléments pour une université virtuelle en médecine : le projet CARDIOLAB." Rennes 1, 2002. http://www.theses.fr/2002REN1B063.

Full text
Abstract:
Afin de pallier aux limites de l'enseignement traditionnel en médecine,et construire des savoirs et savoir-faire mobilisables,de nombreuses universités ont déjà opté pour une nouvelle approche pédagogique,l'approche par problème, basée sur les concepts de la psychologie cognitive. Cette approche cognitiviste,dont font partie les nouvelles méthodes pédagogisques APP,ARC et ARP,est centrée sur l'étudiant et requiert de ce dernier une participation active. En effet, l'étudiant bénéficie de sessions d'apprentissage contextualisé où il est tenu de résoudre des problèmes dans un contexte proche de celui correspondant à la pratique clinique. Notre objectif est de préciser le rôle que pourra jouer la plate-forme CARDIOLAB dans la formation médicale en ligne, et dans le contexte de l'approche cognitiviste de l'apprentissage. Cette plate-forme,développée par la société BioComputing (IBC) en collaboration avec l'Université de Rennes 1 et le CHU de Rennes,intègre un prototype de système d'aide à la décision et de formation médicale baptisé Medical Advisor, ainsi que des modèles informatiques (simulateurs) en physiologie intégrative cardio-vasculaire. Une fois achevée, la plate-forme poura participer à l'enseignement de stratégies cognitives et donner un rôle actif et motivant à l'apprenant,dans un monde virtuel. Elle lui permettra de comprendre en profondeur les processus physiopathologiques sous-jacents aux pathologies,de se mettre virtuellement en situation réelle,et de ce fait,favorisera son apprentissage dans les sessions d'APP,d'ARC ou d'ARP. S'agissant des modèles informatiques,la Physiologie Intégrative Computationnelle constituera le cadre pour la création des "patients virtuels" du futur. Ces patients virtuels,couplés à un expert/professeur virtuel (Medical Advisor) et intégrés au sein d'universités médicales virtuelles,pourront jouer un rôle central dans la formation et l'expertise de futurs médecins.
APA, Harvard, Vancouver, ISO, and other styles
2

Bourgeois-République, Claire. "Plate-forme de réglage automatique et adaptatif d'implant cochléaire par algorithme évolutionnaire interactif." Dijon, 2004. http://www.theses.fr/2004DIJOS070.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Wolman, Frédéric. "Modèles du processus de raisonnement diagnostique : application au développement d'un système d'aide au diagnostic dans les tumeurs osseuses." Bordeaux 2, 1991. http://www.theses.fr/1991BOR23057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Drancé, Martin. "Graphes de connaissances et intelligence artificielle explicable : application au repositionnement de médicaments." Electronic Thesis or Diss., Bordeaux, 2024. https://theses.hal.science/tel-04874772.

Full text
Abstract:
Le repositionnement de médicaments consiste à trouver de nouvelles utilisations thérapeutiques pour des médicaments existants qui sont déjà approuvés pour traiter d’autres pathologies. Cette approche profite des connaissances déjà existantes sur ces molécules, permettant ainsi un développement plus rapide et moins coûteux par rapport à la création de nouveaux médicaments. Le repositionnement est particulièrement utile pour répondre à des besoins médicaux non satisfaits, comme par exemple pour les maladies rares ou émergentes. Ces dernières années, le développement de graphes de connaissances a permis de concentrer toutes ces informations biomédicales autour du médicament issues de grandes bases de données ou de connaissances. Un graphe de connaissances est une représentation structurée d’informations provenant de différentes sources, qui relie ces informations les unes aux autres par l’utilisation de relations. Cette représentation est particulièrement utile pour mieux comprendre les relations complexes qui structurent nos connaissances sur un médicament. Elle est utilisée de nos jours pour la tâche de repositionnement en particulier. Une façon efficace de repositionner des médicaments à partir de ces graphes est d’utiliser des méthodes d’intelligence artificielle qui prédisent de nouveaux liens entre les objets du graphe. De cette manière, un modèle correctement entraîné sera capable de proposer une nouvelle connexion entre un médicament et une maladie, indiquant une potentielle opportunité de repositionnement. Cette méthodologie présente cependant un gros désavantage : les modèles pour la prédiction de liens fournissent souvent des résultats opaques, qui ne peuvent pas être interprétés par l’utilisateur final des prédictions. Cette thèse propose d’étudier l’utilisation de méthodes d’intelligence artificielle explicables dans le but de repositionner des médicaments à partir de données biomédicales représentées dans des graphes de connaissances. Dans un premier temps, nous analysons l’impact du pré-entraînement sur les modèles de multihop reasoning pour la prédiction de liens. Nous montrons que la construction des représentations des entités du graphe avant l’entraînement du modèle permet une amélioration des performances prédictives, ainsi que de la quantité et la diversité des explications. Dans un second temps, nous étudions comment l’ajout de relations dans un graphe de connaissances affecte les résultats de prédiction de liens. Nous montrons que l’ajout de liens dans trois graphes biomédicaux permet une amélioration des performances prédictives du modèle SQUIRE, et ce sur différents types de relations lien avec le repositionnement de médicaments. Une analyse de l’impact sur l’explicabilité du modèle est aussi menée à la suite de l’ajout de ces relations. Enfin, nous proposons une nouvelle méthodologie pour la tâche de classification de liens dans un graphe de connaissances, basée sur l’utilisation de forêts aléatoires. À partir des informations concernant le voisinage de chaque noeud dans le graphe, nous montrons qu’un modèle de forêts aléatoires est capable de prédire correctement l’existence ou non d’un lien entre deux noeuds. Ces résultats permettent une visualisation des noeuds utilisés pour réaliser la prédiction. Enfin, nous appliquons cette méthode au repositionnement de médicaments pour la sclérose latérale amyotrophique (SLA)
Drug repositioning involves finding new therapeutic uses for existing medications that are already approved to treat other conditions. This approach takes advantage of the existing knowledge about these molecules, enabling faster and less costly development compared to creating new drugs. Repositioning is particularly useful for addressing unmet medical needs, such as rare or emerging diseases. In recent years, the development of knowledge graphs has enabled the consolidation of all this biomedical information around drugs, coming from large data sources or knowledge repositories. A knowledge graph is a structured representation of information integrated from different sources, linking these pieces of information together using relationships. This representation is especially useful for understanding the complex relationships that structure knowledge about drugs. Nowadays, it is widely used for the task of drug repositioning. An effective way to reposition drugs using these graphs is to employ artificial intelligence (AI) methods that predict new links between objects in the graph. In this way, a well-trained model can suggest a new connection between a drug and a disease, indicating a potential opportunity for repositioning. However, this methodology has a significant disadvantage : link prediction models often provide opaque results that cannot be easily interpreted by the end users. This thesis proposes to explore the use of explainable AI methods for the purpose of repositioning drugs based on biomedical data represented in knowledge graphs. First, we analyze the impact of pre-training on multihop reasoning models for link prediction. We demonstrate that building representations of the graph entities before model training improves the predictive performance, as well as the quantity and diversity of explanations. Secondly, we examine how the addition of relationships in a knowledge graph affects link prediction results. We show that adding links in three biomedical knowledge graphs improves the predictive performance of the SQUIRE model across different types of relationships related to drug repositioning. An analysis of the impact on model explainability is also conducted, following the addition of these relationships. Finally, we propose a new methodology for the task of link classification in a knowledge graph, based on the use of random forests. Using information about the neighborhood of each node in the graph, we show that a random forest model can accurately predict the existence or absence of a link between two nodes. These results allow for a visualization of the nodes used to make the predictions. Lastly, we apply this method to drug repositioning for amyotrophic lateral sclerosis (ALS)
APA, Harvard, Vancouver, ISO, and other styles
5

Ounissi, Mehdi. "Decoding the Black Box : Enhancing Interpretability and Trust in Artificial Intelligence for Biomedical Imaging - a Step Toward Responsible Artificial Intelligence." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS237.

Full text
Abstract:
À une époque dominée par l'IA, son processus décisionnel opaque, connu sous le nom de problème de la "boîte noire", pose des défis significatifs, particulièrement dans des domaines critiques comme l'imagerie biomédicale où la précision et la confiance sont essentielles. Notre recherche se concentre sur l'amélioration de l'interprétabilité de l'IA dans les applications biomédicales. Nous avons développé un cadre pour l'analyse d'images biomédicales qui quantifie la phagocytose dans les maladies neurodégénératives à l'aide de la microscopie vidéo à contraste de phase en accéléré. Les méthodes traditionnelles ont souvent du mal avec les interactions cellulaires rapides et la distinction des cellules par rapport aux arrière-plans, essentielles pour étudier des conditions telles que la démence frontotemporale (DFT). Notre cadre évolutif et en temps réel comprend un module de segmentation cellulaire explicable qui simplifie les algorithmes d'apprentissage profond, améliore l'interprétabilité et maintient des performances élevées en incorporant des explications visuelles et par simplifications. Nous abordons également les problèmes dans les modèles génératifs visuels, tels que les hallucinations en pathologie computationnelle, en utilisant un encodeur unique pour la coloration Hématoxyline et Éosine couplé avec plusieurs décodeurs. Cette méthode améliore la précision et la fiabilité de la génération de coloration synthétique, utilisant des fonctions de perte innovantes et des techniques de régularisation qui renforcent les performances et permettent des colorations synthétiques précises cruciales pour l'analyse pathologique. Nos méthodologies ont été validées contre plusieurs benchmarks publics, montrant des performances de premier ordre. Notamment, notre cadre a distingué entre les cellules microgliales mutantes et contrôles dans la DFT, fournissant de nouveaux aperçus biologiques sur ce phénomène non prouvé. De plus, nous avons introduit un système basé sur le cloud qui intègre des modèles complexes et fournit des retours en temps réel, facilitant une adoption plus large et des améliorations itératives grâce aux insights des pathologistes. La publication de nouveaux ensembles de données, incluant la microscopie vidéo sur la phagocytose des cellules microgliales et un ensemble de données de coloration virtuelle lié à la maladie de Crohn pédiatrique, ainsi que tous les codes sources, souligne notre engagement envers la collaboration scientifique ouverte et transparente et l'avancement. Notre recherche met en évidence l'importance de l'interprétabilité dans l'IA, plaidant pour une technologie qui s'intègre de manière transparente avec les besoins des utilisateurs et les normes éthiques dans les soins de santé. Une interprétabilité améliorée permet aux chercheurs de mieux comprendre les données et d'améliorer les performances des outils
In an era dominated by AI, its opaque decision-making --known as the "black box" problem-- poses significant challenges, especially in critical areas like biomedical imaging where accuracy and trust are crucial. Our research focuses on enhancing AI interpretability in biomedical applications. We have developed a framework for analyzing biomedical images that quantifies phagocytosis in neurodegenerative diseases using time-lapse phase-contrast video microscopy. Traditional methods often struggle with rapid cellular interactions and distinguishing cells from backgrounds, critical for studying conditions like frontotemporal dementia (FTD). Our scalable, real-time framework features an explainable cell segmentation module that simplifies deep learning algorithms, enhances interpretability, and maintains high performance by incorporating visual explanations and by model simplification. We also address issues in visual generative models, such as hallucinations in computational pathology, by using a unique encoder for Hematoxylin and Eosin staining coupled with multiple decoders. This method improves the accuracy and reliability of synthetic stain generation, employing innovative loss functions and regularization techniques that enhance performance and enable precise synthetic stains crucial for pathological analysis. Our methodologies have been validated against several public benchmarks, showing top-tier performance. Notably, our framework distinguished between mutant and control microglial cells in FTD, providing new biological insights into this unproven phenomenon. Additionally, we introduced a cloud-based system that integrates complex models and provides real-time feedback, facilitating broader adoption and iterative improvements through pathologist insights. The release of novel datasets, including video microscopy on microglial cell phagocytosis and a virtual staining dataset related to pediatric Crohn's disease, along with all source codes, underscores our commitment to transparent open scientific collaboration and advancement. Our research highlights the importance of interpretability in AI, advocating for technology that integrates seamlessly with user needs and ethical standards in healthcare. Enhanced interpretability allows researchers to better understand data and improve tool performance
APA, Harvard, Vancouver, ISO, and other styles
6

Crémilleux, Bruno. "Induction automatique : aspects théoriques, le système ARBRE, applications en médecine." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339492.

Full text
Abstract:
L'objectif de ce travail est d'étudier l'induction en tant qu'outil exploratoire de bases d'exemples. L'induction automatique fournit une description tenant compte de l'ensemble des individus de la base d'exemples et en extrait la connaissance nécessaire à la résolution d'un problème. Il existe de nombreux algorithmes d'induction employant différents critères pragmatiques pour sélectionner une variable. Une formalisation mathématique du problème de la sélection d'une variable est proposée. Elle permet d'une part de définir une famille de "bons" critères reposant sur le choix d'une fonction strictement concave. D'autre part, les systèmes d'induction incertaine décrits dans la littérature emploient des techniques d'élagage dont le but est la construction d'arbres de classement. Une méthode d'élagage liée à un indice de qualité et adaptée à notre usage de l'induction incertaine est proposée. Elle montre en quoi la construction et l'élagage d'un arbre relèvent des mêmes concepts théoriques (l'indice de qualité fait intervenir les résultats des calculs entrepris lors de la construction de l'arbre). Un système d'induction (ARBRE) mettant enoeuvre ces résultats théoriques a été développé. il met en évidence les spécifications qui, à notre avis, sont indispensables pour un système en domaine incertain. Il permet une exploration immédiate de base d'exemples sans connaissance préalable du domaine, et représente la connaissance acquise sous la forme d'arbres d'induction. Trois problèmes médicaux réels montrent l'intérêt de l'usage d'un tel système, adapté à tout domaine où la connaissance est incertaine.
APA, Harvard, Vancouver, ISO, and other styles
7

Dubuc, Antoine. "Utilisation de nouvelles approches en intelligence artificielle pour le diagnostic de lésions de la muqueuse orale." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES058.

Full text
Abstract:
Les pathologies de la muqueuse buccales présentent un polymorphisme clinique important. Cela concerne les dermatoses bénignes mais également les lésions cancéreuses et pré-cancéreuses. Un diagnostic précoce reste un élément clé de la prise en charge, en particulier des cancers de la cavité buccale. Cependant ce diagnostic demeure aujourd'hui trop tardif, que cela soit lié à la difficulté inhérente à la présentation clinique ou aux délais de rendez-vous en consultations de recours auprès de spécialistes du domaine, en nombre insuffisant. Il paraît donc utile de proposer des outils d'aide au diagnostic, fiables et destinés aux professionnels de la santé orale. Bien que l'intelligence artificielle utilisée dans le diagnostic dermatologique soit en plein essor, son application à la pathologie de la cavité buccale reste plus anecdotique. Nous avons adapté et évalué différentes approches d'intelligence artificielle puis développé un outil à destiné des professionnels de santé
Clinical manifestations of oral mucosal pathologies exhibit significant polymorphism. This includes benign dermatoses, cancerous or even pre-cancerous lesions. Early diagnosis remains a key element of management, especially for oral cavity cancers. However, this diagnosis is currently often delayed, whether due to the inherent difficulty in clinical presentation or insufficient availability of specialist consultations, leading to extended waiting times. Therefore, it appears useful to propose reliable diagnostic support tools for oral healthcare professionals. While artificial intelligence in dermatological diagnosis is advancing rapidly, its application to oral cavity pathology is still relatively limited. We adapted and evaluated various artificial intelligence approaches and developed a tool intended for healthcare professionals
APA, Harvard, Vancouver, ISO, and other styles
8

Blanchard, Jean-Marc. "Modélisation de l'expertise en recherche clinique : Application à la cancérologie." Lyon, INSA, 1994. http://www.theses.fr/1994ISAL0133.

Full text
Abstract:
L'Intelligence Artificielle a d'emblée montré un grand intérêt pour le domaine médical et les Systèmes Experts ont largement abordé les problèmes inhérents à la pratique courante en Médecine. L'application présentée dans le cadre de ce travail aborde la Recherche Clinique en Cancérologie. Une présentation détaillée de cet univers permet d'apprécier l'importance des difficultés rencontrées par les Cliniciens dans le cadre de leur activité. Deux types complémentaires de Systèmes Experts sont développés: pour l'aide à la Décision Thérapeutique et pour l'aide à l'Inclusion de Patients dans les Etudes Cliniques en cancérologie. La validation de la qualité des avis proposés par le module d'Aide à la Décision Thérapeutique a abouti à un résultat global de plus de 85% de réponses conformes avec celles proposées par les Experts, après une évaluation initiale de l'ordre de 80%. Nous avons par ailleurs montré qu'il était possible d'enrichir simplement l'expertise prise en compte, en étendant celle-ci à des pathologies non abordées dans le modèle initial. Enfin, en nous basant sur l'organisation des Bases de Connaissances mises en œuvre et à partir de l'identification de la structuration de la démarche thérapeutique des Experts, nous proposons un modèle conceptuel de représentation de cette démarche. Ce modèle, décomposé en trois étapes de résolution, traduit l'expertise exprimée par les Médecins lorsqu'ils mettent en pratique leurs compétences
The medical field and the doctors' usual practice showed an early interest for Artificial Intelligence (A. I. ). The application presented in this piece of work tackles the question of A. I. Within the field of Clinical Research in Oncology. A full presentation of this specific field of research gives a good appreciation of the difficulties met by the clinicians within the frame of their activity. The expert programs of this application are developed to provide an aid for therapeutic decision as well as for the inclusion of patients in Clinical Studies in Oncology. The validation of the quality of the proposed decisions made by the therapeutic decision aided system led to a global result that is 85% conform to the experts proposed decisions after an initial evaluation of about 80%. We also demonstrate that it is possible to improve the expertise by simply extending it to some pathologies that were not taken into account by the initial model. Finally, on the ground of the organization of the knowledge databases that were used, and from the identification of the structuration of the therapeutic proceeding of the experts, we propose a conceptual model of this proceeding representation. This model, decomposed in 3 stages of resolution, translates the doctors expressed expertise while putting their shills in practice
APA, Harvard, Vancouver, ISO, and other styles
9

Marie, Florent. "COLISEUM-3D : Une plate-forme innovante pour la segmentation d'images médicales par Raisonnement à Partir de Cas (RàPC) et méthodes d'apprentissage de type Deep Learning." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD051.

Full text
Abstract:
Le néphroblastome (ou tumeur de Wilms) touche le rein et est la tumeur cancéreuse abdominale infantile la plus fréquente. Lors de la thérapie, il est recommandé de préserver au mieux les fonctions rénales en sauvegardant le rein pathologique sous certaines conditions. L’information issue de l’imagerie est importante pour déterminer précisément ces conditions, mais nécessite une segmentation des images scanners. Cette tâche étant très chronophage, il est courant que cette information ne soit pas exploitée pleinement. L’Intelligence Artificielle (IA) représente une voie prometteuse pour l’automatisation des segmentations mais elle nécessite généralement une grande quantité de données d'apprentissage. En particulier, le Raisonnement à Partir de Cas (RàPC) est une approche IA orientée connaissance qui intègre une connaissance métier et une adaptation d’une solution existante pour optimiser la résolution d'un nouveau problème. Les réseaux de neurones convolutifs (CNNs) forment quant à eux une approche purement basée sur l'expérience. Nous proposons un système RàPC couplé à un algorithme de croissance de régions pour réaliser la segmentation de reins déformés par un néphroblastome. En parallèle, une méthode d’entraînement pour des CNNs, intitulée OV[exposant]2ASSION, est également proposée pour la segmentation de la tumeur. Les deux approches ont pour but de pallier un manque de données d’apprentissage (peu de segmentations de néphroblastomes et de reins pathologiques sont disponibles). Les évaluations montrent de bonnes performances avec le calcul des segmentations proches de celles faites par les radiologues et les chirurgiens
Nephroblastoma (or Wilms' tumor) affects the kidney and is the most common childhood abdominal cancer tumor. During therapy, it is recommended to preserve kidney function as well as possible by preserving the pathological kidney under certain conditions. The information from the imagery is important to validate them, but partly involves segmentation of the scan images. As this task is very time-consuming, it is common for this information not to be fully exploited. Artificial Intelligence (AI) represents a promising way to automate segmentations but generally requires a large amount of learning data. Among other things, Case-Based Reasoning (CBR) is a knowledge-based AI approach that integrates business knowledge and an adaptation of an existing solution to optimize the resolution of a new problem. Convolutional Neural Networks (CNNs) are a purely experiential approach. We propose a CBR system coupled with a region growing algorithm in order to segment kidneys deformed by nephroblastoma. In parallel, a training method for CNNs, called OV[exposant ]2ASSION, is also proposed for tumor segmentation. Both approaches aim to address a lack of learning data (few segmentations of nephroblastoma and pathological kidneys are available). The evaluations show good performance with the calculation of segmentations similar to those made by radiologists and surgeons
APA, Harvard, Vancouver, ISO, and other styles
10

Ouédraogo, Ismaila. "Technologie mobile et intelligence artificielle pour l'amélioration de la littératie en santé dans les milieux défavorisés." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0023.

Full text
Abstract:
L’accessibilité et l’utilisation des informations de santé présentent effectivement des défis majeurs en Afrique subsaharienne, en particulier au sein des populations peu alphabétisées. Ces difficultés sont exacerbées par la diffusion croissante de contenus en langues étrangères dans les solutions de santé numérique, ainsi que par la conception parfois inadaptée de ces solutions pour ces populations locales. Il est impératif de tenir compte de ces facteurs lors de la conception et de la mise en œuvre de solutions de santé numériques, dans le but de les rendre véritablement accessibles et utiles à tous les segments de la population. Dans cette perspective, cette recherche adopte une approche de conception centrée sur l’utilisateur pour améliorer l’accessibilité et l’utilisation des informations de santé (littératie en santé) au sein des populations peu alphabétisées au Burkina Faso, en utilisant des solutions de santé mobiles basées sur l’intelligence artificielle. Grâce à des méthodes telles que les revues de littérature, les entretiens, les enquêtes et les observations, les besoins spécifiques des utilisateurs peu alphabétisés sont minutieusement pris en compte. En intégrant ces retours, des principes de conception concrets sont définis, guidant le développement d’un prototype de Serveur Vocal Interactif (SVI) en langue Dioula. Par la suite, l’évaluation du service mobile auprès des utilisateurs a permis d’améliorer itérativement la solution, en prenant en compte les retours des utilisateurs. De plus, cette recherche a contribué à la création d’un ensemble de données vocales annotées en Dioula, comblant ainsi le manque de données vocales pour les technologies d’assistance vocale au service des populations En mettant l’accent sur l’importance des langues locales et des technologies adaptées, cette étude démontre comment les solutions de santé mobiles alimentées par l’IA peuvent efficacement surmonter les barrières liées à l’alphabétisation, améliorant ainsi la littératie en santé au sein des populations marginalisées. Les résultats de cette recherche s’alignent sur les objectifs de développement durable de l’ONU, renforçant ainsi leur impact positif sur la santé des populations vulnérables au Burkina Faso
Access and use of health information is indeed a major challenge in sub-Saharan Africa, especially for populations with low literacy. These difficulties are exacerbated by the increasing prevalence of foreign language content in digital health solutions, as well as the sometimes inadequate design of these solutions for local populations. These factors must be taken into account in the development and implementation of digital health solutions to ensure that they are truly accessible and beneficial to all populations. In this context, this research focuses on improving the accessibility and use of health information (health literacy) among lowliterate populations in Burkina Faso through AI-enabled mobile health solutions. The research methodology includes literature reviews, interviews, surveys and observations to accurately understand the specific needs of low literacy users. Based on this feedback, concrete design principles will be established to guide the development of a prototype Interactive Voice Response (IVR) system in the Dioula language. The mobile service is then evaluated with users to enable iterative improvements to the solution, taking user feedback into account. In addition, this research contributes to the creation of annotated speech data in Dioula to address the lack of speech data for assistive speech technologies for the population. By highlighting the importance of local languages and adapted technologies, this study demonstrates how AI-enabled mobile health solutions can effectively overcome barriers related to literacy to improve the health literacy of marginalised populations. The findings of this study are in line with the United Nations Sustainable Development Goals (SDGs), thus reinforcing their positive impact on the health of vulnerable populations in Burkina Faso
APA, Harvard, Vancouver, ISO, and other styles
11

Yameogo, Relwende Aristide. "Risques et perspectives du big data et de l'intelligence artificielle : approche éthique et épistémologique." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMLH10.

Full text
Abstract:
Au XXIème siècle, l’utilisation du big data et de l’IA dans le domaine de la santé s’est progressivement étendue bien qu’elle soit accompagnée par des problèmes liés à l’émergence de pratiques basées sur l’usage des traces numériques. Cette thèse a pour but d’évaluer l’utilisation du big data et de l’IA dans la pratique médicale, de découvrir les processus engendrés par les outils numériques en matière de santé et de souligner les problèmes d’éthique qu’ils posent.L'utilisation des TIC dans la pratique médicale passe essentiellement par l’utilisation des DPI, de logiciels d’aide à la prescription et d’objets connectés. Ces usages soulèvent de nombreux problèmes pour les médecins conscients du risque encouru quant à la protection des données de santé des patients. Dans ce travail, nous mettons en place une méthode de conception de SADM, l’espace vectoriel flou temporel. Cette méthode nous permet de modéliser un nouveau score diagnostique clinique de l’embolie pulmonaire. A travers le paradigme « homme-trace », notre recherche permet, non seulement de prendre la mesure de la limitation dans l’usage des TIC, mais aussi de mettre en évidence les biais interprétatifs dus à la déliaison effectuée entre l’individu pris dans sa complexité d’« homme-trace » et les data circulant à son sujet via les traces numériques. Si le big data, couplé à l’IA peut jouer un grand rôle dans la mise en place de SADM, il ne peut pas se limiter pas à ce champ. Nous étudions aussi comment mettre en place des processus de développement du big data et de IA respectant les règles déontologiques et d’éthique médicale associées à l’appropriation des TIC par les acteurs du système de santé
In the 21st century, the use of big data and AI in the field of health has gradually expanded, although it is accompanied by problems linked to the emergence of practices based on the use of digital traces. The aim of this thesis is to evaluate the use of big data and AI in medical practice, to discover the processes generated by digital tools in the field of health and to highlight the ethical problems they pose.The use of ICTs in medical practice is mainly based on the use of EHR, prescription software and connected objects. These uses raise many problems for physicians who are aware of the risk involved in protecting patients' health data. In this work, we are implementing a method for designing CDSS, the temporal fuzzy vector space. This method allows us to model a new clinical diagnostic score for pulmonary embolism. Through the "Human-trace" paradigm, our research allows us not only to measure the limitation in the use of ICT, but also to highlight the interpretative biases due to the delinking between the individual caught in his complexity as a "Human-trace" and the data circulating about him via digital traces. If big data, coupled with AI can play a major role in the implementation of CDSS, it cannot be limited to this field. We are also studying how to set up big data and AI development processes that respect the deontological and medical ethics rules associated with the appropriation of ICTs by the actors of the health system
APA, Harvard, Vancouver, ISO, and other styles
12

Aygalinc, Pascal. "Application de la reconnaissance des formes à l'aide au diagnostic médical : sélection multicritère de variables explicatives." Lille 1, 1986. http://www.theses.fr/1986LIL10083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Pressat-Laffouilhère, Thibaut. "Modèle ontologique formel, un appui à la sélection des variables pour la construction des modèles multivariés." Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMR104.

Full text
Abstract:
Répondre à une question de recherche causale dans un contexte d’étude observationnelle nécessite desélectionner des variables de confusion. Leur intégration dans un modèle multivarié en tant que co-variablespermet de diminuer le biais dans l’estimation de l'effet causal de l'exposition sur le critère de jugement. Leuridentification est réalisée grâce à des diagrammes causaux (DCs) ou des graphes orientés acycliques. Cesreprésentations, composées de noeuds et d'arcs orientés, permettent d’éviter la sélection de variables quiaugmenteraient le biais, comme les variables de médiation et de collision. Les méthodes existantes deconstruction de DCs manquent cependant de systématisme et leur représentation de formalisme, d’expressivité etde complétude. Afin de proposer un cadre de construction formel et complet capable de représenter toutes lesinformations nécessaires à la sélection des variables sur un DC enrichi, d’analyser ce DC et surtout d’expliquerles résultats de cette analyse, nous avons proposé d'utiliser un modèle ontologique enrichi de règles d'inférences.Un modèle ontologique permet notamment de représenter les connaissances sous la forme de graphe expressif etformel composé de classes et de relations similaires aux noeuds et arcs des DCs. Nous avons développél’ontologie OntoBioStat (OBS) à partir d’une liste de questions de compétence liée à la sélection des variables etde l'analyse de la littérature scientifique relative aux DCs et aux ontologies. Le cadre de construction d’OBS estplus riche que celui d’un DC, intégrant des éléments implicites tels que les causes nécessaires, contextuels d’uneétude, sur l’incertitude de la connaissance et sur la qualité du jeu de données correspondant. Afin d’évaluerl’apport d’OBS, nous l’avons utilisée pour représenter les variables d’une étude observationnelle publiée etavons confronté ses conclusions à celle d’un DC. OBS a permis d'identifier de nouvelles variables de confusiongrâce au cadre de construction différent des DCs et aux axiomes et règles d'inférence. OBS a également étéutilisée pour représenter une étude rétrospective en cours d’analyse : le modèle a permis d’expliquer dans unpremier temps les corrélations statistiques retrouvées entre les variables de l’étude puis de mettre en évidence lespotentielles variables de confusion et leurs éventuels substituts ("proxys"). Les informations sur la qualité desdonnées et l’incertitude des relations causales ont quant à elles facilité la proposition des analyses de sensibilité,augmentant la robustesse de la conclusion de l’étude. Enfin, les inférences ont été expliquées grâce aux capacitésde raisonnement offertes par le formalisme de représentation d'OBS. À terme OBS sera intégrée dans des outilsd’analyse statistique afin de bénéficier des bibliothèques existantes pour la sélection des variables et de permettreson utilisation par les épidémiologistes et les biostatisticiens
Responding to a causal research question in the context of observational studies requires the selection ofconfounding variables. Integrating them into a multivariate model as co-variables helps reduce bias in estimatingthe true causal effect of exposure on the outcome. Identification is achieved through causal diagrams (CDs) ordirected acyclic graphs (DAGs). These representations, composed of nodes and directed arcs, prevent theselection of variables that would introduce bias, such as mediating and colliding variables. However, existingmethods for constructing CDs lack systematic approaches and exhibit limitations in terms of formalism,expressiveness, and completeness. To offer a formal and comprehensive framework capable of representing allnecessary information for variable selection on an enriched CD, analyzing this CD, and, most importantly,explaining the analysis results, we propose utilizing an ontological model enriched with inference rules. Anontological model allows for representing knowledge in the form of an expressive and formal graph consisting ofclasses and relations similar to the nodes and arcs of Cds. We developed the OntoBioStat (OBS) ontology basedon a list of competency questions about variable selection and an analysis of scientific literature on CDs andontologies. The construction framework of OBS is richer than that of a CD, incorporating implicit elements likenecessary causes, study context, uncertainty in knowledge, and data quality. To evaluate the contribution of OBS,we used it to represent variables from a published observational study and compared its conclusions with thoseof a CD. OBS identified new confounding variables due to its different construction framework and the axiomsand inference rules. OBS was also used to represent an ongoing retrospective study analysis. The modelexplained statistical correlations found between study variables and highlighted potential confounding variablesand their possible substitutes (proxies). Information on data quality and causal relation uncertainty facilitatedproposing sensitivity analyses, enhancing the study's conclusion robustness. Finally, inferences were explainedthrough the reasoning capabilities provided by OBS's formal representation. Ultimately, OBS will be integratedinto statistical analysis tools to leverage existing libraries for variable selection, making it accessible toepidemiologists and biostatisticians
APA, Harvard, Vancouver, ISO, and other styles
14

Hacid, Mohand Saïd. "Intégration des techniques d'intelligence artificielle dans un environnement de simulation : Application a la rééducation écologique de la mémoire." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0057.

Full text
Abstract:
Jusqu' à il y a peu, la rééducation de la mémoire chez les cérébros-lésés se faisait au moyen de tests inspirés par des cadres théoriques anciens qui ne permettaient pas d'en appréhender l'impact dans la vie quotidienne. Le systène REMISSION (Rééducation Ecologigue de la Mémoire par un système de simulatiON), dans lequel s’inscrit le travail présenté ici, entre dans le courant actuel des recherches en neuropsychologie en matière de r6éducat1on de la mémoire. Il intègre des techniques d' Intelligence Artificielle, de Gestion de Données, de Simulation et d'Animation interactives. L'Architecture du système REMISSION face patient. Repose sur la coopération de deux composants spécialisés : 1 Le comportement graphique : il assure la gestion des objets graphiques, ma gestion graphique des interactions du patient ; la gestion du temps, et sert d'interface. 2 ; le composant décisionnel : le rôle de cette partie intelligente du système consiste mettre en œuvre le processus et la stratégie de rééducation, et à gérer les interaction du patient sur le champ d'action représentant l'environnement simulé. Cette coopération a nécessité l'élaboration d'une interface de communication (canal de transfert bidirectionnel d'information). Elle permet de traiter les événements internes (perturbation, aide) déclenchés par un générateur. Le modèle objet a été utilisé en liaison avec des règles
The REMISSION (Rééducation Ecologique de la Mémoire par un Système de SimulatiON system in which the work presented here is framed. Enters into the current pattern of research in neuropsychology as regards the memory re-education. The REMISSION system combines techniques of Artificial Intelligence, Data Management, and Interactive Simulation and Animation. The architecture of the REMISSION system is based on the co-operation of two specialized components 1. The graphic component this ensures the management of graphic objects, the graphic management of the patient' a interactions, time management, and ia used as patient interface. 2. The decisional component : the role of this intelligent part of the system consists in carrying out both the re-education process and strategy. It also manages the patient interaction on the play-field which represents the simulated environment This co-operation bas required the working out of a communication interface. This interface allows on to handle external events (patient's actions on the environment) and internal events (interferences,aids) triggered by a generator. The knowledge base for the simulation is modelled on the object and rule paradigm
APA, Harvard, Vancouver, ISO, and other styles
15

Hillmer, Dirk. "Computer-based analysis of Biological Images Neuronal Networks for Image Processing." Electronic Thesis or Diss., Bordeaux, 2024. https://theses.hal.science/tel-04650911.

Full text
Abstract:
L’IA en médecine est un domaine en croissance rapide et son importance en dermatologie est de plus en plus prononcée. Les progrès des réseaux neuronaux, accélérés par de puissants GPU, ont catalysé le développement de systèmes d’IA pour l’analyse des troubles cutanés. Cette étude présente une nouvelle approche qui exploite les techniques d’infographie pour créer des réseaux d’IA adaptés aux troubles cutanés. La synergie de ces techniques génère non seulement des données de formation, mais optimise également la manipulation des images pour un traitement amélioré. Le vitiligo, un trouble cutané dépigmentant courant, constitue une étude de cas poignante. L’évolution des thérapies ciblées souligne la nécessité d’une évaluation précise de la surface touchée. Cependant, les méthodes d’évaluation traditionnelles prennent beaucoup de temps et sont sujettes à une variabilité inter-évaluateur et intra-évaluateur. En réponse, cette recherche vise à construire un système d'intelligence artificielle (IA) capable de quantifier objectivement la gravité du vitiligo facial. La formation et la validation du modèle d'IA ont exploité un ensemble de données d'une centaine d'images de vitiligo facial. Par la suite, un ensemble de données indépendant de soixante-neuf images de vitiligo facial a été utilisé pour l’évaluation finale. Les scores attribués par trois médecins experts ont été comparés aux performances inter-évaluateurs et intra-évaluateurs, ainsi qu'aux évaluations de l'IA. De manière impressionnante, le modèle d’IA a atteint une précision remarquable de 93 %, démontrant son efficacité dans la quantification de la gravité du vitiligo facial. Les résultats ont mis en évidence une concordance substantielle entre les scores générés par l'IA et ceux fournis par les évaluateurs humains. Au-delà du vitiligo facial, l'utilité de ce modèle dans l'analyse des images du corps entier et des images sous différents angles est apparue comme une voie d'exploration prometteuse. L'intégration de ces images dans une représentation complète pourrait offrir un aperçu de la progression du vitiligo au fil du temps, améliorant ainsi le diagnostic clinique et les résultats de la recherche. Bien que le voyage ait été fructueux, certains aspects de la recherche se sont heurtés à des obstacles en raison de ressources insuffisantes en images et en données. Une exploration de l'analyse de modèles de souris in vivo et de l'analyse de la pigmentation des cellules de la peau dans des modèles d'embryons précliniques ainsi que de la reconnaissance d'images de la rétine a malheureusement été interrompue. Néanmoins, ces défis mettent en lumière la nature dynamique de la recherche et soulignent l’importance de l’adaptabilité pour surmonter les obstacles imprévus.En conclusion, cette étude met en valeur le potentiel de l’IA pour révolutionner l’évaluation dermatologique. En fournissant une évaluation objective de la gravité du vitiligo facial, le modèle d’IA proposé constitue un complément précieux à l’évaluation humaine, tant dans la pratique clinique que dans la recherche. La poursuite continue de l’intégration de l’IA dans l’analyse de divers ensembles de données d’images est prometteuse pour des applications plus larges en dermatologie et au-delà
AI in medicine is a rapidly growing field, and its significance in dermatology is increasingly pronounced. Advancements in neural networks, accelerated by powerful GPUs, have catalyzed the development of AI systems for skin disorder analysis. This study presents a novel approach that harnesses computer graphics techniques to create AI networks tailored to skin disorders. The synergy of these techniques not only generates training data but also optimizes image manipulation for enhanced processing. Vitiligo, a common depigmenting skin disorder, serves as a poignant case study. The evolution of targeted therapies underscores the necessity for precise assessment of the affected surface area. However, traditional evaluation methods are time-intensive and prone to inter- and intra-rater variability. In response, this research endeavors to construct an artificial intelligence (AI) system capable of objectively quantifying facial vitiligo severity.The AI model's training and validation leveraged a dataset of one hundred facial vitiligo images. Subsequently, an independent dataset of sixty-nine facial vitiligo images was used for final evaluation. The scores assigned by three expert physicians were compared with both inter- and intra-rater performances, as well as the AI's assessments. Impressively, the AI model achieved a remarkable accuracy of 93%, demonstrating its efficacy in quantifying facial vitiligo severity. The outcomes highlighted substantial concordance between AI-generated scores and those provided by human raters.Expanding beyond facial vitiligo, this model's utility in analyzing full-body images and images from various angles emerged as a promising avenue for exploration. Integrating these images into a comprehensive representation could offer insights into vitiligo's progression over time, thereby enhancing clinical diagnosis and research outcomes. While the journey has been fruitful, certain aspects of the research encountered roadblocks due to insufficient image and data resources. An exploration into analysis of in vivo mouse models and analysing pigmentation of skin cells in a preclinical embryo models as well as retina image recognition was regrettably halted. Nevertheless, these challenges illuminate the dynamic nature of research and underscore the importance of adaptability in navigating unforeseen obstacles.In conclusion, this study showcases the potential of AI to revolutionize dermatological assessment. By providing an objective evaluation of facial vitiligo severity, the proposed AI model offers a valuable adjunct to human assessment in both clinical practice and research settings. The ongoing pursuit of integrating AI into the analysis of diverse image datasets holds promise for broader applications in dermatology and beyond
APA, Harvard, Vancouver, ISO, and other styles
16

La, Barbera Giammarco. "Learning anatomical digital twins in pediatric 3D imaging for renal cancer surgery." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT040.

Full text
Abstract:
Les cancers rénaux pédiatriques représentent 9% des cancers pédiatriques avec un taux de survie de 9/10 au prix de la perte d'un rein. La chirurgie d'épargne néphronique (NSS, ablation partielle du rein) est possible si le cancer répond à des critères précis (sur le volume et la localisation de la lésion). L'indication de la NSS repose sur l'imagerie préopératoire, en particulier la tomodensitométrie à rayons X (CT). Si l'évaluation de tous les critères sur des images 2D n'est pas toujours facile, les modèles 3D spécifiques au patient offrent une solution prometteuse. La construction de modèles 3D de l'anatomie rénale à partir de la segmentation est développée chez les adultes mais pas chez les enfants. Il existe un besoin de méthodes de traitement d'images dédiées aux patients pédiatriques en raison des spécificités de ces images, comme l'hétérogénéité de la forme et de la taille des structures. De plus, dans les images CT, l'injection d'un produit de contraste est souvent utilisée (ceCT) pour faciliter l'identification de l'interface entre les différents structures mais cela peut conduire à une hétérogénéité dans le contraste de certaines structures anatomiques, même parmi les patients acquis avec la même procédure. Le premier objectif de cette thèse est d'effectuer une segmentation des organes/tumeurs à partir d'images ceCT, à partir de laquelle un modèle 3D sera dérivé. Des approches d'apprentissage par transfert (des données d'adultes aux images d'enfants) sont proposées. La première question consiste à savoir si de telles méthodes sont réalisables, malgré la différence structurelle évidente entre les ensembles de données. Une deuxième question porte sur la possibilité de remplacer les techniques standard d’augmentation des données par des techniques d’homogénéisation des données utilisant des "Spatial Transformer Networks", améliorant ainsi le temps d’apprentissage, la mémoire requise et les performances. La segmentation de certaines structures anatomiques dans des images ceCT peut être difficile à cause de la variabilité de la diffusion du produit de contraste. L'utilisation combinée d'images CT sans contrast (CT) et ceCT atténue cette difficulté, mais au prix d'une exposition doublée aux rayonnements. Le remplacement d'une des acquisitions CT par des modèles génératifs permet de maintenir les performances de segmentation, en limitant les doses de rayons X. Un deuxième objectif de cette thèse est de synthétiser des images ceCT à partir de CT et vice-versa, à partir de bases d'apprentissage d'images non appariées, en utilisant une extension du "Cycle Generative Adversarial Network". Des contraintes anatomiques sont introduites en utilisant le score d'un "Self-Supervised Body Regressor", améliorant la sélection d'images anatomiquement appariées entre les deux domaines et renforçant la cohérence anatomique. Un troisième objectif de ce travail est de compléter le modèle 3D d'un patient atteint d'une tumeur rénale en incluant également les artères, les veines et les uretères. Une étude approfondie et une analyse comparative de la littérature sur la segmentation des structures tubulaires anatomique sont présentées. En outre, nous présentons pour la première fois l'utilisation de la fonction de ''vesselness'' comme fonction de perte pour l'entraînement d'un réseau de segmentation. Nous démontrons que la combinaison de l’information sur les valeurs propres avec les informations structurelles d’autres fonctions de perte permet d’améliorer les performances. Enfin, nous présentons un outil développé pour utiliser les méthodes proposées dans un cadre clinique réel ainsi qu'une étude clinique visant à évaluer les avantages de l'utilisation de modèles 3D dans la planification préopératoire. L'objectif à terme de cette recherche est de démontrer, par une évaluation rétrospective d'experts, comment les critères du NSS sont plus susceptibles d'être trouvés dans les images 3D que dans les images 2D. Cette étude est toujours en cours
Pediatric renal cancers account for 9% of pediatric cancers with a 9/10 survival rate at the expense of the loss of a kidney. Nephron-sparing surgery (NSS, partial removal of the kidney) is possible if the cancer meets specific criteria (regarding volume, location and extent of the lesion). Indication for NSS is relying on preoperative imaging, in particular X-ray Computerized Tomography (CT). While assessing all criteria in 2D images is not always easy nor even feasible, 3D patient-specific models offer a promising solution. Building 3D models of the renal tumor anatomy based on segmentation is widely developed in adults but not in children. There is a need of dedicated image processing methods for pediatric patients due to the specificities of the images with respect to adults and to heterogeneity in pose and size of the structures (subjects going from few days of age to 16 years). Moreover, in CT images, injection of contrast agent (contrast-enhanced CT, ceCT) is often used to facilitate the identification of the interface between different tissues and structures but this might lead to heterogeneity in contrast and brightness of some anatomical structures, even among patients of the same medical database (i.e., same acquisition procedure). This can complicate the following analyses, such as segmentation. The first objective of this thesis is to perform organ/tumor segmentation from abdominal-visceral ceCT images. An individual 3D patient model is then derived. Transfer learning approaches (from adult data to children images) are proposed to improve state-of-the-art performances. The first question we want to answer is if such methods are feasible, despite the obvious structural difference between the datasets, thanks to geometric domain adaptation. A second question is if the standard techniques of data augmentation can be replaced by data homogenization techniques using Spatial Transformer Networks (STN), improving training time, memory requirement and performances. In order to deal with variability in contrast medium diffusion, a second objective is to perform a cross-domain CT image translation from ceCT to contrast-free CT (CT) and vice-versa, using Cycle Generative Adversarial Network (CycleGAN). In fact, the combined use of ceCT and CT images can improve the segmentation performances on certain anatomical structures in ceCT, but at the cost of a double radiation exposure. To limit the radiation dose, generative models could be used to synthesize one modality, instead of acquiring it. We present an extension of CycleGAN to generate such images, from unpaired databases. Anatomical constraints are introduced by automatically selecting the region of interest and by using the score of a Self-Supervised Body Regressor, improving the selection of anatomically-paired images between the two domains (CT and ceCT) and enforcing anatomical consistency. A third objective of this work is to complete the 3D model of patient affected by renal tumor including also arteries, veins and collecting system (i.e. ureters). An extensive study and benchmarking of the literature on anatomic tubular structure segmentation is presented. Modifications to state-of-the-art methods for our specific application are also proposed. Moreover, we present for the first time the use of the so-called vesselness function as loss function for training a segmentation network. We demonstrate that combining eigenvalue information with structural and voxel-wise information of other loss functions results in an improvement in performance. Eventually, a tool developed for using the proposed methods in a real clinical setting is shown as well as a clinical study to further evaluate the benefits of using 3D models in pre-operative planning. The intent of this research is to demonstrate through a retrospective evaluation of experts how criteria for NSS are more likely to be found in 3D compared to 2D images. This study is still ongoing
APA, Harvard, Vancouver, ISO, and other styles
17

El, Hadramy Sidaty. "AI-enabled IVUS-guided augmented reality for liver surgery." Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAD031.

Full text
Abstract:
Cette thèse présente un nouveau système de réalité augmentée (RA) guidé par l'échographie intravasculaire (IVUS) destiné à améliorer la précision des interventions chirurgicales hépatiques mini-invasives. Bien que l'IVUS offre des avantages pour l'imagerie peropératoire, aucune méthode antérieure n’a intégré ces données en temps réel dans le guidage chirurgical des procédures hépatiques. La méthode proposée vise à aligner les données IVUS peropératoires avec les images CT préopératoires, offrant ainsi aux chirurgiens une vue anatomiquement précise des structures hépatiques, adaptée à la déformation de l'organe durant l'intervention. Pour la mise en place de ce système, nous adoptons une approche de recalage non-rigide basée sur les caractéristiques anatomiques, combinant un modèle biomécanique avec des modèles d'intelligence artificielle (IA). Cette combinaison permet d'assurer à la fois la précision et le fonctionnement en temps réel. Les contributions majeures comprennent le développement du SOniCS, intègrant FEniCS et SOFA pour une modélisation précise des tissus mous, ainsi qu'une méthode alimentée par l'IA permettant de reconstruire des volumes IVUS 3D sans systèmes de suivi externes, simplifiant ainsi la configuration chirurgicale. La contribution principale est la méthode de recalage spécifique au patient et fonctionnant en temps réel, permettant un alignement continu des données IVUS avec les modèles préopératoires et une adaptation aux caractéristiques individuelles des patients. Le travail présenté dans cette thèse constitue une avancée significative dans le domaine de la chirurgie hépatique assistée par ordinateur, offrant un système pratique pour assister les interventions chirurgicales hépatiques mini-invasives
This thesis presents a novel augmented reality (AR) system guided by intravascular ultrasound (IVUS) to enhance the precision of minimally invasive liver surgeries. While IVUS provides advantages for intraoperative imaging, no previous method has integrated this real-time data into the surgical guidance of liver procedures. The proposed method aims to align intraoperative IVUS data with preoperative CT images, providing surgeons with an anatomically accurate view of liver structures that adapt to the deformation of the organ during the intervention. We adopt a non-rigid registration approach based on anatomical features to implement this system, which combines a biomechanical model with artificial intelligence (AI) models. This combination allows for both accuracy and real-time. Major contributions include the development of SOniCS, a framework that integrates FEniCS and SOFA for accurate soft tissue simulation, and an AI-driven method for reconstructing 3D IVUS volumes without external tracking systems, thus simplifying the surgical setup. The primary contribution of this thesis is developing a patient-specific, real-time registration method that allows for continuous alignment of IVUS data with preoperative models and adaptation to patient-specific characteristics. The work presented in this thesis represents an advancement in computer-assisted liver surgery, providing a practical system to assist minimally invasive liver interventions
APA, Harvard, Vancouver, ISO, and other styles
18

Morizet-Mahoudeaux, Pierre. "Suivi en continu de processus dynamiques : fonctionnement en mode bouclé contrôlé d'un système d'intelligence artificielle." Compiègne, 1987. http://www.theses.fr/1987COMPE068.

Full text
Abstract:
L'objet de ce travail est l'étude et la mise en œuvre d'un système d'intelligence artificielle capable de diagnostiquer, en continu, l'état d'un processus dynamique au cours de son évolution. Un premier chapitre montre, à l'aide de deux exemples, l'un concernant le traitement du signal, l'autre le contrôle de la réanimation néonatale, les propriétés que doivent satisfaire les systèmes de suivi de processus dynamiques (au niveau des faits, des règles et des buts) qui impliquent la gestion des contradictions, l'invalidation des règles et l'inhibition des buts (et de leurs contraires). Le système d'acquisition et de structuration des connaissances (SUPER) qui a servi de base à ce travail est ensuite présenté, ainsi que son interface en langage naturel et de représentation d'objet. Dans cette description, on donne les propriétés et les justifications du modèle de représentation du raisonnement utilisé dans SUPER. Les limitations et les avantages du modèle sont ainsi mis en évidence. Une comparaison avec les solutions apportées dans le cas des systèmes experts en général est présentée (non-monotonie). La troisième partie décrit la maintenance de la base de faits, lors d'ajouts, de suppressions ou de modifications d'informations. Le cas particulier des règles de changement d'état est aussi étudié, avec la mise en évidence de possibilité de mémorisation ou non du changement d'état. La description du moteur d'inférence bouclé est ensuite reportée. Il offre, sur la base d'une vision ensembliste des faits et des connaissances, la possibilité de gestion d'un objectif parmi plusieurs, compte tenu des données présentes et des états antérieurs. Deux exemples d'application font l'objet de la dernière partie. Ils montrent pour l'un une méthode optimale d'utilisation de méthodes algorithmiques en fonction de leurs caracteristiques propres et de la connaissance de données. Le second décrit les stratégies de résolution adoptées dans le cas d'un ensemble processus-environnement en cours d'évolution lente
This work presents the study and the realization of an artificial intelligence based system which monitors and diagnoses the successive states of a dynamic process. The first chapter shows, with the help of two examples (one concerns signal processing, the other the resuscitation protocol following of neonates), the properties that a system for dynamic control following must satisfy. The necessity of the maintenance of inconsistencies, inhibition and reactivation for facts rules and goals is presented. The knowledge acquisition and structuration system (SUPER), which was at the foundations of this work, is presented. The natural language interface and the object representation model are also described. The specific properties of this system in comparison with general expert systems are given and justified. The solutions given by non-monotonic logic expert systems are also presented. The third part is the description of the fact base maintenance system, when dates change, is inserted or suppressed. The particular case of change of state rules is studied, with the possibility of memorizing or not the fact that the system's state has changed. The looped inference engine is then presented. It ensures the managing of goals analysis and resolution planning according to the passed and present datas. Two applications examples are given in the last part. The first one shows how to manage with signal processing algorithm during a problem resolution as temporary results are proved or not. The second one describes resolutions strategies management in the case of a process-environment system as it slowly evolves
APA, Harvard, Vancouver, ISO, and other styles
19

Boukebeche, Madani. "AIPSys : un système à base de connaissances orienté objet en vue de l'aide à la prescription de médicaments." Paris 5, 1997. http://www.theses.fr/1997PA055005.

Full text
Abstract:
Cette thèse s'inscrit dans le projet AIP (artificial intelligence & pharmacology) dont l'objectif est de faire bénéficier le domaine de la prescription de médicaments et en particulier l'automédication de la méthodologie et des techniques issues de l'intelligence artificielle. Il s'adresse à un large éventail d'utilisateurs potentiels allant du grand public, aux étudiants en médecine, pharmaciens et médecins. Pour prendre en compte les multiples aspects de ce projet, notamment l'hétérogénéité des connaissances du domaine d'application, nous avons conçu et développé un système à base de connaissances oriente objet, appelé aipsys, intégrant une base de données structurée elle aussi selon l'approche orientée objet. Ce choix doit permettre de maitriser à la fois la complexité caractérisant les données relatives aux médicaments et la variété des types de connaissances permettant de les prescrire. Ainsi, les entités du domaine d'application (pathologies, malades et médicaments) sont organisées en classes hiérarchisées et isomorphes. Les connaissances sur les procédures de diagnostic et de prescription de médicaments sont représentées par règles de production pouvant inclure des requêtes d'interrogation de la base de données sur les médicaments. Cette diversité de représentation permet alors une grande souplesse de programmation. L'accomplissement des taches de diagnostic, de traitements thérapeutiques et de prescription de médicaments est réalisé par la mise en œuvre des raisonnements bases sur le processus de classification des malades par rapport à la hiérarchie des classes de malades. Ceci est effectué par un parcours intelligent d'arbres de décision guide par des heuristiques et des données sur les malades et leurs pathologies, collectées au moyen d'un dialogue en mode question/réponse. Une fois que la classe d'un malade est connue, les prescriptions sont élaborées à partir des classes de médicaments isomorphes à cette dernière. Pour ce faire, un mécanisme d'inférence fondé sur le principe d'envois de messages et sur une distribution du contrôle au niveau des règles est proposé. Les bases de connaissances d'aipsys sont organisées en modules et le processus d'héritage est étendu aux règles et aux modules de connaissances, ce qui permet une optimisation de la mémoire de travail.
APA, Harvard, Vancouver, ISO, and other styles
20

Curé, Olivier. "Siam : système intéractif d'automédication multimédia." Paris 5, 1999. http://www.theses.fr/1999PA05S019.

Full text
Abstract:
Le projet SIAM (système interactif d'automédication multimédia) est destiné au grand public et a pour objectif de rendre opérationnel sur internet un outil multimédia d'automédication, c'est-à-dire une aide à la proposition de médicaments à partir de l'identification d'un symptôme patient. La réalisation d'une telle application comporte les aspects suivants : - représentation des connaissances médicales et pharmacologiques utiles. - conception et réalisation de l'interface utilisateur sur internet. - mise à disposition de l'utilisateur de modules pertinents d'explication médicale. La représentation des connaissances fait appel à des disciplines variées telles que l'intelligence artificielle (IA), les sciences cognitives, ou les bases de connaissances et de données. Nous sommes tenus de traiter à la fois les aspects cliniques et thérapeutiques de cette application. Pour ce faire, notre système réalisé un lien entre les symptômes et les médicaments de façon a pouvoir conseiller l'utilisateur. Pour exploiter correctement sur le web d'internet une base d'environ 1500 médicaments et plusieurs dizaines de symptômes, nous avons choisi comme mode de représentation des connaissances une base de données relationnelle orientée système expert (SE), solution qui nous parait bien adaptée à l'important volume d'information qu'il convient de traiter. Les caractéristiques de ce système destiné au grand public, c'est-à-dire à un ensemble d'utilisateurs peu familiers aussi bien du domaine médical que de la navigation sur internet, induisent de très nombreuses contraintes sur la conception de l'interface d'utilisation. Celle-ci se distingue par une présentation constante sur toutes les pages du site, par la mise en œuvre d'un thesaurus et par un mode binaire de questions / réponses. L'un des intérêts principaux de ce système pour le grand public est de fournir des listes de médicaments disponibles sans ordonnance. Une place de choix est ainsi faite aux médicaments dits OTC (over the counter) ainsi qu'à l'automédication, en collaboration étroite avec les professionnels de la sante. Le système ainsi réalisé, par les avantages multiples qu'il procure à l'utilisateur, démontre l'intérêt que présente le développement sur internet d'outils d'aide à l'utilisation de médicaments.
APA, Harvard, Vancouver, ISO, and other styles
21

Portet, François. "Pilotages d'algorithmes pour la reconnaissance en ligne d'arythmies cardiaques." Rennes 1, 2005. https://tel.archives-ouvertes.fr/tel-00011942v2.

Full text
Abstract:
L'objectif de cette thèse est la réalisation du système de monitoring cardiaque intelligent IP-Calicot, capable grâce à un module de pilotage d'algorithmes de modifier dynamiquement sa chaîne de traitement afin d'obtenir un diagnostic médical fiable même en milieu bruité. Le système extrait d'un électrocardiogramme (ECG) les informations servant à diagnostiquer une arythmie cardiaque. Le contexte courant, constitué du bruit de ligne et du diagnostic médical, permet un pilotage à trois niveaux par sélection des algorithmes de traitement du signal, des éléments à extraire de l'ECG, le décrivant ainsi dans un langage plus ou moins précis, et sélection du langage de description à utiliser pour établir le diagnostic. Le pilote agit sur la chaîne de traitement grâce à des règles de pilotage acquises par expertises et déduites d'études statistiques. Les tests effectués sur des ECG pathologiques bruités typiques de situations cliniques montrent l'intérêt et la faisabilité de cette approche.
APA, Harvard, Vancouver, ISO, and other styles
22

Yang, Yingyu. "Analyse automatique de la fonction cardiaque par intelligence artificielle : approche multimodale pour un dispositif d'échocardiographie portable." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4107.

Full text
Abstract:
Selon le rapport annuel de la Fédération Mondiale du Cœur de 2023, les maladies cardiovasculaires (MCV) représentaient près d'un tiers de tous les décès mondiaux en 2021. Comparativement aux pays à revenu élevé, plus de 80% des décès par MCV surviennent dans les pays à revenu faible et intermédiaire. La répartition inéquitable des ressources de diagnostic et de traitement des MCV demeure toujours non résolue. Face à ce défi, les dispositifs abordables d'échographie de point de soins (POCUS) ont un potentiel significatif pour améliorer le diagnostic des MCV. Avec l'aide de l'intelligence artificielle (IA), le POCUS permet aux non-experts de contribuer, améliorant ainsi largement l'accès aux soins, en particulier dans les régions moins desservies.L'objectif de cette thèse est de développer des algorithmes robustes et automatiques pour analyser la fonction cardiaque à l'aide de dispositifs POCUS, en mettant l'accent sur l'échocardiographie et l'électrocardiogramme. Notre premier objectif est d'obtenir des caractéristiques cardiaques explicables à partir de chaque modalité individuelle. Notre deuxième objectif est d'explorer une approche multimodale en combinant les données d'échocardiographie et d'électrocardiogramme.Nous commençons par présenter deux nouvelles structures d'apprentissage profond (DL) pour la segmentation de l'échocardiographie et l'estimation du mouvement. En incorporant des connaissance a priori de forme et de mouvement dans les modèles DL, nous démontrons, grâce à des expériences approfondies, que de tels a priori contribuent à améliorer la précision et la généralisation sur différentes séries de données non vues. De plus, nous sommes en mesure d'extraire la fraction d'éjection du ventricule gauche (FEVG), la déformation longitudinale globale (GLS) et d'autres indices utiles pour la détection de l'infarctus du myocarde (IM).Ensuite, nous proposons un modèle DL explicatif pour la décomposition non supervisée de l'électrocardiogramme. Ce modèle peut extraire des informations explicables liées aux différentes sous-ondes de l'ECG sans annotation manuelle. Nous appliquons ensuite ces paramètres à un classificateur linéaire pour la détection de l'infarctus du myocarde, qui montre une bonne généralisation sur différentes séries de données.Enfin, nous combinons les données des deux modalités pour une classification multimodale fiable. Notre approche utilise une fusion au niveau de la décision intégrant de l'incertitude, permettant l'entraînement avec des données multimodales non appariées. Nous évaluons ensuite le modèle entraîné à l'aide de données multimodales appariées, mettant en évidence le potentiel de la détection multimodale de l'IM surpassant celle d'une seule modalité.Dans l'ensemble, nos algorithmes proposés robustes et généralisables pour l'analyse de l'échocardiographie et de l'ECG démontrent un potentiel significatif pour l'analyse de la fonction cardiaque portable. Nous anticipons que notre cadre pourrait être davantage validé à l'aide de dispositifs portables du monde réel
According to the 2023 annual report of the World Heart Federation, cardiovascular diseases (CVD) accounted for nearly one third of all global deaths in 2021. Compared to high-income countries, more than 80% of CVD deaths occurred in low and middle-income countries. The inequitable distribution of CVD diagnosis and treatment resources still remains unresolved. In the face of this challenge, affordable point-of-care ultrasound (POCUS) devices demonstrate significant potential to improve the diagnosis of CVDs. Furthermore, by taking advantage of artificial intelligence (AI)-based tools, POCUS enables non-experts to help, thus largely improving the access to care, especially in less-served regions.The objective of this thesis is to develop robust and automatic algorithms to analyse cardiac function for POCUS devices, with a focus on echocardiography (ECHO) and electrocardiogram (ECG). Our first goal is to obtain explainable cardiac features from each single modality respectively. Our second goal is to explore a multi-modal approach by combining ECHO and ECG data.We start by presenting two novel deep learning (DL) frameworks for echocardiography segmentation and motion estimation tasks, respectively. By incorporating shape prior and motion prior into DL models, we demonstrate through extensive experiments that such prior can help improve the accuracy and generalises well on different unseen datasets. Furthermore, we are able to extract left ventricle ejection fraction (LVEF), global longitudinal strain (GLS) and other useful indices for myocardial infarction (MI) detection.Next, we propose an explainable DL model for unsupervised electrocardiogram decomposition. This model can extract interpretable information related to different ECG subwaves without manual annotation. We further apply those parameters to a linear classifier for myocardial infarction detection, which showed good generalisation across different datasets.Finally, we combine data from both modalities together for trustworthy multi-modal classification. Our approach employs decision-level fusion with uncertainty, allowing training with unpaired multi-modal data. We further evaluate the trained model using paired multi-modal data, showcasing the potential of multi-modal MI detection to surpass that from a single modality.Overall, our proposed robust and generalisable algorithms for ECHO and ECG analysis demonstrate significant potential for portable cardiac function analysis. We anticipate that our novel framework could be further validated using real-world portable devices. We envision that such advanced integrative tools may significantly contribute towards better identification of CVD patients
APA, Harvard, Vancouver, ISO, and other styles
23

Wallis, David. "A study of machine learning and deep learning methods and their application to medical imaging." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPAST057.

Full text
Abstract:
Nous utilisons d'abord des réseaux neuronaux convolutifs (CNNs) pour automatiser la détection des ganglions lymphatiques médiastinaux dans les images TEP/TDM. Nous construisons un modèle entièrement automatisé pour passer directement des images TEP/TDM à la localisation des ganglions. Les résultats montrent une performance comparable à celle d'un médecin. Dans la seconde partie de la thèse, nous testons la performance, l'interprétabilité et la stabilité des modèles radiomiques et CNN sur trois ensembles de données (IRM cérébrale 2D, TDM pulmonaire 3D, TEP/TDM médiastinale 3D). Nous comparons la façon dont les modèles s'améliorent lorsque davantage de données sont disponibles et nous examinons s'il existe des tendances communess aux différents problèmes. Nous nous demandons si les méthodes actuelles d'interprétation des modèles sont satisfaisantes. Nous étudions également comment une segmentation précise affecte les performances des modèles. Nous utilisons d'abord des réseaux neuronaux convolutifs (CNNs) pour automatiser la détection des ganglions lymphatiques médiastinaux dans les images TEP/TDM. Nous construisons un modèle entièrement automatisé pour passer directement des images TEP/TDM à la localisation des ganglions. Les résultats montrent une performance comparable à celle d'un médecin. Dans la seconde partie de la thèse, nous testons la performance, l'interprétabilité et la stabilité des modèles radiomiques et CNN sur trois ensembles de données (IRM cérébrale 2D, TDM pulmonaire 3D, TEP/TDM médiastinale 3D). Nous comparons la façon dont les modèles s'améliorent lorsque davantage de données sont disponibles et nous examinons s'il existe des tendances communess aux différents problèmes. Nous nous demandons si les méthodes actuelles d'interprétation des modèles sont satisfaisantes. Nous étudions également comment une segmentation précise affecte les performances des modèles
We first use Convolutional Neural Networks (CNNs) to automate mediastinal lymph node detection using FDG-PET/CT scans. We build a fully automated model to go directly from whole-body FDG-PET/CT scans to node localisation. The results show a comparable performance to an experienced physician. In the second half of the thesis we experimentally test the performance, interpretability, and stability of radiomic and CNN models on three datasets (2D brain MRI scans, 3D CT lung scans, 3D FDG-PET/CT mediastinal scans). We compare how the models improve as more data is available and examine whether there are patterns common to the different problems. We question whether current methods for model interpretation are satisfactory. We also investigate how precise segmentation affects the performance of the models. We first use Convolutional Neural Networks (CNNs) to automate mediastinal lymph node detection using FDG-PET/CT scans. We build a fully automated model to go directly from whole-body FDG-PET/CT scans to node localisation. The results show a comparable performance to an experienced physician. In the second half of the thesis we experimentally test the performance, interpretability, and stability of radiomic and CNN models on three datasets (2D brain MRI scans, 3D CT lung scans, 3D FDG-PET/CT mediastinal scans). We compare how the models improve as more data is available and examine whether there are patterns common to the different problems. We question whether current methods for model interpretation are satisfactory. We also investigate how precise segmentation affects the performance of the models
APA, Harvard, Vancouver, ISO, and other styles
24

Fromont, Élisa. "Apprentissage multisource par programmation logique inductive : application à la caractérisation d'arythmies cardiques." Rennes 1, 2005. https://tel.archives-ouvertes.fr/tel-00011455v2.

Full text
Abstract:
Nous nous intéressons aux possibilités d'acquisition automatique de connaissances à partir de données provenant de nouveaux capteurs et d'intégration de ces connaissances pour le diagnostic d'arythmies cardiaques à partir de données multisources. Nous utilisons la programmation logique inductive pour apprendre des règles discriminantes permettant de caractériser les arythmies à partir des données des différentes sources prises séparément. Ces règles permettent d'exploiter la redondance des sources et ainsi pallier aux problèmes de perte de signal ou de bruit. Nous exposons ensuite une méthode tirant parti des règles monosources pour apprendre efficacement et automatiquement des connaissances mettant en relation les différentes sources. Ces nouvelles règles permettent d'exploiter la complémentarité des sources pour augmenter les performances en détection des systèmes de surveillance automatique de patients. Ces méthodes sont comparées sur des données provenant de signaux réels.
APA, Harvard, Vancouver, ISO, and other styles
25

Benkirane, Hakim. "Deep learning methods for the integration of multi-omics and histopathology data for precision medicine in oncology." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASR022.

Full text
Abstract:
La médecine de précision est une approche émergente pour le traitement et la prévention des maladies qui prend en compte la variabilité individuelle dans les gènes, l'environnement et le mode de vie. L'objectif est de prédire plus précisément quelles stratégies de traitement et de prévention pour une maladie particulière fonctionneront dans quels groupes de personnes. En oncologie, la médecine de précision s'accompagne d'une augmentation drastique des données collectées pour chaque individu, caractérisée par une grande diversité de sources de données. Par exemple, les patients recevant un traitement contre le cancer sont souvent soumis à un profilage moléculaire complet, en plus du profilage clinique et des images de pathologie anatomique. Par conséquent, l'intégration de données multimodales (images, cliniques, moléculaires) est une question critique pour permettre la définition de modèles prédictifs individuels. Cette thèse aborde le développement de modèles computationnels et de stratégies d'apprentissage capables de déchiffrer des interactions complexes et de haute dimension. Un accent significatif est également mis sur l'explicabilité de ces modèles pilotés par l'IA, assurant que les prédictions soient compréhensibles et cliniquement exploitables
Precision medicine is an emerging approach for disease treatment and prevention that takes into account individual variability in genes, environment, and lifestyle. The objective it to predict more accurately which treatment and prevention strategies for a particular disease will work in which groups of people. In oncology, precision medicine comes with a drastic increase in the data that is collected for each individual, characterized by a large diversity of data sources. Advanced cancer patients receiving cancer treatment, for instance, are often subject to a complete molecular profiling, on top of clinical profiling and pathology images. As a consequence, integration methods for multi-modal data (image, clinical, molecular) is a critical issue to allow the definition of individual predictive models. This thesis tackles the development of computational models and learning strategies adept at deciphering complex, high-dimensional interactions. A significant focus is also placed on the explainability of these AI-driven models, ensuring that predictions are understandable and clinically actionable
APA, Harvard, Vancouver, ISO, and other styles
26

Ketata, Firas. "Risk prediction of endocrine diseases using data science and explainable artificial intelligence." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD022.

Full text
Abstract:
L'objectif de cette thèse est de prédire le risque de maladies endocriniennes à l'aide de la science des données et de l'apprentissage automatique. L'idée est d'exploiter cette identification de risque pour aider les médecins à gérer les ressources financières et personnaliser le traitement des anomalies glucidiques chez les patients atteints de bêta-thalassémie majeure, ainsi que pour le dépistage du syndrome métabolique chez les adolescents. Une étude d'explicabilité des prédictions a été développée dans cette thèse pour évaluer la fiabilité de la prédiction des anomalies glucidiques et pour réduire les coûts financiers associés au dépistage du syndrome métabolique. Enfin, en réponse aux limites constatées de l'apprentissage automatique explicable, nous proposons une approche visant à améliorer et évaluer cette explicabilité, que nous testons sur différents jeux de données
This thesis aims to predict the risk of endocrine diseases using data science and machine learning. The aim is to leverage this risk identification to assist doctors in managing financial resources, personalizing the treatment of carbohydrate anomalies in patients with beta-thalassemia major, and screening for metabolic syndrome in adolescents. An explainability study of the predictions was developed in this thesis to evaluate the reliability of predicting glucose anomalies and to reduce the financial burden associated with screening for metabolic syndrome. Finally, in response to the observed limitations of explainable machine learning, we propose an approach to improve and evaluate this explainability, which we test on several datasets
APA, Harvard, Vancouver, ISO, and other styles
27

Karboub, Kaouter. "Contribution à l'amélioration des performances des services médicaux urgents appliquant l'IoT et l'intelligence artificielle." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0093.

Full text
Abstract:
L'internet des objets (IoT) et l'intelligence artificielle (IA) sont deux domaines technologiques en progression utilisant les capacités d'exécution de tâches mains libres et d'analyse intelligente des données. Ces technologies présentent un potentiel prometteur pour améliorer les interactions homme-machine dans le flux de travail, créer une meilleure prise de décision et améliorer l'accessibilité aux données. Les progrès rapides et les nouvelles possibilités d'application de l'IoT et de l'IA en sont aux phases initiales. Par conséquent, les travaux de recherche de cette thèse ont pour objectifs d'identifier et d'étudier le potentiel, les défis et les possibilités d'utiliser l'IoT et l'IA pour évaluer les paramètres cliniques. Plusieurs organisations affirment qu'une attention accrue devrait être accordée à l'utilisation efficace des ressources de santé. L'augmentation de l'espérance de vie et de la taille de la population au niveau international s'accompagne d'une augmentation du nombre d'hospitalisations de courte durée, et donc de la capacité limitée des lits. Le rapport international sur la santé mondiale publié par l'Organisation Mondiale de la Santé « OMS » montre que 20 à 40 % de l'ensemble des ressources de soins de santé ne sont pas suffisamment utilisées. Ainsi, les outils qui favorisent un système de soins de santé efficace sont d'une grande importance pour la société actuelle. L'objectif de cette thèse est d'étendre les méthodes dans le domaine de l'IoT et de l'IA ainsi que la modélisation et l'optimisation au flux de patients dans les hôpitaux pour fournir à la direction et aux planificateurs une gamme d'outils de décision afin d'améliorer l'utilisation des ressources hospitalières. Nous élaborons plusieurs problèmes d'optimisation hospitalière pertinents qui concernent la prise de décision au niveau stratégique, tactique et opérationnel. En outre, nous nous concentrons sur différents types de flux de patients, des admissions de patients hospitalisés aux admissions de patients externes, ce qui a donné lieu à de nombreuses études de recherche différentes. Sur le plan méthodologique, nous nous concentrons principalement sur l'évaluation des différentes instances du flux de patients, mais plus particulièrement sur les patients atteints de maladies cardiovasculaires, dont nous appuyant sur la modélisation de la chaîne de Markov. L'accent a été mis plus particulièrement sur la séparation du séjour du patient à l'hôpital en trois phases principales. Chaque phase est interdépendante, variable dans le temps et dépend de l'autre phase. Le cœur de la contribution est d'évaluer et de donner à chaque étape du processus d'admission, de traitement et de sortie des patients des solutions qui peuvent aider les médecins à prendre des décisions temps minimum, mais aussi à les prendre efficacement. Dans notre cas, l'IoT a été de grande utilité afin de collecter les signaux d'électrocardiogrammes (ECG) de patients atteints de différentes pathologies cardiovasculaires, et de transférer ces données dans une plateforme pour le traitement et le stockage. L'IA est utilisée pour classer automatiquement ces signaux avec trois ensembles de données du MIT, afin de décider automatiquement des patients sont atteints de maladies cardiovasculaires. L'IA a ensuite été utilisée pour prédire efficacement quels patients doivent sortir de l'hôpital en fonction de leurs signaux et caractéristiques épidémiologiques et physiologiques, mais aussi en fonction de leur durée de séjour et de leur historique d'admission et de transfert. Enfin, vient le rôle de l'utilisation de l'optimisation métaheuristique. Ce dernier tient compte de l'admission, de la trajectoire de traitement et de la première analyse de survie de ces patients pour décider quels patients seront affectés à un lit dans quel service, principalement dans l'unité de soins intensifs
Internet of Things (IoT) and Artificial Intelligence (AI)are two advancing technological areas utilizing the capabilities of performing hands free tasks and intelligent data analysis. These technologies are showing promising potentials of improving the Human-to-Machine interactions in clinical workflow, create a better foundation of clinical decision-making, and improve the accessibility of clinical data. The novel aspect, rapid advancement, and new application possibilities of IoT and AI are in the initial phases. Hence, the thesis research has the objectives of identifying and investigating the potential, challenges, and possibilities of using IoT and AI to assess clinical settings.From the other hand, Various organizations claim that increasing attention should be put on an efficient use of healthcare resources. The internationally rising life expectancy and population size is accompanied by hospitals that are relying more on short admissions, and thus on limited bed capacity. The international World Health Report published by the World Health Organization shows that 20-40% of all healthcare resources are not being sufficiently utilized. Thus, tools that benefit an efficient healthcare system is greatly relevant to the present society. The goal of this thesis is to expand methods in the field of IoT and AI and modeling and optimization to hospital patient flow with a view to provide management and planners with a range of decision tools for improving the utilization of hospital resources. We elaborate on several relevant hospital optimization problems which relate to decision making on both the strategic, tactical and operational level. In addition, we focus on various types of patient flow, from inpatient to outpatient admissions, which has led to many different research studies. Methodologically we mainly focus on evaluating the different instances of patient flow but specifically on patients with cardiovascular diseases (CVD) based on Markov chain modeling.Mainly, the focus was on separating the patient stay in the hospital into three main phases. Each phase in an interdependent, time varying and function of the other phase. The core of the contribution is to assess and give every step of the process of admitting, treating, and discharging patients with solutions that can help physicians take decisions in short time but also take them efficiently. These techniques used IoT in order to collect electrocardiogram signals (ECG) from patients with different CVD pathologies and to transfer these data into a platform that can preprocess it and store it. AI that is used to automatically classify these signals along with three MIT dataset and decide which patients have cardiovascular diseases with no physician intervention. Then AI was used to efficiently predict which patients need to be discharged based on their epidemiological, physiological signals and characteristics and also based on their Length of Stay (LOS) and on their admission and transfer history. Finally, comes the role of using metaheuristic optimization. This last one, into account the admission, treatment trajectory and first survival analysis of these patients to decide which patients will be allocated to a bed in which ward mainly in the Intensive Care Unit (ICU).The proposed system for studying and optimizing the patients flow in a health care facility show high performance based on the different performance metrics we are using in this research project
APA, Harvard, Vancouver, ISO, and other styles
28

Mercadier, Yves. "Classification automatique de textes par réseaux de neurones profonds : application au domaine de la santé." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS068.

Full text
Abstract:
Cette thèse porte sur l'analyse de données textuelles dans le domaine de la santé et en particulier sur la classification supervisée multi-classes de données issues de la littérature biomédicale et des médias sociaux.Une des difficultés majeures lors de l'exploration de telles données par des méthodes d'apprentissage supervisées est de posséder un jeu de données suffisant en nombre d'exemples pour l'entraînement des modèles. En effet, il est généralement nécessaire de catégoriser les données manuellement avant de réaliser l'étape d'apprentissage. La taille importante des jeux de données rend cette tâche de catégorisation très coûteuse, qu'il convient de réduire par des systèmes semi-automatiques.Dans ce contexte, l’apprentissage actif, pendant lequel l’oracle intervient pour choisir les meilleurs exemples à étiqueter, s’avère prometteur. L’intuition est la suivante : en choisissant les exemples intelligemment et non aléatoirement, les modèles devraient s’améliorer avec moins d’efforts pour l’oracle et donc à moindre coût (c’est-a-dire avec moins d’exemples annotés). Dans cette thèse, nous évaluerons différentes approches d’apprentissage actif combinées avec des modèles d’apprentissage profond récents.Par ailleurs, lorsque l’on dispose de peu de données annotées, une possibilité d’amélioration est d’augmenter artificiellement la quantité de données pendant la phase d’entraînement du modèle, en créant de nouvelles données de manière automatique à partir des données existantes. Plus précisément, il s’agit d’injecter de la connaissance en tenant compte des propriétés invariantes des données par rapport à certaines transformations. Les données augmentées peuvent ainsi couvrir un espace d’entrée inexploré, éviter le sur-apprentissage et améliorer la généralisation du modèle. Dans cette thèse, nous proposerons et évaluerons une nouvelle approche d'augmentation de données textuelles
This Ph.D focuses on the analysis of textual data in the health domain and in particular on the supervised multi-class classification of data from biomedical literature and social media.One of the major difficulties when exploring such data by supervised learning methods is to have a sufficient number of data sets for models training. Indeed, it is generally necessary to label manually the data before performing the learning step. The large size of the data sets makes this labellisation task very expensive, which should be reduced with semi-automatic systems.In this context, active learning, in which the Oracle intervenes to choose the best examples to label, is promising. The intuition is as follows: by choosing the smartly the examples and not randomly, the models should improve with less effort for the oracle and therefore at lower cost (i.e. with less annotated examples). In this PhD, we will evaluate different active learning approaches combined with recent deep learning models.In addition, when small annotated data set is available, one possibility of improvement is to artificially increase the data quantity during the training phase, by automatically creating new data from existing data. More precisely, we inject knowledge by taking into account the invariant properties of the data with respect to certain transformations. The augmented data can thus cover an unexplored input space, avoid overfitting and improve the generalization of the model. In this Ph.D, we will propose and evaluate a new approach for textual data augmentation.These two contributions will be evaluated on different textual datasets in the medical domain
APA, Harvard, Vancouver, ISO, and other styles
29

Chamma, Ahmad. "Statistical interpretation of high-dimensional complex prediction models for biomedical data." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG028.

Full text
Abstract:
Les grands jeux de données de santé produits, qui représentent les caractéristiques de la population selon de multiples modalités, permettent de prédire et de comprendre les résultats individuels. À mesure que la collecte de données s'étend aux domaines scientifiques, tels que l'imagerie cérébrale, les variables sont liées par des dépendances complexes, éventuellement non linéaires, ainsi que par des degrés élevés de corrélation. Par conséquent, les modèles populaires tels que les techniques linéaires et à base d'arbres de décision ne sont plus efficaces dans ces contextes à haute dimension. De puissants algorithmes d'apprentissage automatique non linéaires, tels que les forêts aléatoires et les réseaux de neurones profonds, sont devenus des outils importants pour caractériser les différences interindividuelles et prédire les résultats biomédicaux, tels que l'âge du cerveau. Il est essentiel d'expliquer le processus de décision des algorithmes d'apprentissage automatique, à la fois pour améliorer les performances d'un modèle et pour faciliter la compréhension. Cet objectif peut être atteint en évaluant l'importance des variables. Traditionnellement, les scientifiques ont privilégié des modèles simples et transparents tels que la régression linéaire, où l'importance des variables peut être facilement mesurée par des coefficients. Cependant, avec l'utilisation de méthodes plus avancées, l'accès direct à la structure interne est devenu limité et/ou ininterprétable d'un point de vue humain. C'est pourquoi ces méthodes sont souvent appelées méthodes "boîte noire". Les approches standard basées sur l'importance par permutation (PI) évaluent l'importance d'une variable en mesurant la diminution du score de perte lorsque la variable d'intérêt est remplacée par sa version permutée. Bien que ces approches augmentent la transparence des modèles de boîte noire et offrent une validité statistique, elles peuvent produire des évaluations d'importance peu fiables lorsque les variables sont corrélées.L'objectif de ce travail est de surmonter les limites de l'importance de permutation standard en intégrant des schémas conditionnels. Par conséquent, nous développons deux cadres génériques, l'importance par permutation conditionnelle (CPI) et l'importance par permutation conditionnelle basée sur des blocs (BCPI), qui prennent efficacement en compte les corrélations entre les variables et surmontent les limites de l'importance par permutation. Nous présentons deux nouveaux algorithmes conçus pour traiter les situations où les variables sont corrélées, qu'elles soient groupées ou non. Nos résultats théoriques et empiriques montrent que CPI fournit des méthodes efficaces sur le plan du calcul et solides sur le plan théorique pour l'évaluation des variables individuelles. Le cadre de CPI garantit le contrôle des erreurs de type-I et produit une sélection concise des variables significatives dans les grands ensembles de données.BCPI présente une stratégie de gestion des variables individuelles et groupées. Elle intègre le regroupement statistique et utilise la connaissance préalable du regroupement pour adapter l'architecture du réseau DNN à l'aide de techniques d'empilement. Ce cadre est robuste et maintient le contrôle de l'erreur de type-I même dans des scénarios avec des groupes de variables fortement corrélées. Il donne de bons résultats sur divers points de référence. Les évaluations empiriques de nos méthodes sur plusieurs jeux de données biomédicales ont montré une bonne validité apparente. Nous avons également appliqué ces méthodes à des données cérébrales multimodales ainsi qu'à des données sociodémographiques, ouvrant la voie à de nouvelles découvertes et avancées dans les domaines ciblés. Les cadres CPI et BCPI sont proposés en remplacement des méthodes conventionnelles basées sur la permutation. Ils améliorent l'interprétabilité de l'estimation de l'importance des variables pour les modèles d'apprentissage à haute performance
Modern large health datasets represent population characteristics in multiple modalities, including brain imaging and socio-demographic data. These large cohorts make it possible to predict and understand individual outcomes, leading to promising results in the epidemiological context of forecasting/predicting the occurrence of diseases, health outcomes, or other events of interest. As data collection expands into different scientific domains, such as brain imaging and genomic analysis, variables are related by complex, possibly non-linear dependencies, along with high degrees of correlation. As a result, popular models such as linear and tree-based techniques are no longer effective in such high-dimensional settings. Powerful non-linear machine learning algorithms, such as Random Forests (RFs) and Deep Neural Networks (DNNs), have become important tools for characterizing inter-individual differences and predicting biomedical outcomes, such as brain age. Explaining the decision process of machine learning algorithms is crucial both to improve the performance of a model and to aid human understanding. This can be achieved by assessing the importance of variables. Traditionally, scientists have favored simple, transparent models such as linear regression, where the importance of variables can be easily measured by coefficients. However, with the use of more advanced methods, direct access to the internal structure has become limited and/or uninterpretable from a human perspective. As a result, these methods are often referred to as "black box" methods. Standard approaches based on Permutation Importance (PI) assess the importance of a variable by measuring the decrease in the loss score when the variable of interest is replaced by its permuted version. While these approaches increase the transparency of black box models and provide statistical validity, they can produce unreliable importance assessments when variables are correlated.The goal of this work is to overcome the limitations of standard permutation importance by integrating conditional schemes. Therefore, we investigate two model-agnostic frameworks, Conditional Permutation Importance (CPI) and Block-Based Conditional Permutation Importance (BCPI), which effectively account for correlations between covariates and overcome the limitations of PI. We present two new algorithms designed to handle situations with correlated variables, whether grouped or ungrouped. Our theoretical and empirical results show that CPI provides computationally efficient and theoretically sound methods for evaluating individual variables. The CPI framework guarantees type-I error control and produces a concise selection of significant variables in large datasets.BCPI presents a strategy for managing both individual and grouped variables. It integrates statistical clustering and uses prior knowledge of grouping to adapt the DNN architecture using stacking techniques. This framework is robust and maintains type-I error control even in scenarios with highly correlated groups of variables. It performs well on various benchmarks. Empirical evaluations of our methods on several biomedical datasets showed good face validity. Our methods have also been applied to multimodal brain data in addition to socio-demographics, paving the way for new discoveries and advances in the targeted areas. The CPI and BCPI frameworks are proposed as replacements for conventional permutation-based methods. They provide improved interpretability and reliability in estimating variable importance for high-performance machine learning models
APA, Harvard, Vancouver, ISO, and other styles
30

Dojat, Michel. "Contribution à la représentation d'expertises médicales dynamiques : Application en réanimation médicale." Compiègne, 1994. http://www.theses.fr/1994COMPD747.

Full text
Abstract:
Pour la représentation d'expertises médicales dynamiques, nous avons approfondi deux mécanismes d'abstractions temporelles: l'agrégation et l'oubli d'informations. Ils permettent de raisonner en temps réel sur des informations évolutives. La distribution, entre agents autonomes et asynchrones, des compétences utiles à l'élaboration du raisonnement médical a été étudiée. Nous avons construit NéoGanesh, un système de monitorage intelligent des patients en situation de détresse respiratoire. Il intègre un modèle distribué de raisonnement et une représentation explicite de la composante temporelle. NéoGanesh est basé sur la représentation des connaissances de réanimateurs. Il interprète en temps réel des signaux physiologiques, module l'assistance respiratoire fournie au patient par un respirateur, développe une stratégie thérapeutique pour rééduquer les muscles respiratoires du malade et propose un diagnostic sur les capacités du patient à respirer seul. L'environnement de représentation des connaissances utilisé, NéOpus, qui fusionne objets et règles de production, confère au système des qualités intéressantes d'extensibilité et de réutilisation des connaissances représentées. Une évaluation clinique du système conçu a été réalisée à l'hôpital Henri Mondor (Créteil). Les résultats obtenus montrent l'intérêt clinique du système pour la surveillance des patients et le bien-fondé des choix effectués
To represent dynamic medical expertise we studied two mechanisms for temporal abstractions : aggregation of similar observed situations and forgetting non relevant information. These mechanisms allow clinical observations to be incrementally interpreted in real-time. Knowledge distribution between autonomous and asynchronous agents was investigated. We built NéoGanesh, a closed-Ioop knowledge-based system used for ventilator management. NéoGanesh integrates a distributed model of medical reasoning and an explicit representation of time. The system is based on the representation of physicians expertise. It interprets clinical data in real-time and controls the mechanical assistance provided to a patient who suffers from a lung disease. NéoGanesh develops a therapeutic strategy to gradually reeducate the respiratory muscles of the patient, and evaluates his capacity to breathe without mechanical assistance. Our representation paradigm based on object-orientation and production rules facilitates extension, refinement and reuse of knowledge bases. A clinical evaluation of NéoGanesh was performed at Henri Mondor Hospital (Créteil, France). The results show the clinical interest of such a system for patient monitoring and the relevance of the selected models and knowledge representation choices
APA, Harvard, Vancouver, ISO, and other styles
31

Jeanpierre, Laurent. "Apprentissage et adaptation pour la modélisation stochastique de systèmes dynamiques réels." Nancy 1, 2002. http://docnum.univ-lorraine.fr/public/SCD_T_2002_0246_JEANPIERRE.pdf.

Full text
Abstract:
L'application concrète des algorithmes de l'intelligence artificielle est intéressante, car les contraintes fortes mettent rapidement en relief les failles des algorithmes. J'étudie en particulier le problème du diagnostic médical et de la navigation d'un robot, où l'alliance des modèles de Markov aux ensembles flous fournit en un système performant et intuitif. La coopération avec les médecins est facilitée par un apprentissage de diagnostic qui permet de corriger le résultat du système afin d'adapter le modèle tout en respectant des contraintes numériques. Un médecin peut donc modifier le modèle de façon cohérente, sans régler chaque paramètre manuellement. Je montre enfin que l'approche peut se généraliser à de nombreux problèmes. Cela a amené la réalisation d'une interface de conception visuelle qui permet de relier simplement des objets entre eux pour obtenir le calcul désiré. Cela aidera donc au développement de nouvelles applications, tout en réduisant le travail des chercheurs
The exploitation of Artificial Intelligence algorithms in real conditions is an interesting method for their improvement, since weaknesses are shown very quickly thanks to real, uncontrolled constraints. In particular, I study two problems of medical diagnosis and a classical problem of robot navigation. Using fuzzy sets with Markov models provide an intuitive but powerful system to solve such situations. Then, I introduce diagnosis learning which betters the cooperation with doctors, as it allows correcting the model while ensuring numerical stability. Thus, doctors can modify the patient model without setting each parameter manually. Finally, I show this approach can be generalized to a whole class of diagnosis problems. To achieve this goal, I show an integrated development environment that allows to simply link modules altogether to have a given problem solved. This should help creating new applications, while minimizing the programming time of researchers
APA, Harvard, Vancouver, ISO, and other styles
32

Aegerter, Philippe. "Consult-eao : étude et réalisation d'un système expert d'aide à l'enseignement de la médecine : application aux pays en développement." Compiègne, 1988. http://www.theses.fr/1988COMPD116.

Full text
Abstract:
Cette thèse décrit un système intelligent de formation assistée par ordinateur, destiné aux travailleurs de santé des pays en développement. Ce système baptisé Consult-Eao, dispense un enseignement par simulation de cas. L'étudiant doit, en posant des questions pertinentes, résoudre le problème diagnostique et thérapeutique d'un malade que lui présente le système. Consult-Eao comprend un module expert, qui résout le cas en parallèle avec l'étudiant afin de le guider. Ce module dispose d'une base de connaissances sur le domaine : la médecine des pays en développement, qui utilise une représentation par cadres sémantiques. La stratégie de résolution est représentée par des métarègles. Un module pédagogue est responsable du dialogue avec l'étudiant et valide un modèle de l'étudiant. Ainsi, le système, qui génère de façon autonome et adaptée des cas de simulation, peut assurer un suivi pédagogique
This thesis describes an intelligent computer assisted instruction system, designed for rural health workers in developing countries. This system, called Consult-Eao, provides a case simulation teaching. By asking questions he thinks relevant, the student has to solve the diagnostic and therapeutic problem of the patient displayed by the system. Consult-Eao includes an expert system which solves the case besides the student in order to guide him. This module includes a knowledge base of the domain : medicine in developing countries, which is represented by frames. The reasoning strategy is represented by meta-rules. A pedagogical module is in charge of the student and updates a student model. Thus the system, which can generate autonomously adapted cases, is able to perform a pedagogical monitoring of the student
APA, Harvard, Vancouver, ISO, and other styles
33

Dujols, Pierre. "Analyse des énoncés médicaux en langage naturel : vers un prototype d'indexation automatique." Montpellier 2, 1990. http://www.theses.fr/1990MON20008.

Full text
Abstract:
Le traitement automatique de donnees medicales en langue naturelle pose probleme face aux deficiences epistemologiques du domaine et aux caracteres particuliers de ses enonces mais represente une opportunite epidemiologique. L'auteur propose, a partir d'une analyse critique des bases de connaissances medicales et des aspects linguistiques des ecrits medicaux, un prototype d'indexation automatique fonde sur des procedures morpho-syntactico-semantiques et des methodes de traitement de la paraphrase avec un accent particulier sur les regles de composition des mots
APA, Harvard, Vancouver, ISO, and other styles
34

Braham, Najoua. "Organisation d'un système de simulation de cas autour d'un système expert en hématologie." Compiègne, 1986. http://www.theses.fr/1986COMPS144.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Arantes, Júnior Wilmondes Manzi de. "P. A. S. Pluggable Alert System : un système pour la génération et l'affichage d'alertes médicales adaptées à l'utilisateur." Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0025/these.pdf.

Full text
Abstract:
Ce travail concerne la conception et le développement d’un système de détection d’alertes médicales adaptables au contexte de consultation dans le cadre des réseaux de soins. Ces alertes sont créées à l’aide de variables linguistiques associées à des niveaux d’importance (alerte si âge = âgé; important et température = très-chaud; très-important) et dont les rapports d’influence (le poids dépend de l’âge) sont modélisés par un graphe orienté pondéré. Chaque alerte déclenchée présente deux indices de qualité – dits d’applicabilité et de confiance – qui indiquent dans quelle mesure le patient est concerné et jusqu’à quel point elle est digne de confiance. Notre système est aussi capable de traiter de façon transparente les informations manquantes en s’appuyant sur une base historique utilisée pour prédire le valeurs inconnues. Au niveau de l’affichage, un module multi-agents se charge d’adapter les alertes déclenchées au contexte, qui est représenté, entre autres, par les caractéristiques du professionnel de santé, le dispositif d’affichage et l’urgence. L’adaptation est alors menée par trois agents intelligents – le patient, le médecin et l’alerte – qui négocient sur la qualité requise pour chaque dimension de l’interface finale : le contenu, le graphisme et la sécurité. Ensuite, des appels d’offre correspondants sont diffusés dans trois sociétés d’agents de service exécuteurs de tâches qui représentant ces trois dimensions et ceux qui les gagnants collaborent pour construire l’interface de l’alerte. Finalement, les tests réalisés sur le module de détection – qui fera l’objet d’un dépôt de brevet – se sont montrés très satisfaisants
We propose a system that is able to detect and trigger user-defined medical alerts in the context of healthcare networks. Such alerts are created by using fuzzy linguistic variables associated with importance levels (e. G. Alert if age = elderly; important and air-temperature = very-hot; very-important) and whose dependency relationships (e. G. The weight depends on the age) are modeled through a weighted oriented graph. Each alert the system triggers has two quality indicators – an applicability level and a trust level – which state to which extent the patient is concerned and how reliable it is. Our system is also able to transparently infer missing information by using an historical database containing previously reported similar cases. Finally, a multi-agents display module adapts each alert to the context, which is represented by the patient (elderly, etc. ), the healthcare user (physician, etc. ), the display device (PC, PDA, etc. ), the place (hospital, etc. ) and the urgency of the alert itself (very urgent, etc. ). The adaptation process is controlled by three intelligent agents – the patient, the physician and the alert – which negotiate to agree on the min-max quality levels required for the three dimensions of display: contents (information that will be shown), graphics (graphic components that will be used) and security (protection mechanisms to use). Then, the corresponding task announcements are broadcasted within three societies of reactive agents (which have not cognitive capabilities and simply perform tasks) representing these dimensions and the winning ones collaborate to build the interface of the alert. The final system will be integrated into the hospital information system provided by the company that has sponsored my research and will be patented as soon as possible
APA, Harvard, Vancouver, ISO, and other styles
36

Bonnet, Christine. "Simulation dans un contexte rééducationnel : Acquisition des éléments de l'environnement de simulation et analyse des interactions de l'utilisateur." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0056.

Full text
Abstract:
L'automatisation de la rééducation de la mémoire par une approche écologique nécessite l'intégration de techniques d' Intelligence Artificielle de Gestion de Données de Simulation et d~Animation Interactives à travers des environnements conviviaux Ces techniques ont été mises en œuvre dans un système, innovant en matière de rééducation informatisée de la mémoire : le système REMISSION (rééducation écologique de la Mémoire par un système de SimulatiON). Les éléments de l'environnement de simulation et des stratégies rééducatives y sont modélisés dans le formalisme d'objet et de règle, ce dernier permettant d'assurer en partie, la gestion des événements externes (actions sur l'environnement) et internes (actions du système). Les apports de ces représentations à la simulation sont exposés dans ce travail. Ces éléments sont introduits dans le système via un langage descriptif, construit pour répondre aux besoins suscités par l'intégration d'outils et dans le but de faciliter l'expression des connaissances. Le système fait coopérer un composant graphique (gestion, au niveau graphique, des objets et des événements, gestion du temps) et un composant décisionnel (partie "intelligente" :mise en œuvre de la rééducation). L'évaluation des actions du patient est réalisée n comparant les solutions du patient et du système qui propose des corrections personnalisées sous forme d'animations commentées
The automation of memory re-education fallowing an ecological approach requires integration of : *Artificial Intelligence techniques ( use of an Expert system shell : Nexpert Object), *Data Management (use -of a Relational Database Management System : Oracle), * and Interactive Simulation and Animation techniques (use of a graphical software Package : Data Views). Acquiring Knowledge needs to set up user friendly environments, thus allowing the neuropsychologists to unput in the system the elements of the re-education. We implemented all these techniques in a system, which innovates in computerized memory re-education : the REMISSION system (Rééduçation Ecologique de a Mémoire un Système de Simulation). The elements of both the simulation environment and the re-educational strategies are modeled with the objects and rules concepts. Elements are introduced in the system via a descriptive language, aimed at making the knowledge expression easier. A graphical component (which manages, the objects, the events and the time) and a deductive one cooperate in the system. The evaluation of the patient's. Actions is carried out by mappings of patient's and system's solutions
APA, Harvard, Vancouver, ISO, and other styles
37

Mobarek, Iyad. "Conception d'un système national des équipements médicaux automatiques pour améliorer la performance et réduire les coûts d'investissements et d'exploitations des dispositifs médicaux." Compiègne, 2006. http://www.theses.fr/2006COMP1623.

Full text
Abstract:
Cette thèse décrit les différentes phases de développement, de mise en application et d'évaluation d'un système des équipements médicaux (CES) pour la Jordanie. Ceci inclut le développement et l'automatisation de la gestion et du traitement de toutes les informations techniques liées aux dispositifs médicaux dans 29 hôpitaux, 685 centres de santé, 332 cliniques dentaires, 348 maternités et 23 banques de sang. A chaque équipement médical a été assigné un code d'identité qui peut être repéré par un système de balayage de code barres. Dans la même optique, des codes d'identification ont été attribués à tous les autres éléments impliqués: tels les hôpitaux, le personnel, les pièces de rechange, les ateliers, etc. Le CES entièrement automatisé représente un système puissant; implémenté sur l'ensemble des plateformes du réseau couvrant différents sites de la direction de la technologie biomédicale (DBE) du ministère de la santé partout dans le pays, il constitue le premier CES complet à mettre en application au niveau national un système automatisé qui peut lire et produire des rapports en anglais ou en arabe. Comparé aux standards internationaux, le CES développé a augmenté la capacité d'utilisation des équipements médicaux concernant leur disponibilité (en temps de bon fonctionnement) jusqu'aux meilleurs niveaux internationaux disponibles à des coûts extrêmement bas. Le système complet s'est avéré être un outil utile pour contrôler, commander et extraire tous les éléments des dispositifs médicaux dans le CES considéré. Le système a été évalué et considéré comme fiable, efficace et unique comparés aux systèmes internationalement disponibles et il représente un modèle réussi pour d'autres pays
This thesis describes the different phases of developing, implementing and evaluating a unique Clinical Engineering System (CES) based on Jordan. This includes establishing and then automating ail technical issues and information related to medical equipment in 29 hospitals, 685 health centers, 332 dental clinics, 348 pediatric and mother care clinics and 23 blood banks. Every medical equipment was assigned an identity code that can be recognized through a bar code scanning system and similarly ail other involved parameters like hospitals, personnel, spare parts, workshops. . . Etc. Are also coded comprehensively. The fully automated CES presents a powerful system; implemented over network covering different locations of the Directorate of Biomedical Engineering (DBE) at Ministry Of Heath ail over the country, presenting the first Comprehensive CES to be implemented on the national level and the automated system can read and report in both Arabic and English languages. Compared to international figures the developed clinical engineering system has enhanced the performance of medical equipment including its availability (uptime) up to the best available international levels at extremely low cost. The complete system proved to be invaluable tool to manage, control and report all different parameters concerning medical equipment in the considered clinical engineering system. The System was evaluated and found to be reliable, effective and unique compared to internationally available systems and it presents a. Successful model for other countries
APA, Harvard, Vancouver, ISO, and other styles
38

Hamdi, Takoua. "Analyse de l'évolution de la glycémie des patients diabétiques insulinodépendants." Electronic Thesis or Diss., Toulon, 2019. http://www.theses.fr/2019TOUL0004.

Full text
Abstract:
L'objectif principal de cette thèse est d'aider le diabète de type 1 (DTl) à contrôler et stabiliser son taux de glycémie. Pour cela, une analyse de l'évolution de la glycémie est nécessaire, ensuite et après l'enregistrement des valeurs de la glycémie à l'aide des CGM, une bonne méthode de prédiction de la glycémie est indispensable pour que le patient puisse ajuster la dose d'insuline injecté sur la base de ces valeurs prédites. Dans ce cadre, nous avons focalisé dans le premier chapitre une étude sur le principe de la régulation de la glycémie, dont nous avons présenté l'homéostasie glycémique, l'évolution de la glycémie, les organes responsables dans la régulation de la glycémie, et les ensembles des mécanismes pour la régulation de la glycémie. Ainsi, pour mieux comprendre le diabète, nous avons présenté des généralités sur le diabète : histoire du diabète, répartition du diabète dans le monde, les types de diabète et la différence entre eux, les moyens de traitement du diabète de type 1 et les matériels techniques utilisés pour la gestion du diabète.Dans le deuxième chapitre, nous avons étudié l'évolution de la glycémie, de ce fait nous avons montré que la glycémie a un aspect chaotique. Par conséquent, la glycémie est imprédictible à long terme, dont la limite de prédictibilité est presque égale à 45 minutes. Le troisième chapitre a été une continuation du travail présenté dans le chapitre précédant. En effet, après la détermination de la limite de prédictibilité, nous étudions les approches de prédiction de la glycémie. En effet, une vaste recherche bibliographique a été lancée sur les tous les méthodes de prédiction de la glycémie dont on a les méthodes mathématiques et les méthodes d'intelligence artificielle. Dans ce travail, deux approches de prédiction de la glycémie ont été proposées. La première approche est une nouvelle ANN adaptative. En effet, en optimisant l'architecture des ANN pour chaque patient. La précision des ANN proposées est discutée sur la base de certains critères statistiques tels que RMSE et MAPE. La moyenne obtenue de RMSE est de 6,43 mg/ dL, et la moyenne de MAPE est de 3,87 % pour un Horizon de Prédiction HP = 15 min. En comparant avec les autres modèles techniques établies dans la littérature, la méthode proposée présente plusieurs avantages tels que la précision et l'adaptabilité. Ainsi, les expériences montrent lacapacité des ANN proposés pour une meilleure prédiction du niveau de la glycémie. La deuxième approche est un SVR pondéré basé sur l'algorithme DE, la moyenne obtenue de RMSE était de 9,44 mg/ dL pour un HP égal à 15 min. Une comparaison avec les techniques établies dans la littérature montre que la méthode proposée présente de nombreux avantages tels que la précision, l'adaptabilité et la facilité de mise en pratique. Selon les résultats expérimentaux, la combinaison proposée de l'algorithme d'optimisation SVR avec DE présente une meilleure précision de prédiction grâce à son efficacité dans la modélisation de séries de données non linéaires et complexes
The main goal of this thesis is to help type 1 diabetes (T1 D) contrai and stabilize blood sugar levels. Fo this, an analysis of the evolution of the blood glucose is necessary, then and after the recording of the blood glucose values using the CGM, a good method of predicting the glycemia is essential for the patient to adjust the blood sugar. dose of insulin injected on the basis of these predicted values. ln this context, we focused in the first chapter a study on the principle of the regulation of blood glucose, which we have presented glycemic homeostasis, the evolution of blood glucose, the organs responsible for the regulation of blood glucose, and sets of mechanisms for the regulation of blood glucose. Thus, to better understand diabetes, we presented generalities on diabetes: history of diabetes, distribution of diabetes in the world, types of diabetes and the difference between them, the means of treatment of type 1 diabetes and materials techniques used for the management of diabetes. ln the second chapter, we studied the evolution of blood glucose, so we showed that blood glucose has a chaotic appearance. As a result, blood glucose is unpredictable in the long term, with a predictability limit of almost 45 minutes. The third chapter was a continuation of the work presented in the preceding chapter. lndeed, after determining the predictability limit, we study the approaches to predict glucose levels. lndeed, a vast bibliographie researc has been launched on ail the methods of prediction of the glycemia of which one has the mathematical methods and the methods of artificial intelligence. ln this work, two approaches to predicting blood glucose have been proposed. The first approach is a new adaptive ANN. lndeed, by optimizing the ANN architecture f each patient. The precision of the proposed ANNs is discussed on the basis of certain statistical criteria such as RMSE and MAPE. The average obtained of RMSE is 6.43 mg / dl, and the average of MAPE is of 3.87% for a Horizon of Prediction HP= 15 min. Comparing with other technical models established in the literature, the proposed method has several advantages such as accuracy and adaptability. Thus, the experiments show the capacity of the proposed ANNs for a better prediction of the level of the glycemia. The second approach is a weighted SVR based on the DE algorithm, the average obtained from RMSE was 9.44 mg/ dl for an HP equal to 15 min. A comparison with the techniques established in the literature shows that the proposed method has many advantages such as precision, adaptability and ease of application. Base on the experimental results, the proposed combination of the SVR optimization algorithm with DE has im roved rediction accurac due to its efficienc in modelin nonlinear and corn lex data sets
APA, Harvard, Vancouver, ISO, and other styles
39

Wacquant, Sylvie. "Contribution à l'étude d'un modèle de réseaux d'automates corticaux : principes & outils logiciels." Rouen, 1993. http://www.theses.fr/1993ROUES063.

Full text
Abstract:
La transposition des problèmes-jouets de laboratoire aux applications industrielles a montré les limites de l'emploi d'un modèle connexionniste isolé comme solution polyvalente. En dépit de résultats plus convaincants, l'intégration de ces modèles dans des systèmes de pré- ou post-traitements, élaborés avec les outils des sciences de l'ingénieur, s'avère encore insuffisante. Dans ce contexte, l'emploi de solutions hybrides, au sein même des architectures neuronales, semble plus fructueux. La gestion de systèmes multi-réseaux pose cependant des difficultés liées à la compatibilité structurelle, à l'harmonisation des fonctions, à la mise en place de coopérations, etc. Cette thèse propose les fondements d'une structure d'accueil permettant la création de telles architectures. Elle se place dans la continuité de travaux basés sur un modèle d'inspiration neurobiologique du cortex cérébral et situés entre les approches bas niveaux et cognitivistes. Après avoir montré l'intérêt d'une meilleure prise en compte de la compréhension du vivant pour la réalisation de dispositifs artificiels, elle décrit un cadre formel associant un certain nombre de concepts (hiérarchie, connectivité, plasticité,. . . ) Susceptibles de conduire à l'élaboration incrémentale de réseaux complexes. L'exposé se poursuit par la présentation d'outils informatiques flexibles, adaptés à l'étude du modèle cortical ainsi qu'à son enseignement et facilitant la conception de ces méta-systèmes. Quelques exemples illustrent ensuite les attraits pluridisciplinaires de ces outils et mettent en évidence les gains apportés aux temps de développement. Enfin, la dernière partie de cette thèse soulève le problème de l'accélération des simulations et considère des solutions à court ou moyen terme, permettant la réalisation d'applications temps réel
APA, Harvard, Vancouver, ISO, and other styles
40

Gal, Jocelyn. "Application d’algorithmes de machine learning pour l’exploitation de données omiques en oncologie." Electronic Thesis or Diss., Université Côte d'Azur (ComUE), 2019. http://theses.univ-cotedazur.fr/2019AZUR6026.

Full text
Abstract:
Le développement de l’informatique en médecine et en biologie a permis de générer un grand volume de données. La complexité et la quantité d’informations à intégrer lors d’une prise de décision médicale ont largement dépassé les capacités humaines. Ces informations comprennent des variables démographiques, cliniques ou radiologiques mais également des variables biologiques et en particulier omiques (génomique, protéomique, transcriptomique et métabolomique) caractérisées par un grand nombre de variables mesurées relativement au faible nombre de patients. Leur analyse représente un véritable défi dans la mesure où elles sont fréquemment « bruitées » et associées à des situations de multi-colinéarité. De nos jours, la puissance de calcul permet d'identifier des modèles cliniquement pertinents parmi cet ensemble de données en utilisant des algorithmes d’apprentissage automatique. A travers cette thèse, notre objectif est d’appliquer des méthodes d’apprentissage supervisé et non supervisé, à des données biologiques de grande dimension, dans le but de participer à l’optimisation de la classification et de la prise en charge thérapeutique des patients atteints de cancers. La première partie de ce travail consiste à appliquer une méthode d’apprentissage supervisé à des données d’immunogénétique germinale pour prédire l’efficacité thérapeutique et la toxicité d’un traitement par inhibiteur de point de contrôle immunitaire. La deuxième partie compare différentes méthodes d’apprentissage non supervisé permettant d’évaluer l’apport de la métabolomique dans le diagnostic et la prise en charge des cancers du sein en situation adjuvante. Enfin la troisième partie de ce travail a pour but d’exposer l’apport que peuvent présenter les essais thérapeutiques simulés en recherche biomédicale. L’application des méthodes d’apprentissage automatique en oncologie offre de nouvelles perspectives aux cliniciens leur permettant ainsi de poser des diagnostics plus rapidement et plus précisément, ou encore d’optimiser la prise en charge thérapeutique en termes d’efficacité et de toxicité
The development of computer science in medicine and biology has generated a large volume of data. The complexity and the amount of information to be integrated for optimal decision-making in medicine have largely exceeded human capacities. These data includes demographic, clinical and radiological variables, but also biological variables and particularly omics (genomics, proteomics, transcriptomics and metabolomics) characterized by a large number of measured variables relatively to a generally small number of patients. Their analysis represents a real challenge as they are frequently "noisy" and associated with situations of multi-colinearity. Nowadays, computational power makes it possible to identify clinically relevant models within these sets of data by using machine learning algorithms. Through this thesis, our goal is to apply supervised and unsupervised learning methods, to large biological data, in order to participate in the optimization of the classification and therapeutic management of patients with various types of cancer. In the first part of this work a supervised learning method is applied to germline immunogenetic data to predict the efficacy and toxicity of immune checkpoint inhibitor therapy. In the second part, different unsupervised learning methods are compared to evaluate the contribution of metabolomics in the diagnosis and management of breast cancer. Finally, the third part of this work aims to expose the contribution that simulated therapeutic trials can make in biomedical research. The application of machine learning methods in oncology offers new perspectives to clinicians allowing them to make diagnostics faster and more accurately, or to optimize therapeutic management in terms of efficacy and toxicity
APA, Harvard, Vancouver, ISO, and other styles
41

Rebaud, Louis. "Whole-body / total-body biomarkers in PET imaging." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST047.

Full text
Abstract:
Cette thèse, réalisée en partenariat avec l'Institut Curie et Siemens Healthineers, explore l'utilisation de l'imagerie par tomographie par émission de positrons (TEP) pour le pronostic du cancer, en se concentrant sur les lymphomes non hodgkiniens, en particulier le lymphome folliculaire (FL) et le lymphome diffus à grandes cellules B (DLBCL). Partant de l'hypothèse que les biomarqueurs actuels calculés dans les images TEP sous-utilisent leur richesse en informations, ce travail se concentre sur la recherche de nouveaux biomarqueurs en imagerie TEP corps entier. Une première approche manuelle a permis de valider une caractéristique précédemment identifiée (fragmentation de la tumeur) et d'explorer l'importance pronostique de l'atteinte splénique dans les DLBCL, en constatant que le volume de l'atteinte splénique ne permet pas de stratifier davantage les patients présentant une telle atteinte. Pour dépasser les limites empiriques de la recherche manuelle, une méthode d'identification semi-automatique des caractéristiques a été mise au point. Elle consiste à extraire automatiquement des milliers de biomarqueurs candidats et à les tester à l'aide d'un pipeline de sélection conçu pour trouver des caractéristiques quantifiant de nouvelles informations pronostiques. Les biomarqueurs sélectionnés ont ensuite été analysés et recodés de manière plus simple et plus intuitive. Cette approche a permis d'identifier 22 nouveaux biomarqueurs basés sur l'image, qui reflètent des informations biologiques sur les tumeurs, mais aussi l'état de santé général du patient. Parmi eux, 10 caractéristiques se sont avérées pronostiques à la fois pour les patients atteints de FL que pour ceux souffrant de DLBCL. La thèse aborde également le défi que représente l'utilisation de ces caractéristiques dans la pratique clinique, en proposant le modèle ICARE (Individual Coefficient Approximation for Risk Estimation). Ce modèle d'apprentissage automatique, conçu pour réduire le surapprentissage et améliorer la généralisation, a démontré son efficacité dans le cadre du challenge HECKTOR 2022 visant à prédire le risque de rechute de patients atteints de cancer des voies aérodigestives supérieures à partir de leurs images TEP. Ce modèle s'est également avéré plus résistant au surapprentissage que d'autres méthodes d'apprentissage automatique lors d'une comparaison exhaustive sur un benchmark de 71 jeux de données médicales. Ces développements ont été implémentés dans une extension logicielle d'un prototype développé par Siemens Healthineers
This thesis in partnership with Institut Curie and Siemens Healthineers explores the use of Positron Emission Tomography (PET) for cancer prognosis, focusing on non-Hodgkin lymphomas, especially follicular lymphoma (FL) and diffuse large B cell lymphoma (DLBCL). Assuming that current biomarkers computed in PET images overlook significant information, this work focuses on the search for new biomarkers in whole-body PET imaging. An initial manual approach validated a previously identified feature (tumor fragmentation) and explored the prognostic significance of splenic involvement in DLBCL, finding that the volume of splenic involvement does not further stratify patients with such an involvement. To overcome the empirical limitations of the manual search, a semi-automatic feature identification method was developed. It consisted in the automatic extraction of thousands of candidate biomarkers and there subsequent testing by a selection pipeline design to identify features quantifying new prognostic information. The selected biomarkers were then analysed and re-encoded in simpler and more intuitive ways. Using this approach, 22 new image-based biomarkers were identified, reflecting biological information about the tumours, but also the overall health status of the patient. Among them, 10 features were found prognostic of both FL and DLBCL patient outcome. The thesis also addresses the challenge of using these features in clinical practice, proposing the Individual Coefficient Approximation for Risk Estimation (ICARE) model. This machine learning model, designed to reduce overfitting and improve generalizability, demonstrated effectiveness in the HECKTOR 2022 challenge for predicting outcomes from head and neck cancer patients [18F]-PET/CT scans. This model was also found to overfit less than other machine learning methods on an exhaustive comparison using a benchmark of 71 medical datasets. All these developments were implemented in a software extension of a prototype developed by Siemens Healthineers
APA, Harvard, Vancouver, ISO, and other styles
42

Demuth, Stanislas. "Computational approach for precision medicine in multiple sclerosis." Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAJ062.

Full text
Abstract:
Cette thèse a exploré l'utilisation secondaire des données de recherche clinique en sclérose en plaques (SEP) et leur intégration avec les technologies modernes de l'information pour assister les décisions thérapeutiques des neurologues. Les données tabulaires de 31,786 patients atteints de SEP ont été intégrées dans une plateforme de médecine de précision développée par le laboratoire. Le logiciel d'aide à la décision clinique en résultant reposait sur la visualisation de données interactive. Sa capacité discriminante fut similaire à l’apprentissage automatique mais eu une meilleure explicabilité et calibration dans une population externe suivie en vie réelle. Une formation dédiée des neurologues apparu nécessaire. Les obstacles réglementaires furent adressés en générant des patients virtuels par une méthode de confidentialité par conception. Leur confidentialité et leur utilité clinique furent suffisantes pour remplacer les données de référence. Ces travaux translationnels ont démontré l’utilité clinique de plusieurs processus d'ingénierie des données, permettant de développer un nouveau paradigme de médecine de précision dans la SEP
This PhD work explored the secondary use of clinical research data in multiple sclerosis (MS) and their integration with modern information technology to support neurologists’ therapeutic decisions. Tabular data of 31,786 patients with MS were integrated into a homemade cloud-based precision medicine platform from 11 industrial RCTs and two cohorts of the French MS registry. The resulting clinical decision support system relied on interactive data visualization. It showed a similar discriminatory capacity to machine learning but better explainability and calibration in a held-out real-world population. Dedicated training of neurologists appeared required. Regulatory barriers were addressed by generating virtual patients using a privacy-by-design method. They achieved sufficient privacy and clinical utility to proxy the reference data. These translational efforts demonstrated the clinical utility of several data engineering processes to develop a new paradigm of precision medicine in MS
APA, Harvard, Vancouver, ISO, and other styles
43

Zhao, Xin. "Development of an intelligent garment integrating physiological sensors and a decision making system : applied to the online human well-being monitoring." Thesis, Lille, 2020. https://pepite-depot.univ-lille.fr/LIBRE/EDSPI/2020/2020LILUI076.pdf.

Full text
Abstract:
Les mouvements fœtaux sont un indicateur significatif de l'état de santé du fœtus. La diminution ou l'arrêt des mouvements du fœtus perçus par la mère peuvent être des signes précurseurs que le développement fœtal nécessite une surveillance accrue. En pratique, la perception maternelle de la diminution des mouvements fœtaux aide à déterminer le moment optimal pour l'accouchement, surtout dans les cas de grossesses à risque. Cependant, le dénombrement des mouvements fœtaux par la mère souffre d'imprécision et de subjectivité en raison des habitudes, des activités et des périodes de veille et de repos de chaque mère. Cela conduit généralement à une inquiétude et une anxiété inutiles pour la mère. A contrario, la technologie basée sur l'échographie peut être utilisée pour une surveillance précise et fiable des mouvements du fœtus. Cependant, des inquiétudes ont été exprimées dans la littérature concernant l'exposition prolongée et intense aux ultrasons, ce qui pourrait avoir des effets négatifs. En outre, leur usage nécessite un environnement en milieu hospitalier, parfois éloigné du cadre de vie, une immobilisation de la mère et des personnels formés pour la manipulation.Dans cette étude, nous présentons un nouveau vêtement intelligent pour la surveillance en ligne des mouvements du fœtus. Le système proposé est principalement composé de : 1) un vêtement soigneusement conçu pour améliorer le confort de la femme enceinte et garantir la qualité des signaux acquis, 2) un réseau de capteurs avec un système embarqué et communicant intégrés à des emplacements judicieux sur le vêtement et 3) une application mobile connecté au vêtement et faisant le lien avec le cloud auprès de professionnels de santé permettant à la mère de transmettre et visualiser en retour les informations importantes liées à la santé du fœtus. Ces travaux mettent en avant le développement d'outils algorithmiques d'aide à la décision locale pour un comptage en ligne et fiable des mouvements du fœtus basé sur les données des capteurs. Le système conçu et embarqué est connecté à distance à un système expert sur une plateforme de cloud computing avec lequel les cliniciens sont en mesure de poser un diagnostic avancé. Distincts des solutions portables existantes, le vêtement intelligent proposé dans cette étude prend pleinement en compte les problèmes liés à l'électronique / les signaux et à la conception du textile / vêtement. L'équilibre entre l'intelligence embarquée et celle du cloud a été pensé pour garantir une nette amélioration. Les résultats expérimentaux ont montré que le système proposé peut effectuer efficacement et automatiquement le comptage des mouvements du fœtus et a des applications potentielles pour offrir une solution innovante dans le domaine de la santé humaine, libérer les femmes enceintes et soulager les systèmes de santé pour une application au suivi du développement du fœtus. Cette recherche fournit des conseils pour l'application de la surveillance à distance de la santé en utilisant des wearables dans le domaine des soins prénatals
Fetal movements are one significant indicator of fetal health status. Reduction or discontinuation in fetal movements perceived by the mother could be a sign that fetal development requires enhanced monitoring. In practice, maternal perception of reduced fetal movements helps to determine the optimal time for delivery especially for high-risk pregnancy. However, fetal movement counting by the mother suffers from imprecision and subjectivity due to each mother's personal habits, customs and activity-rest periods, which usually leads to unnecessary concern and anxiety to the mother. Ultrasound-based technology, on the other hand, can be used for accurate and reliable monitoring of fetal movements. However, concerns have been expressed in the literature about the exceeded exposure of ultrasound, which could have a negative effect. Besides, it requires an in-hospital setting which can sometimes be far from the living environment, immobilization of the mother, and trained personnel to manipulate the device. In this study, we present a new garment-based wearable system for online monitoring of fetal movements. The proposed system is mainly composed of: 1) a garment carefully designed for enhancing pregnant women's comfort and guaranteeing the quality of measured signals, 2) a network of sensors/a communicating embedded system integrated into the right positions of the garment and 3) a mobile application connected to the garment and linking to the cloud with healthcare professionals allowing the mother to transmit and visualize in return the key information related to her baby's health. This work highlights the development of an embedded decision-making algorithm for online and reliable counting of fetal movement based on the sensor data. The proposed system is connected to a remote medical expert system on the cloud computing platform with which clinicians can make advanced medical diagnosis. Different from the existing wearable systems, both the electronic/signal issues and textile/garment design have been fully taken into account in the proposed intelligent garment, and a balance between the embedded intelligence and that of the cloud has been considered to guarantee an overall improvement. The experimental results has proved that the proposed system can effectively and automatically perform fetal movement counting, and has potential applications in offering an innovative solution in the field of human health, benefiting pregnant women, alleviating the burden on health systems for applications to the monitoring of fetal development.. This research provides guidance for the application of remote health monitoring by using wearable systems in antenatal care
APA, Harvard, Vancouver, ISO, and other styles
44

Molinet, Benjamin. "Génération et évaluation d'explications argumentatives en langage naturel appliquées au domaine médical." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4063.

Full text
Abstract:
L'Argument Mining, un domaine en pleine expansion du traitement automatique du langage naturel (TALN) et des modèles informatiques d'argumentation, vise à reconnaître automatiquement les structures d'argumentation (c'est-à-dire les composants et les relations) dans les ressources textuelles en langage naturel. Dans le domaine médicale, l'Argument Mining s'est avérée bénéfique en fournissant des méthodes pour détecter automatiquement les structures argumentatives afin de soutenir la médecine fondée sur des preuves. L'importance de ces approches repose sur le fait que, malgré la précision des modèles neuronaux dans la prédiction de diagnostic médical, l'explication de leurs résultats reste problématique. Cette thèse aborde cette question ouverte et se concentre sur la génération et l'évaluation d'explications argumentatives en langage naturel pour les prédictions de diagnostic, afin d'aider les cliniciens dans la prise de décision et l'apprentissage. Tout d'abord, j'ai proposé un nouveau pipeline complet pour générer automatiquement des explications en langage naturel d'examens (QCM) médicaux sur les diagnostics en s'appuyant sur une ontologie médicale et des entités cliniques à partir des textes d'examen. J'ai défini un système état de l'art de reconnaissance et de classification des entités médicales nommées (NERC) pour détecter les symptômes exprimés par les patients et les résultats médicaux que j'aligne sur les termes de l'ontologie afin de justifier le diagnostic d'un cas clinique fourni aux résidents en médecine. Le module NERC, appelé SYMEXP, permet à notre système de générer des explications argumentatives en langage naturel basées sur des templates afin de justifier pourquoi la bonne réponse est correcte et pourquoi les autres options proposées ne le sont pas. Deuxièmement, j'ai proposé un cadre d'évaluation des explications basées sur l'argumentation, appelé ABEXA, pour extraire automatiquement la structure argumentative d'un QCM médicale et mettre en évidence un ensemble de critères personnalisables pour caractériser l'explication clinique et l'argumentation du document. ABEXA aborde la question de l'évaluation des explications d'un point de vue argumentatif en définissant un ensemble de patterns sur un graphe argumentatif généré automatiquement. Troisièmement, j'ai contribué à la conception et au développement de la suite de logiciels ANTIDOTE, qui propose différents modules d'intelligence artificielle explicative guidée par l'argumentation pour la médecine. Notre système offre les fonctionnalités suivantes : analyse argumentative multilingue pour le domaine médical, explication, extraction et génération de diagnostics cliniques, modèles linguistiques multilingues pour le domaine médical, et le premier benchmark multilingue de QCM médicaux. En conclusion, dans cette thèse, j'explore comment l'intelligence artificielle combinée à la théorie de l'argumentation pourrait conduire à des systèmes de soins de santé plus transparents. Nous appliquons nos résultats au domaine critique de la médecine en montrant tout leur potentiel en termes de soutien à l'éducation, par exemple, des étudiants en médecine
Argument(ation) mining, a rapidly growing area of Natural Language Processing (NLP) and computational models of argument, aims at the automatic recognition of argument structures (i.e., components and relations) in natural language textual resources. In the healthcare domain, argument mining has proven beneficial in providing methods to automatically detect argumentative structures to support Evidence-Based Medicine (EBM). The importance of these approaches relies on the fact that, despite the accuracy of neural models in medical diagnosis, explanation of their outcomes remains problematic. The thesis tackles this open issue and focuses on generation and assessment of natural language argumentative explanations for diagnosis predictions, supporting clinicians in decision making and learning. First, I proposed a novel complete pipeline to automatically generate natural language explanations of medical question answering exams for diagnoses relying on a medical ontology and clinical entities from exam texts. I defined a state-of-the-art medical named entity recognition and classification (NERC) system to detect layperson symptoms and medical findings that I align to ontology terms so as to justify a diagnosis of a clinical case provided to medical residents. NERC module, called SYMEXP, allows our system to generate template-based natural language argumentative explanations to justify why the correct answer is correct and why the other proposed options are not. Second, I proposed an argument-based explanation assessment framework, called ABEXA, to automatically extract the argumentative structure of a medical question answering document and highlight a set of customisable criteria to characterise the clinical explanation and the document argumentation. ABEXA tackles the issue of explanation assessment from the argumentative viewpoint by defining a set of graph rules over an automatically generated argumentative graph. Third, I contributed to the design and development of the ANTIDOTE software tool, proposing different modules for argumentation-driven explainable Artificial Intelligence for digital medicine. Our system offers the following functionalities: multilingual argumentative analysis for the medical domain, explanation, extraction and generation of clinical diagnoses, multilingual large language models for the medical domain, and the first multilingual benchmark for medical question-answering. In conclusion, in this thesis, I explore how artificial intelligence combined with the argumentation theory could lead to more transparent healthcare systems. We apply our results to the critical domain of medicine showing all their potential in terms of support for education, for example, of clinical residents
APA, Harvard, Vancouver, ISO, and other styles
45

Lambert, Benjamin. "Quantification et caractérisation de l'incertitude de segmentation d'images médicales pardes réseaux profonds." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALS011.

Full text
Abstract:
Ces dernières années, les algorithmes d'intelligence artificielle ont démontré des performances exceptionnelles dans de nombreuses tâches, incluant la segmentation et classification d'images médicales. La segmentation automatique des lésions dans des IRMs du cerveau permet une quantification rapide de la progression de la maladie : un compte des nouvelles lésions, une mesure du volume lésionnel total et une description de la forme des lésions. Cette analyse peut ensuite être exploitée par le neuro-radiologue qui peut s'en servir pour adapter le traitement thérapeutique si nécessaire. Cela permet de rendre la décision médicale plus rapide et plus précise.Actuellement ces algorithmes, que l'on considère souvent comme des boîtes noires, produisent des prédictions sans aucune information concernant leur certitude. Cela empêche la pleine adoption des algorithmes d'intelligence artificielle dans les domaines sensibles, car ils ont en effet tendance à produire des erreurs avec une grande confiance, pouvant tromper les décideurs humains. Identifier et comprendre les causes de ces échecs est un élément clé pour maximiser l'utilité des algorithmes d'intelligence artificielle et permettre leur acceptation au sein du corps médical. Pour atteindre ce but, il est important de pouvoir distinguer entre les deux principales sources d'incertitude. Tout d'abord, l'incertitude aléatoire, qui correspond à l'incertitude liée au bruit intrinsèque de l'image, et les artefacts d'acquisition. Ensuite, l'incertitude épistémique, qui a attrait au manque de connaissance du modèle.L'objectif conjoint de Pixyl et du GIN est d'atteindre une meilleure identification des sources d'incertitude dans les réseaux de neurones profonds, et par conséquent développer de nouvelles méthodes pour estimer cette incertitude dans le cadre d'une utilisation clinique routinière et en temps réel.Dans le cadre de la segmentation d’images médicales, l’estimation de l’incertitude est pertinente à plusieurs échelles. Tout d’abord, à l’échelle du voxel, l’incertitude peut être quantifiée par le biais de cartes d’incertitude. Cela permet de superposer l’image, sa segmentation et la carte d’incertitude pour visualiser les régions incertaines. Ensuite, pour les pathologies comme la Sclérose-en-Plaques, l’attention du radiologue se situe à l’échelle de la lésion plutôt que du voxel. L’estimation d’incertitude structurelle, c’est-à-dire à l’échelle de la lésion, permet au radiologue de rapidement contrôler les lésions incertaines qui peuvent être des faux positifs. Troisièmement, des métriques haut-niveau comme le volume ou le nombre de lésions sont couramment extraites des segmentations. Être capable d’associer à ces métriques des intervalles prédictifs est important pour que le clinicien puisse prendre en compte cette incertitude dans son analyse. Pour finir, l’incertain peut être quantifiée à l’échelle de l’image entière, par exemple pour détecter les images hors-distributions qui présentent une anomalie importante pouvant biaiser leur analyse.Dans cette thèse, des outils de quantification d’incertitude opérant à chacun de ces niveaux sont développés. Plus généralement, les méthodes désirées et attendues devront permettre à Pixyl d'améliorer ces modèles, services et produits actuels. Pour l'application clinique, le temps d'inférence est particulièrement critique : l'assistance à la prise de décision est utile seulement si elle est suffisamment rapide pour être appliquée pendant la consultation du patient (c'est-à-dire en moins de 5 minutes). De plus, les solutions innovantes devront maintenir un haut niveau de performance même appliquée sur de petites bases de données d'image, ce qui est généralement le cas dans le domaine médical
In recent years, artificial intelligence algorithms have demonstrated outstanding performance in a wide range of tasks, including the segmentation and classification of medical images. The automatic segmentation of lesions in brain MRIs enables a rapid quantification of the disease progression: a count of new lesions, a measure of total lesion volume and a description of lesion shape. This analysis can then be used by the neuroradiologist to adapt therapeutic treatment if necessary. This makes medical decisions faster and more precise.At present, these algorithms, which are often regarded as black boxes, produce predictions without any information concerning their certainty. This hinders the full adoption of artificial intelligence algorithms in sensitive areas, as they tend to produce errors with high confidence, potentially misleading human decision-makers. Identifying and understanding the causes of these failures is key to maximizing the usefulness of AI algorithms and enabling their acceptance within the medical profession. To achieve this goal, it is important to be able to distinguish between the two main sources of uncertainty. First, aleatoric uncertainty, which corresponds to uncertainty linked to intrinsic image noise and acquisition artifacts. Secondly, epistemic uncertainty, which relates to the lack of knowledge of the model.The joint aim of Pixyl and GIN is to achieve better identification of the sources of uncertainty in deep neural networks, and consequently develop new methods for estimating this uncertainty in routine, real-time clinical use.In the context of medical image segmentation, uncertainty estimation is relevant at several scales. Firstly, at the voxel scale, uncertainty can be quantified using uncertainty maps. This makes it possible to superimpose the image, its segmentation and the uncertainty map to visualize uncertain area. Secondly, for pathologies such as Multiple Sclerosis, the radiologist's attention is focused on the lesion rather than the voxel. Structural uncertainty estimation, i.e. at the lesion scale, enables the radiologist to quickly control uncertain lesions that may be false positives. Thirdly, high-level metrics such as volume or number of lesions are commonly extracted from segmentations. Being able to associate predictive intervals with these metrics is important so that the clinician can take this uncertainty into account in his analysis. Finally, uncertainty can be quantified at the scale of the whole image, for example to detect out-of-distribution images that present a significant anomaly that could bias their analysis.In this thesis, the development of uncertainty quantification tools operating at each of these levels is proposed. More generally, the desired and expected methods should enable Pixyl to improve its current models, services and products. For clinical application, inference time is particularly critical: decision support is only useful if it is fast enough to be applied during patient consultation (i.e. in less than 5 minutes). What's more, innovative solutions will need to maintain a high level of performance even when applied to small image databases, as is generally the case in the medical field
APA, Harvard, Vancouver, ISO, and other styles
46

Henry-Chatelain, Catherine. "Génération de méta-faits pour la modélisation du raisonnement en diagnostic médical : application du diagnostic de l'infection néonatale." Compiègne, 1987. http://www.theses.fr/1987COMPD068.

Full text
Abstract:
Le thème de ce travail est le développement d'un système expert relatif au diagnostic de l'infection materno-fœtale chez le nouveau né. Cette étude s'insère dans le cadre de développement d'un générateur de système expert utilisable en mode diagnostic et en mode simulation. Après avoir présenté les différentes étapes de réalisation d'un système expert d'une part et les principaux modes de représentation des connaissances à travers la description de systèmes experts en médecine d'autre part, nous décrivons le générateur de système expert et son interface langage naturel à partir desquels nous avons réalisé ce développement. Nous décrivons ensuite ce qu'est l'infection materno-fœtale afin de soulever tous les problèmes posés par son diagnostic. Ceux-ci sont décomposés et formulés de façon telle que l'expertise se retrouve sous forme de règles de raisonnement simples. Nous proposons alors un modèle général de représentation des connaissances, fondé ici sur les critères d'infection, ainsi qu'un module de génération automatique de méta-faits qui, à partir de la description directe de faits initiaux, permet d'en déduire de nouveaux dans des termes compatibles avec ceux utilisés dans le raisonnement du médecin. La mise en œuvre pratique du module est largement détaillée. L'ensemble des différents méta-faits générés est proposé, l'analyse de ceux ci ainsi que le choix des règles déclenchables sont explicités, un exemple de consultation est donné. Les résultats obtenus lors de la phase d'évaluation réalisée au sein d'un service de réanimation pédiatrique sont enfin présentés
The theme of this work is the development of an expert system for materno-foetal diagnosis in newborn babies. The study is part of the development of an essential expert system usable in either the diagnostic or simulation mode. Firstly, we present the various stages of an expert system development and also the main modes of knowledge representation via expert system description in the medical field. Secondly, we describe the essential expert system and its natural language interface with which its development has been conducted. Following this, we describe the main feature of materno-foetal infections, so as to highlight the various problems associated with their diagnosis. These are broken down and formulated in such a way that the analysis is in the form of fairly simple reasoning process. We put forward a general-purpose model of knowledge representation, based here upon infection criteria, as well as a meta-knowledge automatic generation module ; the latter, using the direct description of the basic facts allows us to deduce new data, in terms compatible with those used by doctors. The practical use of the module is described in considerable detail. The whole of the various generated meta-knowledge is reported, as is its analysis and the choice of triggerable rules. An example of a consultation is given. Results are presented for the evaluation phase, which was conducted in a pediatric reanimation unit
APA, Harvard, Vancouver, ISO, and other styles
47

Yazzourh, Sophia. "Apprentissage par renforcement et outcome-weighted learning bayésien pour la médecine de précision : Intégration de connaissances médicales dans les algorithmes de décision." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES139.

Full text
Abstract:
La médecine de précision vise à adapter les traitements aux caractéristiques de chaque patient en s'appuyant sur les formalismes des "Individualized Treatment Regimes" (ITR) et des "Dynamic Treatment Regimes" (DTR). Les ITR concernent une seule décision thérapeutique, tandis que les DTR permettent l'adaptation des traitements au fil du temps via une séquence de décisions. Pour être pertinentes, ces approches doivent être en mesure de traiter des données complexes et d'intégrer les connaissances médicales, essentielles pour permettre une utilisation clinique réaliste et sans risques. Cette thèse présente trois projets de recherche. Premièrement, un état de l'art des méthodes d'intégration des connaissances médicales dans les modèles de "Reinforcement Learning" (RL) a été réalisé, en tenant compte du contexte des DTR et de leurs contraintes spécifiques pour une application sur des données observationnelles. Deuxièmement, une méthode probabiliste de construction des récompenses a été développée pour les modèles de RL, s'appuyant sur les préférences des experts médicaux. Illustrée par des études de cas sur le diabète et le cancer, cette méthode génère des récompenses de manière à exploiter les données, le savoir de l'expert médical et les relations entre les patients, évitant les biais de construction "à la main" et garantissant une cohérence avec les objectifs médicaux. Troisièmement, un cadre bayésien pour la méthode "Outcome-Weighted Learning" (OWL) a été proposé afin de quantifier l'incertitude dans les recommandations de traitement, renforçant ainsi la robustesse des décisions thérapeutiques, et a été illustré à travers de simulations de données. Les contributions de cette thèse visent à améliorer la fiabilité des outils de prise de décision en médecine de précision, d'une part en intégrant les connaissances médicales dans les modèles de RL, et d'autre part en proposant un cadre bayésien pour quantifier l'incertitude dans le modèle OWL. Ces travaux s'inscrivent dans une perspective globale de collaboration interdisciplinaire en particulier entre les domaines de l'apprentissage automatique, des sciences médicales et des statistiques
Precision medicine aims to tailor treatments to the characteristics of each patient by relying on the frameworks of Individualized Treatment Regimes (ITR) and Dynamic Treatment Regimes (DTR). ITRs involve a single therapeutic decision, while DTRs allow for the adaptation of treatments over time through a sequence of decisions. For these approaches to be effective, they must be capable of handling complex data and integrating medical knowledge, which is essential for enabling realistic and safe clinical use. This work presents three research projects. First, a state-of-the-art review of methods for integrating medical knowledge into Reinforcement Learning (RL) models was conducted, considering the context of DTR and their specific constraints for application to observational data. Second, a probabilistic method for constructing rewards was developed for RL models, based on the preferences of medical experts. Illustrated by case studies on diabetes and cancer, this method generates data-driven rewards, avoiding the biases of "manual" construction and ensuring consistency with medical objectives in learning treatment recommendation strategies. Third, a Bayesian framework for the Outcome-Weighted Learning (OWL) method was proposed to quantify uncertainty in treatment recommendations, thereby enhancing the robustness of therapeutic decisions, and was illustrated through simulations studies. This contributions aim to improve the reliability of decision-making tools in precision medicine, by integrating medical knowledge into RL models on one hand, and proposing a Bayesian framework to quantify uncertainty in the OWL model on the other. This work is part of a global perspective of interdisciplinary collaboration, particularly among the fields of machine learning, medical sciences, and statistics
APA, Harvard, Vancouver, ISO, and other styles
48

Mroueh, Dit Injibar Mohamed. "Classification évidentielle mono- et multi-label : application à la détection de maladies cardio-vasculaires." Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0011.

Full text
Abstract:
Cette thèse porte sur la détection de maladies cardio-vasculaires grâce à la surveillance de signaux physiologiques. L’objectif est de développer des approches de classification mono- et multi-label, basées sur la théorie des fonctions de croyance, pour prédire ou diagnostiquer une complication liée à une ou plusieurs maladies cardio-vasculaires. D’abord, une approche proposant une extraction de paramètres et une modélisation de l'information dans un cadre évidentiel est développée pour prédire la fibrillation atriale, une arythmie cardiaque. Une extension de cette approche utilise une option de rejet de classification et une modélisation alternative de l'information. La thèse élargit par la suite le domaine d’application pour couvrir plusieurs maladies cardio-vasculaires à la fois. Le problème est alors défini comme une classification multi-label où les labels représentent des traits caractéristiques des maladies. Une approche de classification multi-label est développée dans le domaine évidentiel qui se sert des corrélations entre les maladies pour accroître la précision du diagnostic. Enfin, une approche théorique de classification multi-label qui profite de la corrélation entre les labels a été proposée. Cette méthode d’ensemble permet de classifier en multi-label de manière efficace. Les approches proposées sont validées grâce à une base de données médicale publique, MIMIC III, hébergée sur Physionet
This thesis focuses on the detection of cardiovascular diseases through the monitoring of physiological signals. The objective is to develop mono- and multi-label classification approaches, based on the theory of belief functions, to predict or diagnose a complication linked to one or more cardiovascular diseases. First, an approach providing parameter extraction and information modeling in an evidential framework is developed to predict atrial fibrillation, a cardiac arrhythmia. An extension of this approach uses a reject classification option and alternative information modeling. The thesis then broadens the field of application to cover several cardiovascular diseases at the same time. The problem is thus defined as a multi-label classification where the labels represent features of the diseases. A multi-label classification approach is developed in the evidential domain which makes use of correlations between diseases to increase diagnostic accuracy. Finally, a theoretical approach of multi-label classification, which takes advantage of the correlation between labels, has been proposed. This ensemble method allows for efficient multi-label classification. The proposed approaches are validated using a public medical database, MIMIC III, hosted on Physionet
APA, Harvard, Vancouver, ISO, and other styles
49

Ameli, Samila. "Construction d'un langage de dictionnaire conceptuel en vue du traitement du langage naturel : application au langage médical." Compiègne, 1989. http://www.theses.fr/1989COMPD226.

Full text
Abstract:
Ce travail de recherche consiste en la réalisation d'un système documentaire dit de nouvelle génération, capable de prendre en compte le contenu de chaque document et d'exécuter la recherche documentaire par une comparaison du sens des textes (questions et documents). La compréhension des textes n'étant possible qu'à l'aide d'une base de connaissances, un dictionnaire conceptuel a été mis au point dans le but de représenter tous les concepts et leurs relations, écrits en langage clair et simplifié. Ce langage appelé « SUMIX » permet (1) de prendre en compte le contexte lors de la résolution des polysémies, (2) de résoudre nombre de difficultés imposées aux cogniticiens lors de la création de la base par un mécanisme d'héritage des propriétés et ainsi donner la possibilité de faire des inférences (3) de définir certaines relations inter-conceptuelles dépendantes du domaine d'application par une gestion de métaconnaissances. Ce dictionnaire conceptuel va servir à deux moments : (1) au moment de la création des fichiers inversés en indexant le concept et non la chaîne de caractères, on permet d'avoir, lors de l'extraction conceptuelle, un sous-ensemble le plus grand possible de dossiers pertinents (2) au moment de la comparaison structurelle qui est la comparaison finale, effectuée dossier par dossier, sur le sur-ensemble de dossiers déterminé à l'étape de l'extraction conceptuelle
This study deals with the realisation of a « new generation » information retrieval system, taking consideration of texts signification. This system compares texts (questions and documents) by their content. A knowledge base being indispensable for text “comprehension”, a dictionary of concepts has been designed in which are defined the concepts and their mutual relations thru a user friendly language called SUMIX. SUMIX enables us (1) to solve ambiguities due to polysemia by considering context dependencies, (2) to make use of property inheritance and so can largely help cogniticiens in the creation of the knowledge and inference base, (3) to define subject dependant relation between concepts which make possible metaknowledge handling. The dictionary of concepts is essentially used (1) to index concepts (and not characters string) which enables us to select a wide range of documents in the conceptual extraction phase, (2) to filter the previously selected documents by comparing the structure of each document with that of the query in the structural analysis phase
APA, Harvard, Vancouver, ISO, and other styles
50

Pouchoulin, Dominique. "Transfert de masse en hémodiafiltration sur membranes haute perméabilité." Compiègne, 1988. http://www.theses.fr/1988COMPD148.

Full text
Abstract:
L'hémodialyse sur membrane cellulosique basse perméabilité constitue le traitement au long cours classique de l'insuffisance rénale (épuration par diffusion). Le développement des membranes haute perméabilité et des techniques d'hémofiltration permet de réaliser une épuration par convection plus physiologique. Associant les 2 procédés, l'hémodiafiltration est la technique la plus performante et la plus adaptée aux techniques de dialyse courte (3x2h/semaine). Une analyse du couplage convection-diffusion est effectuée dans la perspective d'un développement unidimensionnel numérique. Le modèle est confronté aux résultats obtenus in vitro (solutions aqueuses). Les modifications des propriétés d'une membrane poly sulfone (perméabilité hydraulique, résistance membranaire, sélectivité) par l'adsorption de protéines sont étudiées. Toutes les mesures sont effectuées sur des modules à fibres creuses (hémofiltres). La fiabilité des résultats est assurée par le développement d'un banc d'essai instrumenté et automatisé : régulation des débits et pressions, dosage photométrique en ligne, acquisition des données, traitement informatique. L'ultrafiltration du sang est traitée par un modèle osmotique unidimensionnel synthétisant les données de la littérature. Ce modèle autorise une étude du phénomène de rétro filtration, et l'optimisation géométrique d'un hémofiltre. Les prédictions du modèle quant aux flux limites sont comparées à celles d'un modèle de gel
Haemodialysis with low permeability cellulose membrane is the basic treatment of renal insufficiency (purification by diffusion). The development of high permeability membranes and hemofiltration methods allows a more physiologic purification (by convection). Using the two processes, haemodiafiltration is the most efficient technique and the best for short dialysis (3 x 2 h/week). An analysis of the coupling between convection and diffusion is made to develop a one dimensional numerical model. The model is compared with in vitro results (water solutions). Modifications of the properties of a polysulfone membrane with protein adsorption are studied. All measures are made with hollow fibbers modules. The reliability of the results is warranted by the development of an automated testing bench : regulation of flows and pressures, on line photometric quantity determination, data acquisition, computed data treatment. Blood ultra filtration is studied with a one dimensional osmotic model using literature data. This model allows an analysis of retrofiltration phenomena and the optimisation of the geometry of a haemofilter. Limiting flow predictions are compared with gel model ones
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography