To see the other types of publications on this topic, follow the link: Intelligence artificielle en biologie.

Dissertations / Theses on the topic 'Intelligence artificielle en biologie'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intelligence artificielle en biologie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Juncker, Thibaud. "Droit de l'intelligence artificielle : essai d'une approche juridique du cognitivisme électronique." Electronic Thesis or Diss., Strasbourg, 2024. https://publication-theses.unistra.fr/restreint/theses_doctorat/2024/JUNCKER_Thibaud_2024_ED101.pdf.

Full text
Abstract:
Le cognitivisme électronique peut être entendu comme le courant de pensée selon lequel la programmation serait d’ores et déjà à même de faire émerger certains processus cognitifs comme l’intelligence. La présente thèse a pour objet d’interroger le cognitivisme électronique qui abonde dans les écrits scientifiques comme dans les écrits doctrinaux. Devant un tel enthousiasme, elle s’attache à démontrer que le droit applicable se saisit déjà sans difficulté de la programmation et de l’ensemble de ses avatars (machines, robots, etc.). Elle démontre ensuite que l’hypothèse de capacités cognitives électroniques devrait et peut être démontrée scientifiquement, au cas par cas. En effet, elle devrait être démontrée scientifiquement car l’existence de processus cognitifs électroniques emporterait d’importants changements de paradigmes en droit. Elle peut être démontrée, ensuite, puisque la biologie s’est déjà saisie, voilà bien longtemps, des phénomènes cognitifs. La thèse appelle donc, de manière générale, à une interdisciplinarité en matière de droit de l’intelligence artificielle, et y recourt abondamment. Ainsi, seule la réunion de disciplines telles que l’éthologie, les sciences cognitives et les sciences informatiques permet aux juristes d’échapper aux fantômes de sa propre imagination
Electronical cognitivism can be understood as the current of thought according to which programming is already capable of generating cognitive processes such as intelligence. The aim of this thesis is to question the electronical cognitivism that is so prevalent in both scientific and doctrinal writings. Confronted with such enthusiasm, it sets out to demonstrate that applicable law already deals with programming and all its avatars (machines, robots, etc.) without difficulty. It then demonstrates that the hypothesis of electronic cognitive capacities should and can be demonstrated scientifically, on a case-by-case basis. Indeed, it should be scientifically demonstrated, as the existence of electronic cognitive processes would entail major paradigm shifts in law. Secondly, it can be demonstrated, since biology has long been dealing with cognitive phenomena. In general terms, the thesis calls for interdisciplinarity in the field of artificial intelligence law, and makes extensive use of it. Only by bringing together disciplines such as ethology, cognitive science and computer science can jurists escape the ghosts of their own imagination
APA, Harvard, Vancouver, ISO, and other styles
2

Clampitt, Megan. "Indexation de l'état de santé des coraux par une approche basée sur l'intelligence artificielle." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ6019.

Full text
Abstract:
Les récifs coralliens se détériorent à une vitesse surprenante et le développement de schémas de surveillance rapides et efficaces pouvant évaluer la santé des coraux et ne se concentrant pas uniquement sur l'absence ou la présence de maladies ou de blanchissement est essentiel. La recherche de ma thèse vise à combiner les domaines de la biologie corallienne, de l'informatique et de la conservation marine. La question principale de ma thèse étant : comment les outils d'intelligence artificielle peuvent-ils être utilisés pour évaluer l'état de santé des coraux à partir de photographies de colonies ? Étant donné que l'évaluation de l'état de santé des colonies coralliennes individuelles reste mal définie, notre approche consiste à utiliser des outils d'IA pour évaluer les indices visuels tels que les conditions physiques dommageables (organismes perforateurs et prédateurs), le contact avec d'autres organismes (algues, sédiments) et les changements de couleur qui pourraient être corrélés avec l'état de santé. Ceci a été réalisé en utilisant les données photographiques de l'expédition Tara Pacific pour construire la première version de machines d'IA capable de reconnaître automatiquement ces repères visuels, puis en appliquant cet outil à deux types d'études de terrain i). Une étude mise en place à Moorea, en Polynésie française, visant à étudier la santé des coraux au cours du temps. ii). Une étude comparative entre les sites endommagés, vierges et restaurés à Raja Ampat, en Indonésie. L'objectif de ces études est d'extraire les repères visuels qui distinguent les coraux en bonne santé des coraux présentant un risque de mortalité plus élevé. Ainsi, j'ai pu créer un modèle d'IA capable d'annoter automatiquement les photographies de colonies de coraux avec des repères visuels pertinents pour évaluer l'état de santé de la colonie
Coral reefs are deteriorating at a startling rate and the development of fast and efficient monitoring schemas that attempt to evaluate coral health without only focusing on the absence or presence of disease or bleaching is essential. My Ph.D. research aims to combine the fields of Coral Biology, Computer Science, and Marine Conservation with the main question of my thesis being: how can artificial intelligence tools be used to assess coral health states from colony photographs? Since the assessment of individual coral colony health state remains poorly defined, our approach is to use AI tools to assess visual cues such as physically damaging conditions (boring organisms & predation), contact with other organisms (algae, sediment), and color changes that could correlate with health states. This was achieved by utilizing photographic data from the Tara Pacific Expedition to build the first version of AI machines capable of automatically recognizing these visual cues and then applying this tool to two types of field studies i). A longitudinal study set up in Moorea, French Polynesia aimed to investigate coral health as assessed by mortality/partial mortality events. ii). A comparative study between damaged, pristine, and restoration sites in Raja Ampat, Indonesia. The objective of these studies is to extract the visual cues that distinguish healthy from unhealthy corals. Thus, I was able to create an AI Model capable of automatically annotating coral colony photographs for visual cues relevant to the current health state of the colony
APA, Harvard, Vancouver, ISO, and other styles
3

Ferré, Arnaud. "Représentations vectorielles et apprentissage automatique pour l’alignement d’entités textuelles et de concepts d’ontologie : application à la biologie." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS117/document.

Full text
Abstract:
L'augmentation considérable de la quantité des données textuelles rend aujourd’hui difficile leur analyse sans l’assistance d’outils. Or, un texte rédigé en langue naturelle est une donnée non-structurée, c’est-à-dire qu’elle n’est pas interprétable par un programme informatique spécialisé, sans lequel les informations des textes restent largement sous-exploitées. Parmi les outils d’extraction automatique d’information, nous nous intéressons aux méthodes d’interprétation automatique de texte pour la tâche de normalisation d’entité qui consiste en la mise en correspondance automatique des mentions d’entités de textes avec des concepts d’un référentiel. Pour réaliser cette tâche, nous proposons une nouvelle approche par alignement de deux types de représentations vectorielles d’entités capturant une partie de leur sens : les plongements lexicaux pour les mentions textuelles et des “plongements ontologiques” pour les concepts, conçus spécifiquement pour ce travail. L’alignement entre les deux se fait par apprentissage supervisé. Les méthodes développées ont été évaluées avec un jeu de données de référence du domaine biologique et elles représentent aujourd’hui l’état de l’art pour ce jeu de données. Ces méthodes sont intégrées dans une suite logicielle de traitement automatique des langues et les codes sont partagés librement
The impressive increase in the quantity of textual data makes it difficult today to analyze them without the assistance of tools. However, a text written in natural language is unstructured data, i.e. it cannot be interpreted by a specialized computer program, without which the information in the texts remains largely under-exploited. Among the tools for automatic extraction of information from text, we are interested in automatic text interpretation methods for the entity normalization task that consists in automatically matching text entitiy mentions to concepts in a reference terminology. To accomplish this task, we propose a new approach by aligning two types of vector representations of entities that capture part of their meanings: word embeddings for text mentions and concept embeddings for concepts, designed specifically for this work. The alignment between the two is done through supervised learning. The developed methods have been evaluated on a reference dataset from the biological domain and they now represent the state of the art for this dataset. These methods are integrated into a natural language processing software suite and the codes are freely shared
APA, Harvard, Vancouver, ISO, and other styles
4

Acherar, Idir Aniss. "Détection et identification de Plasmodium falciparum sur des images microscopiques." Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS019.pdf.

Full text
Abstract:
L'utilisation du microscope dans le diagnostic du paludisme est depuis longtemps un outil essentiel pour les professionnels de la santé. Cependant, il existe des défis inhérents à cette méthode, notamment en termes de subjectivité et de variabilité des résultats dus à des facteurs tels que la qualité des frottis sanguins, les variations de coloration et la présence d'artefacts. De plus, l'interprétation des images de frottis sanguins peut varier en fonction de l'expertise de l'opérateur, ce qui souligne la nécessité d'explorer des approches plus objectives et reproductibles pour le diagnostic du paludisme. L'application future de l'apprentissage automatique et profond dans le diagnostic assisté par ordinateur du paludisme soulève une limitation majeure : ces modèles sont généralement validés sur des données de recherche, qui diffèrent considérablement des données cliniques de routine. Pour comprendre véritablement les performances de ces outils dans des contextes réels, il est impératif de les valider sur de vastes ensembles de données cliniques.La validation sur des ensembles de données cliniques revêt une importance capitale pour évaluer la capacité des modèles d'apprentissage automatique et profond à relever les défis spécifiques de la pratique clinique quotidienne. Les données issues de la routine peuvent varier considérable- ment en termes de qualité des frottis, d'images, de variations de coloration et d'artefacts, ce qui peut avoir une incidence sur la performance des modèles. Il est donc essentiel de tester ces modèles sur des ensembles de données cliniques réelles afin d'évaluer leur adaptabilité et leur fiabilité dans des situations concrètes.Dans notre première étude, nous avons créé une base de données d'images annotées, comprenant plus de 60 000 images, pour identifier les globules rouges parasités par Plasmodium falciparum et les composants sanguins non infectés. L'objectif était de garantir une représentation fidèle des conditions diagnostiques afin d'améliorer les performances des systèmes de classification. En contrôlant la diversité des images, nous avons pu améliorer la capacité des modèles à généraliser sur de nouveaux échantillons de patients. À l'aide d'une approche de validation croisée, nous avons évalué différentes architectures de modèles en utilisant notre base de données ainsi que celle mise en ligne par le National Institute of Health (NIH). Nous avons ensuite analysé la capacité des modèles entraînés sur chaque base de données à généraliser et à fournir des prédictions précises sur un ensemble de données cliniques indépendant comprenant des images de frottis sanguins issues de 200 patients différents. Dans notre deuxième étude, nous nous sommes concentrés sur la mesure automatique de la parasitémie, un facteur crucial dans le diagnostic du paludisme, en particulier pour les cas causés par Plasmodium falciparum. Nous avons proposé une méthode automatisée pour estimer la parasitémie en analysant un nombre prédéterminé de champs de frottis sanguins minces. Cette approche automatique standardise la mesure et réduit la subjectivité liée à l'interprétation manuelle. Parallèlement, nous avons identifié les limites des méthodes manuelles traditionnellement utilisées en routine pour mesurer la parasitémie sur les frottis sanguins minces, en raison de la variabilité significative dans l'interprétation et l'analyse microscopique, pouvant entraîner des erreurs et une fiabilité réduite dans le diagnostic.Enfin, nous avons comparé les performances de notre système proposé sur un ensemble de 102 patients. En évaluant sa corrélation avec deux autres méthodes, manuelles et semi-automatiques, nous avons démontré la validité et la fiabilité de notre approche automatique dans l'estimation de la parasitémie
The use of microscopy in malaria diagnosis has long been an essential tool for healthcare professionals. However, this method comes with inherent challenges, particularly in terms of subjectivity and variability in results due to factors such as the quality of blood smears, variations in staining, and the presence of artifacts. Moreover, the interpretation of blood smear images can vary depending on the operator's expertise, highlighting the need to explore more objective and reproducible approaches for malaria diagnosis. The future application of machine learning and deep learning in computer-aided malaria diagnosis poses a significant limitation : these models are typically validated on research data, which significantly differs from routine clinical data. To truly understand the performance of these tools in real-world contexts, it is imperative to validate them on large clinical datasets.Validation on clinical datasets is of paramount importance to assess the ability of machine learning and deep learning models to address the specific challenges of daily clinical practice. Routine clinical data can vary significantly in terms of smear quality, image characteristics, staining variations, and artifacts, all of which can impact model performance. Therefore, it is essential to test these models on real clinical datasets to evaluate their adaptability and reliability in practical scenarios. In our first study, we created an annotated image database comprising over 60,000 images to identify Plasmodium falciparum infected red blood cells and uninfected blood components. The goal was to ensure a faithful representation of diagnostic conditions to enhance the performance of classification systems. By controlling image diversity, we improved the models' ability to generalize to new patient samples. Using a cross-validation approach, we evaluated different model architectures using our database and one made available by the NIH. Subsequently, we assessed the models' capacity to generalize and provide accurate predictions on an independent clinical dataset comprising blood smear images from 200 different patients.In our second study, we focused on the automated measurement of parasitemia, a crucial factor in malaria diagnosis, particularly for cases caused by Plasmodium falciparum. We proposed an automated method to estimate parasitemia by analyzing a predetermined number of thin blood smear fields. This automated approach standardizes measurements and reduces the subjectivity associated with manual interpretation. Concurrently, we identified the limitations of traditional manual methods used in routine practice to measure parasitemia on thin blood smears due to significant variability in microscopic interpretation and analysis, potentially leading to errors and reduced diagnostic reliability. Finally, we compared the performance of our proposed system on a dataset of 102 patients. By assessing its correlation with two other methods, manual and semi-automated, we demonstrated the validity and reliability of our automated approach in parasitemia estimation
APA, Harvard, Vancouver, ISO, and other styles
5

Scornavacca, Céline. "Supertree methods for phylogenomics." Montpellier 2, 2009. http://www.theses.fr/2009MON20136.

Full text
Abstract:
Les relations évolutives entre les espèces peuvent être résumées dans un arbre communément appelé “arbre des espèces”. Ces arbres sont principalement estimés en analysant des “arbres de gènes”, ie, des arbres évolutifs construits par l'analyse d'une famille de gènes. Toutefois, pour des raisons méthodologiques et biologiques, un arbre de gènes peut différer de l'arbre des espèces. Pour estimer ce dernier, les biologistes analysent plusieurs jeux de données à la fois. Cette thèse se focalise sur l'approche “super-arbre” pour combiner les jeux de données, qui consiste à construire des arbres “sources” à partir de données primaires puis à les assembler en un arbre plus grand. Au sein d'une approche “diviser pour régner” dans le but de reconstituer l'Arbre de Vie, il est préférable d'utiliser une méthode conservative afin d'obtenir des arbres fiables. Dans ce contexte, une méthode de super-arbre doit afficher seulement des informations présentes ou induites par les arbres sources (propriété d'induction), et qui n'entrent pas en conflit avec ces derniers ou avec une de leurs combinaisons (propriété de non contradiction). Nous avons défini de manière formelle ces deux propriétés et développé un algorithme permettant de modifier un super-arbre afin qu'il les satisfasse. Nous avons également conçu deux méthodes, PhySIC et PhySIC_IST, qui construisent directement des super-arbres satisfaisant ces deux propriétés. Les événements de duplication aboutissent souvent à la présence de plusieurs copies du même gène dans les génomes. Les arbres de gènes sont donc généralement multi-étiquetés, ie, une seule espèce étiquette plusieurs feuilles. Comme aucune méthode n'existe actuellement pour combiner ces arbres, ils sont ignorés dans un approche super-arbre. Dans cette thèse, nous proposons plusieurs algorithmes permettant d'obtenir, à partir d'un arbre multi-étiqueté, un arbre classique contenant un maximum d'informations de spéciation présentes dans l'arbre initial
Evolutionary relationships between species can be summarized in the so-called “species tree. Species trees are mainly estimated using gene trees, ie evolutionary trees constructed by analyzing a gene family. However, for both methodological and biological reasons, a gene tree may differ from the species tree. To estimate species tree, biologists then analyze several data sets at a time. This thesis focuses on the “supertree” approach to combine data sets. This approach consists first in constructing trees (commonly called source trees) from primary data, then assembling them into a larger tree, called supertree. When using supertree construction in a divide-and-conquer approach in the attempt to reconstruct the Tree of Life, conservative supertree methods have to be preferred in order to obtain reliable supertrees. In this context, a supertree method should display only information that is displayed or induced by source trees (induction property, PI) and that does not conflict with source trees or a combination thereof (non contradiction property, PC). In this thesis we introduce two combinatorial properties that formalize these ideas. We proposed algorithms that modify the output of any supertree methods such that it verifies these properties. Since no existing supertree method satisfies both PI and PC, we have developed two methods, PhySIC and PhySIC_IST, which directly build supertrees satisfying these properties. Since duplication events often result in the presence of several copies of the same genes in the species genomes, gene trees are usually multi-labeled, ie , a single species can label more than one leaf. Since no supertree method exists to combine multi-labeled trees, until now these gene trees were simply discarded in supertree analyses. In this thesis, we propose several algorithms to extract a maximum amount of speciation signal from multi-labeled trees and put it under the form of single-labeled trees which can be handled by supertree methods
APA, Harvard, Vancouver, ISO, and other styles
6

Eskiizmirliler, Tevfik Selim. "Modélisation de la fusion des informations sensori-motrices dans les voies cérébelleuses : application à la prédiction des cinétoses dans les trains pendulaires et au contrôle d'un actionneur mû par des muscles pneumatiques." Paris, ENST, 2000. http://www.theses.fr/2000ENST0047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Guiziou, Sarah. "Engineering framework for scalable recombinase logic operating in living cells." Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTT026/document.

Full text
Abstract:
L’un des objectifs principal de la biologie synthétique est de reprogrammer les organismes vivants pour résoudre des challenges mondiaux actuelles dans le domaine industriel, environnemental et de la santé. Tandis que de nombreux types de portes logiques génétiques ont été conçus, leur extensibilité reste limitée. Effectivement, la conception de portes logiques reste en grande partie un processus fastidieux et repose soit sur l’intuition humaine, soit sur des méthodes computationnelles de force brute. De plus, les circuits conçus sont généralement de grande taille et ne sont donc pas faciles à implémenter dans les organismes vivants.Durant ma thèse, mon objectif a été d’augmenter la puissance de calcul des circuits logiques utilisant des intégrases tout en permettant aux chercheurs d’implémenter simplement ces circuits à un large éventail d'organismes et d’entrées.Tout d’abord, j’ai développé un cadre extensible et composable pour le design systématique de systèmes multicellulaires implémentant de la logique Booléenne et histoire dépendent. Ce design est basé sur l'utilisation de sérine intégrases et peut intégrer un nombre arbitraire d’entrée. J’ai implémenté dans Escherichia coli des circuits logiques Booléens multicellulaires jusqu’à quatre entrées et des circuits histoire-dépendent jusqu’à 3 entrées. En raison de son extensibilité et de sa composabilité, ce design permet une implémentation simple et directe de circuits logiques dans des systèmes multicellulaires.J’ai également poussé le compactage des circuits logiques biologiques. Pour cela, j’ai généré une base de données complète de tous les circuits logiques unicellulaires possibles pour l’implémentation de fonctions booléennes à deux, trois et quatre entrées. La caractérisation d’un ensemble réduit des circuits de cette base de données devra être effectuée pour prouver la faisabilité de leur implémentation.Je pense que ces différentes stratégies de conception et les différents outils distribués (pièces biologiques et interface web) aideront les chercheurs et les ingénieurs à reprogrammer le comportement cellulaire de manière simple pour diverses applications
A major goal of synthetic biology is to reprogram living organisms to solve pressing challenges in manufacturing, environmental remediation, or healthcare. While many types of genetic logic gates have been engineered, their scalability remains limited. Indeed, gate design remains largely a tedious process and relies either on human intuition or on brute-force computational methods. Additionally, designed circuits are usually large and therefore not straightforward to implement in living organisms.Here, I aimed at increasing the computation power of integrase-based logic circuits while permitting researchers to simply implement these circuits to a large range of organisms and of inputs.First, I developed a scalable composition framework for the systematic design of multicellular systems performing integrase-based Boolean and history-dependent logic and integrating an arbitrary number of inputs. I designed multicell Boolean logic circuits in Escherichia coli to up to 4 inputs and History-dependent circuits to 3 inputs. Due to its scalability and composability, this design framework permits a simple and straightforward implementation of logic circuits in multicellular systems.I also pushed forward the compaction of biological logic circuits. I generated a complete database of single-cell integrase-based logic circuits to obtain all possible designs for the implementation of up to 4-input Boolean functions. Characterization of a reduced set of circuits will have to be performed to prove the feasibility of the implementation of these circuits.All these design strategies can be implemented via easily accessible web interfaces, and open collections of biological components that are made available to the scientific community. These tools will enable researchers and engineers to reprogram cellular behavior for various applications in a streamlined manner
APA, Harvard, Vancouver, ISO, and other styles
8

Pierret-Golbreich, Christine. "Vers un système à base de connaissances centrées-objet pour la modélisation de systèmes dynamiques en biologie." Compiègne, 1988. http://www.theses.fr/1988COMPD144.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine mixte de l'intelligence artificielle appliquée à l'automatique et à la biologie. Elle montre la contribution des apports récents de l'informatique, en particulier en intelligence artificielle, au développement d'un environnement d'aide à la modélisation des systèmes dynamiques en biologie. On présente comment la base de connaissances d'un tel système a été construite à l'aide d'unités interdépendantes, les schémas, sans faire appel à aucun autre type de représentation, car les mécanismes d'inférences propres au système de gestion de bases de connaissances (Shirka), suffisent. Cette recherche vise à montrer comment une base multi-experte peut-être réalisée en vue de faire collaborer plusieurs domaines de connaissances
This thesis comes within the framework of the multi-disciplinary field of artificial intelligence applied to automatic control and biology. It shows how the recent progress made in computer science, and particularly in artificial intelligence has led to the development of a new type of system for computer-aided modelling in biology. It describes the implementation of such a system's knowledge base which uses interdependent units called schemes, without any other type of representation unit. Notably no rules were needed because the knowledge bases management system has its own inference mechanisms. This research aims at demonstrating how a multi-expert base can be built in order to allow collaboration between several different fields of knowledge
APA, Harvard, Vancouver, ISO, and other styles
9

Bizet, Martin. "Bioinformatic inference of a prognostic epigenetic signature of immunity in breast cancers." Doctoral thesis, Universite Libre de Bruxelles, 2018. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/265092.

Full text
Abstract:
L’altération des marques épigénétiques est de plus en plus reconnue comme une caractéristique fondamentale des cancers. Dans cette thèse, nous avons utilisé des profils de méthylation de l’ADN en vue d’améliorer la classification des patients atteints du cancer du sein grâce à une approche basée sur l’apprentissage automatique. L’objectif à long terme est le développement d’outils cliniques de médecine personnalisée. Les données de méthylation de l’ADN furent acquises à l’aide d’une puce à ADN dédiée à la méthylation, appelée Infinium. Cette technologie est récente comparée, par exemple, aux puces d’expression génique et son prétraitement n’est pas encore standardisé. La première partie de cette thèse fut donc consacrée à l’évaluation des méthodes de normalisation par comparaison des données normalisées avec d’autres technologies (pyroséquençage et RRBS) pour les deux technologies Infinium les plus récentes (450k et 850k). Nous avons également évalué la couverture de régions biologiquement relevantes (promoteurs et amplificateurs) par les deux technologies. Ensuite, nous avons utilisé les données Infinium (correctement prétraitées) pour développer un score, appelé MeTIL score, qui présente une valeur pronostique et prédictive dans les cancers du sein. Nous avons profité de la capacité de la méthylation de l’ADN à refléter la composition cellulaire pour extraire une signature de méthylation (c’est-à-dire un ensemble de positions de l’ADN où la méthylation varie) qui reflète la présence de lymphocytes dans l’échantillon tumoral. Après une sélection de sites présentant une méthylation spécifique aux lymphocytes, nous avons développé une approche basée sur l’apprentissage automatique pour obtenir une signature d’une tailleoptimale réduite à cinq sites permettant potentiellement une utilisation en clinique. Après conversion de cette signature en un score, nous avons montré sa spécificité pour les lymphocytes à l’aide de données externes et de simulations informatiques. Puis, nous avons montré la capacité du MeTIL score à prédire la réponse à la chimiothérapie ainsi que son pouvoir pronostique dans des cohortes indépendantes de cancer du sein et, même, dans d’autres cancers.
Epigenetic alterations are increasingly recognised as an hallmark of cancers. In this thesis, we used a machine-learning-based approach to improve breast cancer patients’ classification using DNA methylation profiling with the long term aim to make treatment more personalised. The DNA methylation data were acquired using a high density DNA methylation array called Infinium. This technology is recent compared to expression arrays and its preprocessing is not yet standardised. So, the first part of this thesis was to evaluate the normalisation methods by comparing normalised data against other technologies (pyrosequencing and RRBS) for the two most recent Infinium arrays (450k and 850k).We also went deeper into the evaluation of these arrays by assessing their coverage of biologically relevant regions like promoters and enhancers. Then, we used accurately preprocessed Infinium data to develop a score, called MeTIL score, which shows prognostic and predictive value in breast cancers. We took advantage that DNA methylation can mirror the cell composition to extract a DNA methylation signature (i.e. a set of DNA methylation sites) that reflects presence of lymphocytes within the tumour. After an initial selection of lymphocyte-specific sites we developed a machine-learning-based framework which reduced the predictive set to an optimal size of five methylation sites making it potentially suitable to use in clinics. After conversion of this signature to a score, we showed its specificity to lymphocytes using external datasets and simulations. Then, we showed its ability predict response to chemotherapy and, finally, its prognostic value in independent breast cancer cohorts and even in other cancers.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
10

Pouchoulin, Dominique. "Transfert de masse en hémodiafiltration sur membranes haute perméabilité." Compiègne, 1988. http://www.theses.fr/1988COMPD148.

Full text
Abstract:
L'hémodialyse sur membrane cellulosique basse perméabilité constitue le traitement au long cours classique de l'insuffisance rénale (épuration par diffusion). Le développement des membranes haute perméabilité et des techniques d'hémofiltration permet de réaliser une épuration par convection plus physiologique. Associant les 2 procédés, l'hémodiafiltration est la technique la plus performante et la plus adaptée aux techniques de dialyse courte (3x2h/semaine). Une analyse du couplage convection-diffusion est effectuée dans la perspective d'un développement unidimensionnel numérique. Le modèle est confronté aux résultats obtenus in vitro (solutions aqueuses). Les modifications des propriétés d'une membrane poly sulfone (perméabilité hydraulique, résistance membranaire, sélectivité) par l'adsorption de protéines sont étudiées. Toutes les mesures sont effectuées sur des modules à fibres creuses (hémofiltres). La fiabilité des résultats est assurée par le développement d'un banc d'essai instrumenté et automatisé : régulation des débits et pressions, dosage photométrique en ligne, acquisition des données, traitement informatique. L'ultrafiltration du sang est traitée par un modèle osmotique unidimensionnel synthétisant les données de la littérature. Ce modèle autorise une étude du phénomène de rétro filtration, et l'optimisation géométrique d'un hémofiltre. Les prédictions du modèle quant aux flux limites sont comparées à celles d'un modèle de gel
Haemodialysis with low permeability cellulose membrane is the basic treatment of renal insufficiency (purification by diffusion). The development of high permeability membranes and hemofiltration methods allows a more physiologic purification (by convection). Using the two processes, haemodiafiltration is the most efficient technique and the best for short dialysis (3 x 2 h/week). An analysis of the coupling between convection and diffusion is made to develop a one dimensional numerical model. The model is compared with in vitro results (water solutions). Modifications of the properties of a polysulfone membrane with protein adsorption are studied. All measures are made with hollow fibbers modules. The reliability of the results is warranted by the development of an automated testing bench : regulation of flows and pressures, on line photometric quantity determination, data acquisition, computed data treatment. Blood ultra filtration is studied with a one dimensional osmotic model using literature data. This model allows an analysis of retrofiltration phenomena and the optimisation of the geometry of a haemofilter. Limiting flow predictions are compared with gel model ones
APA, Harvard, Vancouver, ISO, and other styles
11

Carlsson, Veronica. "Artificial intelligence in radiolarian fossil identification : taxonomic, biostratigraphic and evolutionary implications." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILR092.

Full text
Abstract:
La micropaléontologie ne consiste pas seulement à étudier les organismes eux-mêmes, mais plutôt à comprendre les environnements passés de la Terre, avec des applications allant de la biostratigraphie à la paléoocéanographie, en passant par la capacité d'étudier les changements évolutifs au sein des morphoespèces dans le temps et dans l'espace. Ce domaine est confronté à de nombreux défis, car l'analyse des microfossiles nécessite un effort humain important et une expertise taxonomique, conduisant souvent à des incohérences dans les interprétations. Ce travail de thèse se concentre sur l'application de l'utilisation de l'intelligence artificielle (IA), telle que les réseaux de neurones artificiels (ANN), pour la reconnaissance automatique d'images de radiolaires de l'Éocène moyen de l'Atlantique tropical. De grands ensembles de données ont été construits afin de former différents réseaux de neurones et nos résultats montrent que les réseaux de neurones peuvent automatiquement classer plusieurs classes différentes de radiolaires jusqu'au niveau de l'espèce, ainsi que dans de nombreux cas, être capables d'identifier des espèces étroitement apparentées et même des morphotypes qui font partie d'une transition évolutive. Le réseau de neurones a également pu identifier correctement les radiolaires moins brisés ou flous. Il a également été appliqué avec succès à la reconnaissance automatique d'images pour un travail biostratigraphique, qui pouvait en général détecter des âges plus généraux ou des événements biologiques très précis. Ce travail inclut l'utilisation des approches classiques de réseaux de neurones pour analyser le contexte visuel, telles que les réseaux de neurones convolutifs (CNN), mais comprend également l'utilisation de réseaux de neurones à pointes (SNN), qui ne sont pas aussi couramment utilisés pour la reconnaissance automatique d'images que les CNN. Les SNN ont permis d'obtenir une précision égale ou presqu'égale à celle des CNN, avec simplement leur utilisation étant plus efficace en termes de calcul et du fait qu'il prennent moins de mémoire. Il y a également eu quelques comparaisons utilisant des analyses morphométriques traditionnelles, telle que l'analyse de discrimination linéaire (LDA), donnant à peu près le même type de résultats. Nos recherches visent non seulement à simplifier et à accélérer le processus d'analyse, mais contribuent également à accroître la précision et la cohérence des interprétations micropaléontologiques, lesquelles, à terme, contribueront à des études de haute résolution afin de comprendre l'histoire passée de la Terre
Micropaleontology is not only about studying the organisms themselves, rather understanding Earth's past environments, with applications ranging from biostratigraphy to paleoceanography as well as being able to study evolutionary changes within morphospecies in time and space. This field is facing numerous challenges, since the analysis of microfossils demands significant human effort and taxonomic expertise, often leading to inconsistencies in interpretations. This work focuses on the application of using Artificial Intelligence (AI), such as Artificial Neural Networks (ANNs), for automatic image recognition of tropical Atlantic middle Eocene radiolarians. Large datasets have been constructed, in order to train different neural networks and our results show that the neural networks can automatically classify several different classes of radiolarians down to a species level, as well as in many cases being able to identify closely related species and even evolutionary transition morphotypes. It has also been able to correctly identify less broken or blurry radiolarians. It was also successfully applied to automatic image recognition for a biostratigraphic work, which in general could detect more general ages or highly precise bio events. This work includes the use of the classical neural network approaches for analysing visual context such as Convolutional Neural Networks (CNNs) but also includes the use of Spiking Neural Networks (SNNs), which is not as commonly used for automatic image recognition, as CNNs. SNNs resulted in almost or equal amount of accuracy obtained as for CNNs, just that the use is more computational efficient and takes up less memory. There have also been some comparisons using traditional morphometric analyses, such as Linear Discrimination Analysis (LDA), giving approximately the same kind of results. Our research not only aims to simplify and speed up the analysis process but also helps in increasing the accuracy and consistency of micropaleontological interpretations, which eventually, will contribute to the high-resolution studies in order to understand Earth's past history
APA, Harvard, Vancouver, ISO, and other styles
12

Couderc, Yoni. "Dopaminergic modulation of the insular cortex in anxiety-related behaviors and emotional valence." Electronic Thesis or Diss., Bordeaux, 2025. http://www.theses.fr/2025BORD0017.

Full text
Abstract:
L'anxiété est une réponse adaptative des individus exposés à un contexte potentiellement menaçant. Cependant, des niveaux d'anxiété peuvent rester élevés de manière persistante, indépendamment de l'environnement, et devenir pathologiques. Bien que les troubles anxieux soient les affections psychiatriques les plus répandues – caractérisés par des niveaux chroniques élevés d'anxiété et un biais attentionnel envers les stimuli à valence négative – les mécanismes neurobiologiques sous-jacents restent encore mal compris. De nombreuses études, menées chez l'humain et dans des modèles précliniques, ont mis en évidence l'implication de différents neuromodulateurs, notamment la sérotonine, la noradrénaline, mais aussi la dopamine. Des études d'imagerie fonctionnelle ont montré que le cortex insulaire (ou insula), en particulier sa région antérieure, est hyperactivé chez les individus souffrant de troubles anxieux en réponse à des stimuli saillants ou négatifs. Bien que la neurotransmission dopaminergique soit connue pour réguler l'anxiété chez l'humain et dans les modèles animaux, ses effets spécifiques sur l'insula antérieure restent largement inexplorés.Cette thèse vise à explorer le rôle de la transmission dopaminergique dans le cortex insulaire dans la modulation de l'anxiété et de la valence émotionnelle chez la souris. À travers une approche multifactorielle, cette recherche a permis de révéler comment la dopamine module la fonction de l'insula antérieure dans les comportements liés à l’anxiété et à la valence émotionnelle, selon trois niveaux d’analyse clés. (1) Tout d’abord, nous avons cartographié le système dopaminergique insulaire et identifié une forte densité de neurones exprimant les récepteurs dopaminergiques de type 1 (D1), particulièrement marquée dans l’insula antérieure, et sept fois supérieure à celle des neurones exprimant les récepteurs de type 2 (D2). De plus, l’activation pharmacologique des récepteurs D1 dans l’insula antérieure s’est révélée anxiogène, établissant un lien direct entre la signalisation dopaminergique insulaire et les comportements associés à l’anxiété. (2) Par photométrie en fibre, nous avons montré que l’amplitude de la libération de dopamine sur les neurones D1-positifs de l’insula antérieure augmentait lorsque les souris étaient exposées à des espaces anxiogènes ou à des chocs électriques légers. Cette libération de dopamine était positivement corrélée avec le niveau d'anxiété intrinsèque des souris, renforçant l'idée que la dopamine joue un rôle central dans la modulation des réponses anxieuses. (3) Enfin, grâce à l’analyse par intelligence artificielle des dynamiques de population neuronale et des enregistrements de neurones unitaires dans l’insula antérieure, nous avons identifié des propriétés de codage neuronal distinctes pour les environnements anxiogènes et protégés, ainsi que pour les stimuli gustatifs à valence positive ou négative. De façon intéressante, l’activation systémique des récepteurs D1, qui augmente les comportements de type anxieux, perturbe cette dichotomie de codage en rendant le codage des espaces protégés plus variable et celui des espaces anxiogènes plus spécifique. De plus, le codage des espaces anxiogènes était corrélé positivement au niveau d’anxiété intrinsèque des souris. Nous avons également observé une tendance à une corrélation positive entre la spécificité du codage des stimuli gustatifs négatifs et le niveau d'anxiété des souris.En conclusion, ces résultats mettent en lumière un nouveau modèle de codage neuronal dans l’insula antérieure, en lien avec l’anxiété et la valence émotionnelle. Ils dévoilent également des mécanismes de codage dépendant des récepteurs D1 dans l’insula antérieure de la souris, ouvrant ainsi de nouvelles perspectives pour comprendre et traiter les troubles anxieux
Anxiety is an adaptive response of individuals exposed to a potentially threatening context. However, anxiety levels can be persistently high independently of the environment and become pathological. Although anxiety disorders represent the most prevalent psychiatric conditions - characterized by chronic high levels of anxiety and an attentional bias towards negative valence - the underlying neurobiology remains poorly understood. Numerous studies in humans and in preclinical models revealed the implication of different neuromodulators including serotonin, norepinephrine, but also dopamine. Imaging studies have shown that the insular cortex (or insula), particularly its anterior region, is hyperactivated in individuals with anxiety disorders in response to salient or negative stimuli. Although dopamine neurotransmission is known to regulate anxiety in humans and animal models, its specific regulatory effects on the anterior insula have remained largely unexplored.This PhD dissertation aims to investigate the role of dopamine transmission in the insular cortex in shaping anxiety and emotional valence in mice. Through a multifaceted approach, this research uncovered how dopamine modulates anterior insula function in anxiety and valence processing at three key levels of analysis. (1) First, we mapped the dopaminergic system of the insular cortex and revealed a high density of neurons expressing type-1 dopamine receptors (D1) in the insula, particularly important in the anterior insula, and seven times greater than the density of neurons expressing type-2 dopamine receptors (D2). Then, we found that pharmacological activation of D1 in the anterior insula is anxiogenic, suggesting a direct link between insular dopamine signaling and anxiety-related behaviors. (2) Using fiber-photometry, we identified that the amplitude of dopamine release onto D1+ neurons in the anterior insula while mice were in anxiogenic spaces or receiving mild foot shocks was both positively correlated with mice level of trait anxiety. (3) Finally, population dynamics and deep-learning analyses of anterior insula single-unit recordings uncovered distinct coding patterns of anxiety-provoking and safe environments, as well as tastants of positive and negative valence. Remarkably, systemic D1 activation, which heightens anxiety-related behaviors, dampens this coding dichotomy by increasing coding variability for protected spaces while increasing the coding specificity for anxiogenic spaces. Interestingly, the coding reliability of anxiogenic areas was positively correlated with mice level of trait anxiety, and we observed a trend towards a positive correlation between the coding reliability of a negative tastants, and mice level of anxiety.Altogether, our findings provide a new model of neural population coding of anxiety and emotional valence and unravel D1-dependent coding mechanisms in the mouse anterior insula
APA, Harvard, Vancouver, ISO, and other styles
13

Pandi, Amir. "Synthetic Metabolic Circuits for Bioproduction, Biosensing and Biocomputation." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS331.

Full text
Abstract:
La biologie synthétique est le domaine de la bioingénierie permettant de concevoir, de construire et de tester de nouveaux systèmes biologiques en réécrire le code génétique. Les circuits biologiques synthétiques sont des outils sophistiqués permettant de construire des réseaux biologiques pour des applications médicales, industrielles et environnementales. Cette thèse de doctorat porte sur le développement de voies métaboliques synthétiques conçues à l'aide d'outils informatiques. Ces voies métaboliques sont intégrées à la couche de régulation transcriptionnelle pour développer des biocircuits pour la bioproduction, la biodétection et la biocalcul dans des systèmes cellulaires et acellulaires. Les résultats obtenus durant cette thèse de doctorat révèlent le nouveau potentiel des voies métaboliques dans l'établissement de biocircuits synthétiques. Le volet bioproduction-biodétection de la thèse vise à développer un nouveau biocapteur pour un sucre rare utilisé pour améliorer l'activité catalytique d’enzyme dans la cellule (in vivo). Ce biocapteur a ensuite été implémenté dans un système acellulaire (in vitro) pour découvrir et optimiser le comportement de biocapteurs à base de répresseurs. Une fois optimisé en système acellulaire, notre biocapteur a été utilisé pour surveiller la production enzymatique de sucre rare. Le développement de biocapteurs procaryotes acellulaires, qui reposent principalement sur des répresseurs, permet d'accélérer et de rendre plus efficace le cycle “design-build-test” dans le prototypage des voies métaboliques dans les systèmes acellulaires. L'application de la biodétection des circuits métaboliques pour le diagnostic est la mise en œuvre et l'optimisation des transducteurs métaboliques dans le système acellulaire. Les transducteurs sont des voies métaboliques composées d'au moins une enzyme catalysant un métabolite indétectable en un inducteur transcriptionnel, augmentant ainsi le nombre de petites molécules biologiquement détectables. En tant que nouvelle approche pour effectuer des biocalculs, des circuits métaboliques ont été appliqués pour construire des additionneurs métaboliques et des perceptrons métaboliques. Dans la cellule, trois transducteurs métaboliques et un additionneur métabolique ont été construits et caractérisés. Les systèmes acellulaires permettent d’accélérer la caractérisation de circuits biologiques, de finement régler le niveau d’expression d’un ou plusieurs gènes et facilite l’expression de plusieurs plasmides simultanément. Ceci a permis de construire de multiples transducteurs pondérés et des additionneurs métaboliques. Le modèle basé sur des données expérimentales a permis de concevoir un perceptron métabolique pour construire des classificateurs binaires à quatre entrées. Les additionneurs, perceptrons et classificateurs peuvent être utilisés dans des applications avancées telles que la détection de précision et dans le développement de souches pour le génie métabolique ou la thérapeutique intelligente
Synthetic biology is the field of engineerable life science and technology to design-build-test novel biological systems through reprogramming the code of DNA. Synthetic biocircuits are sophisticated tools to reconstruct biological networks for medical, industrial, and environmental applications. This doctoral thesis focuses on the development of synthetic metabolic pathways designed by computer-aided tools integrated with the transcriptional regulatory layer enabling bioproduction, biosensing, and biocomputation in whole-cell and cell-free systems. The achievements of this doctoral thesis bring attention to new potentials of metabolic pathways in the development of synthetic biocircuits. The bioproduction-biosensing section of the thesis is to build a novel sensor for a rare sugar used to improve the catalytic activity of its producing enzyme in the whole-cell system (in vivo). This sensor was then implemented in a TX-TL cell-free system (in vitro) as a proof of concept of a repressor based biosensor to discover and optimize the behavior of repressor based biosensors in the cell-free system that suffer from low fold repression. The optimized cell-free biosensor was then used to monitor the enzymatic production of the rare sugar. The development of cell-free prokaryotic biosensors which are mostly relying on repressors enables faster and more efficient design-build-test cycle in metabolic pathways prototyping in cell-free systems. The biosensing application of the metabolic circuits for diagnosis is the implementation and optimization of cell-free metabolic transducers. The transducers are metabolic pathways composed of at least one enzyme catalyzing an undetectable metabolite to a transcriptional inducer, hence expanding the number of biologically detectable small molecules in cell-free systems. Finally, as a radical approach to perform biocomputation, metabolic circuits were applied to build metabolic adders and metabolic perceptrons. In whole-cell system, three metabolic transducers and a metabolic adder (multiple transducers receiving multiple input metabolites and transform them into a common metabolite) were built and characterized. By taking advantage of cell-free systems in rapid characterization, high tunability, and the possibility of using tightly controlled multiple DNA parts, multiple weighted transducers and metabolic adders were implemented. The integrated model trained on the experimental data enabled the designing of a metabolic perceptron for building four-input binary classifiers. The adders, perceptrons and classifiers can be applied in advanced applications such as multiplex detection/precision medicine and in the development of designer strains for metabolic engineering or smart therapeutics
APA, Harvard, Vancouver, ISO, and other styles
14

Ecoffet, Paul. "Evolution of cooperation with partner choice in collective adaptive systems." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS091.

Full text
Abstract:
L’évolution de la coopération est un paradoxe du point de vue de l’évolution. En effet, tous les individus du vivant devraient être intéressés uniquement par leurs propres intérêts. Aider un autre individu est donc une perte de temps et de ressources. Comment expliquer que certains individus agissent de manière coopérative ? Cette thèse s'intéresse au mécanisme de réciprocité nommé le choix du partenaire qui permet l'évolution de comportements coopératifs. Cependant, les contraintes nécessaires à l'évolution de ce mécanisme sont fortes et rarement respectées. Cette thèse vise à étendre les connaissances de ces contraintes grâce à des simulations dans des environnements complexes et réalistes. La première contribution de cette thèse étend les modèles de choix du partenaire préexistants en ajoutant la contrainte de la disponibilité de ressources dans l'environnement. Dans ce cas, ce n’est plus seulement la densité de la population, mais aussi la richesse de l’environnement qui influence le choix du partenaire. Dans notre seconde contribution, nous étendons les résultats obtenus par les modèles aspatiaux. Nous étudions l’impact des environnements spatiaux sur la dynamique de la coopération avec le choix du partenaire. Le choix du partenaire requiert des individus de pouvoir apprendre à partir d'évènements rares. Dans notre troisième contribution, nous comparons la tolérance à la rareté des récompenses d'un algorithme d’apprentissage de renforcement et d'un algorithme de stratégie évolutive. Nos travaux montrent l’immense difficulté que les algorithmes d’apprentissage par renforcement ont à développer le choix du partenaire, au contraire des stratégies évolutionnaires
The evolution of cooperation is a paradox from an evolutionary point of view. Indeed, all individuals in the living world should be interested only in their own interests. Helping another individual is therefore a waste of time and resources. How can we explain that some individuals act in a cooperative way? This thesis focuses on the mechanism of reciprocity named partner choice that allows the evolution of cooperative behavior. However, the constraints necessary for the evolution of this mechanism are strong and rarely respected. This thesis aims at extending the knowledge of these constraints through simulations in complex and realistic environments. The first contribution of this thesis extends the pre-existing partner choice models by adding the constraint of resource availability in the environment. In this case, it is no longer only the population density, but also the wealth of the environment that influences partner choice. In our second contribution, we extend the results obtained by the aspatial models. We study the impact of spatial environments on the dynamics of cooperation with partner choice. Partner choice requires individuals to be able to learn from rare events. In our third contribution, we compare the reward sparsity tolerance of a reinforcement learning algorithm and an evolutionary strategy algorithm. Our work shows the immense difficulty that reinforcement learning algorithms have in developing partner choice, unlike evolutionary strategies
APA, Harvard, Vancouver, ISO, and other styles
15

Le, Rochais Marion. "Cancer colorectal : apport pronostique de l’étude pathomique du microenvironnement tumoral. Focus sur les structures lymphoïdes tertiaires." Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0044.

Full text
Abstract:
Le cancer colorectal est devenu un défi majeur pour les systèmes de santé en raison de sa prévalence croissante et de son impact sur la qualité de vie des patients. L'analyse anatomopathologique des prélèvements de cancer colorectal, désormais enrichie de données de pathologie moléculaire, est cruciale pour orienter le traitement des patients. Malgré les avancées dans les outils pronostiques et les traitements, les interactions entre les cellules tumorales et immunitaires du microenvironnement tumoral ne sont souvent pas évaluées de manière exhaustive en pratique diagnostique quotidienne. Cette thèse aborde l'importance de l’étude du microenvironnement tumoral dans le cancer colorectal et notamment la nécessité de mieux comprendre le rôle de structures y résidant, les structures lymphoïdes tertiaires (TLS). Les nouvelles techniques telles que la pathologie digitale et l'immunomarquage multiplexe offrent des perspectives pour une analyse plus approfondie et accessible de ce microenvironnement. Ce travail de thèse s’est donc intéressé à caractériser les TLS par imagerie multiplexe, développer des stratégies d'analyse pathomique et explorer leurs corrélations cliniques pour proposer un score utilisable en routine clinique. Ce travail vise à fournir des critères diagnostiques et pronostiques robustes, implémentables dans les services numérisés de pathologie pour guider les décisions thérapeutiques dans le cancer colorectal, contribuant ainsi à une meilleure prise en charge des patients
Colorectal cancer has become a major challenge for healthcare systems today due to its increasing prevalence and its impact on patients' quality of life. The anatomopathological analysis of colorectal cancer specimens, now enriched with molecular pathology data, is crucial for guiding patient treatment. However, despite advances in prognostic tools and treatments, interactions between tumor and immune cells in the tumor microenvironment are often not thoroughly evaluated in daily diagnostic practice. This thesis addresses the importance of studying the tumor microenvironment in colorectal cancer, particularly the need to better understand the role of residing structures, tertiary lymphoid structures (TLS). New techniques such as digital pathology and multiplex immunostaining offer perspectives for a more in-depth and accessible analysis of this microenvironment. Therefore, this thesis focused on characterizing TLS through multiplex imaging, developing pathomic analysis strategies, and exploring their clinical correlations to propose a clinically applicable score. This work aims to provide robust diagnostic and prognostic criteria, implementable in digitized pathology services to guide therapeutic decisions in colorectal cancer, thereby contributing to better patient management
APA, Harvard, Vancouver, ISO, and other styles
16

Jalabert, Fabien. "Cartographie des connaissances : l'intégration et la visualisation au service de la biologie : application à l'ingénierie des connaissances et à l'analyse de données d'expression de gènes." Phd thesis, Montpellier 2, 2007. http://www.theses.fr/2007MON20172.

Full text
Abstract:
Ce mémoire s'inscrit dans un axe stratégique du groupement des Ecoles des Mines : GEMBIO. Dans ce contexte, plusieurs collaborations ont été initiées, notamment avec des chercheurs de l'Institut Pasteur de Paris, de l'Inserm/Hôpitaux de Paris, et du CEA dans le cadre du programme ToxNuc-e. De ces échanges, est née notre problématique. Plus d'un millier de bases de données biologiques sont disponibles en ligne. Leur exploitation et le croisement de leurs contenus entraînent souvent ce constat des chercheurs biologistes : « J'ai souvent une vingtaine de fenêtres ouvertes sur mon écran : je m'y perds ». Souvent l'analyse et le croisement des données est fait par simple copier-coller dans un tableur. Si l'intégration de données à apporté des solutions ponctuelles à des problèmes particuliers, elle ne propose pas pour autant une réponse concrète à la multiplicité des fenêtres pour l'utilisateur, à la surcharge d'information, et à la difficulté de croiser l'information provenant de plusieurs sources hétérogènes. Nous proposons un environnement de cartographie des connaissances biologiques qui facilite l'intégration et la visualisation des données biologiques. Basé sur un métamodèle simple de graphe, I²DEE (Integrated and Interactive Data Exploration Environment) se veut souple et extensible afin de répondre aux besoins des différentes approches existantes de l'intégration. Il permet un accès homogène aux principales ressources biologiques et son adaptabilité offre des réponses visuelles personnalisées à des tâches spécifiques. Après une analyse des besoins des chercheurs biologistes et l'identification des problématiques de traitement de l'information sous-jacentes, un état de l'art de l'intégration de données hétérogènes est présenté. L'approche proposée reprend les principes existants en architecture des IHM et en cartographie géographique. L'environnement I2DEE est alors présenté à partir de son architecture et son métamodèle. Deux modules de l'environnement sont détaillés : l'entrepôt de données biologiques et la boîte à outils graphique permettant de construire rapidement des applications adaptées. Des résultats ont été obtenus dans deux contextes applicatifs distincts : l'ingénierie terminologique et ontologique, et l'analyse de données d'expression de gènes issues de puces à ADN. Ils sont discutés et analysés en regard des objectifs initialement fixés.
APA, Harvard, Vancouver, ISO, and other styles
17

Loiselle, Stéphane. "Traitement bio-inspiré de la parole pour système de reconnaissance vocale." Thèse, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/1952.

Full text
Abstract:
Cette thèse présente un traitement inspiré du fonctionnement du système auditif pour améliorer la reconnaissance vocale. Pour y parvenir, le signal de la parole est filtré par un banc de filtres et compressé pour en produire une représentation auditive. L'innovation de l'approche proposée se situe dans l'extraction des éléments acoustiques (formants, transitions et onsets ) à partir de la représentation obtenue. En effet, une combinaison de détecteurs composés de neurones à décharges permet de révéler la présence de ces éléments et génère ainsi une séquence d'événements pour caractériser le contenu du signal. Dans le but d'évaluer la performance du traitement présenté, la séquence d'événements est adaptée à un système de reconnaissance vocale conventionnel, pour une tâche de reconnaissance de chiffres isolés prononcés en anglais. Pour ces tests, la séquence d'événements agit alors comme une sélection de trames automatique pour la génération des observations (coefficients cepstraux). En comparant les résultats de la reconnaissance du prototype et du système de reconnaissance original, on remarque que les deux systèmes reconnaissent très bien les chiffres prononcés dans des conditions optimales et que le système original est légèrement plus performant. Par contre, la différence observée au niveau des taux de reconnaissance diminue lorsqu'une réverbération vient affecter les données à reconnaître et les performances de l'approche proposée parviennent à dépasser celles du système de référence. De plus, la sélection de trames automatique offre de meilleures performances dans des conditions bruitées. Enfin, l'approche proposée se base sur des caractéristiques dans le temps en fonction de la nature du signal, permet une sélection plus intelligente des données qui se traduit en une parcimonie temporelle, présente un potentiel fort intéressant pour la reconnaissance vocale sous conditions adverses et utilise une détection des caractéristiques qui peut être utilisée comme séquence d'impulsions compatible avec les réseaux de neurones à décharges.
APA, Harvard, Vancouver, ISO, and other styles
18

Sicard, Gilles. "DDe la biologie au silicium : une retine bio-inspiree analogique pour un capteur de vision "intelligent" adaptatif." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0020.

Full text
Abstract:
Dans les systemes de traitement d'images, le capteur de vision est un composant de phototransduction dont le role est de convertir un signal lumineux en un signal electrique. L'evolution des technologies micro-electroniques permet actuellement d'integrer un ensemble de transistors autour de l'element photosensible. Ceci est le fondement architectural du capteur de vision intelligent qui associe phototransduction et traitement d'images dans le plan focal. Ce circuit est compose d'une matrice de cellules de traitement photosensibles ou pixels, interconnectes entre proches voisins, qui forment un reseau qui effectue des taches de vision precoce, dites aussi de bas-niveau. Notre reseau est inspire d'un modele electrique analogique de la retine des vertebres. Celui-ci est un filtre spatiotemporel analogue a celui releve en biologie. Il effectue une extraction de contours et une detection des objets en mouvement. Le pixel integre un systeme bio-inspire d'adaptation aux conditions lumineuses. En fonction de la luminosite moyenne, il optimise la phototransduction et adapte la fonction de transfert du filtre. Il en resulte une sensibilite aux contrastes amelioree et une robustesse au bruit accrue dans des conditions de faibles luminosites. Une matrice de 64 64 pixels a ete concue en technologie cmos 0. 5um. Ce capteur de vision analogique de 70mm#2 permet, en temps reel, une extraction de contours efficace et une detection de mouvement sur une large gamme de vitesse. Un circuit de test a permis de montrer l'apport de l'adaptation aux conditions lumineuses. Ces capteurs de vision, utilises dans une camera, montrent l'interet et l'efficacite de leur filtrage. Les interfaces de la matrice ont ete concus de maniere a faciliter l'emploi de ces circuits dans des systemes de vision artificielle. Cela permettra de mettre en evidence les avantages lies a leur utilisation dans des applications de teledetection, de reconnaissance de formes, de visiophonie, de conduite de robot
APA, Harvard, Vancouver, ISO, and other styles
19

Jalabert, Fabien. "Cartographie des connaissances : l'intégration et la visualisation au service de la biologie : application à l'ingénierie des connaissances et à l'analyse de données d'expression de gènes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00207602.

Full text
Abstract:
Ce mémoire s'inscrit dans un axe stratégique du groupement des Ecoles des Mines : GEMBIO. Dans ce contexte, plusieurs collaborations ont été initiées, notamment avec des chercheurs de l'Institut Pasteur de Paris, de l'Inserm/Hôpitaux de Paris, et du CEA dans le cadre du programme ToxNuc-e. De ces échanges, est née notre problématique. Plus d'un millier de bases de données biologiques sont disponibles en ligne. Leur exploitation et le croisement de leurs contenus entraînent souvent ce constat des chercheurs biologistes : « J'ai souvent une vingtaine de fenêtres ouvertes sur mon écran : je m'y perds ». Souvent l'analyse et le croisement des données est fait par simple copier-coller dans un tableur. Si l'intégration de données à apporté des solutions ponctuelles à des problèmes particuliers, elle ne propose pas pour autant une réponse concrète à la multiplicité des fenêtres pour l'utilisateur, à la surcharge d'information, et à la difficulté de croiser l'information provenant de plusieurs sources hétérogènes. Nous proposons un environnement de cartographie des connaissances biologiques qui facilite l'intégration et la visualisation des données biologiques. Basé sur un métamodèle simple de graphe, I²DEE (Integrated and Interactive Data Exploration Environment) se veut souple et extensible afin de répondre aux besoins des différentes approches existantes de l'intégration. Il permet un accès homogène aux principales ressources biologiques et son adaptabilité offre des réponses visuelles personnalisées à des tâches spécifiques. Après une analyse des besoins des chercheurs biologistes et l'identification des problématiques de traitement de l'information sous-jacentes, un état de l'art de l'intégration de données hétérogènes est présenté. L'approche proposée reprend les principes existants en architecture des IHM et en cartographie géographique. L'environnement I2DEE est alors présenté à partir de son architecture et son métamodèle. Deux modules de l'environnement sont détaillés : l'entrepôt de données biologiques et la boîte à outils graphique permettant de construire rapidement des applications adaptées. Des résultats ont été obtenus dans deux contextes applicatifs distincts : l'ingénierie terminologique et ontologique, et l'analyse de données d'expression de gènes issues de puces à ADN. Ils sont discutés et analysés en regard des objectifs initialement fixés.
APA, Harvard, Vancouver, ISO, and other styles
20

Lodter, Christiane. "Intelligence artificielle en orthodontie (ODONTEL*)." Toulouse 3, 1990. http://www.theses.fr/1990TOU30206.

Full text
Abstract:
Ce memoire presente un systeme-expert d'aide au diagnostic en orthodontie accessible par minitel: odontel*. La premiere partie de l'ouvrage est une presentation a l'usage des odontologistes de l'intelligence artificielle: principes, caracteristiques. La methodologie systeme-expert est ensuite abordee. Odontel* est decrit dans la seconde partie: buts, modalites d'acces, conditions de realisation et fondementes orthodontiques puis validation
APA, Harvard, Vancouver, ISO, and other styles
21

Nguyen, Hoai-Tuong. "Réseaux bayésiens et apprentissage ensembliste pour l'étude différentielle de réseaux de régulation génétique." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00675310.

Full text
Abstract:
Dans les dernières années, les réseaux Bayésiens (RB) sont devenus l'une des méthodes d'apprentissage automatique les plus puissantes permettant de modéliser graphiquement et de manière probabiliste différentes types de systèmes complexes. Un des problèmes communs dans l'apprentissage de la structure des RB est le problème des données de petites tailles. En effet, le résultat de l'apprentissage est sensible au nombre d'échantillons de données. En apprentissage automatique, les méthodes d'apprentissage ensemblistes telles que le bootstrap ou les algorithmes génétiques sont des méthodes souvent utilisées pour traiter le problème de la pauvreté de données. Toutefois, les méthodes existantes se limitent généralement à la fusion d'un ensemble de modèles, mais ne permettent pas de comparer deux ensembles de modèles. Inspiré par les résultats obtenus par les méthodes ensemblistes, nous proposons une nouvelle méthode basée sur le graphe quasi-essentiel (QEG - Quasi-Essential Graph) et l'utilisation d'un test multiple afin de comparer deux ensembles de RB. Le QEG permet de résumer et de visualiser graphiquement un ensemble de RB. Le test multiple permet de vérifier si les différences entre les deux ensembles de RB sont statistiquement significatives et de déterminer la position de ces différences. L'application sur des données synthétiques et expérimentales a démontré les différents intérêts de la méthode proposée dans la reconstruction des réseaux de régulation génétique et perspectivement dans les autres applications avec les données de petites tailles.
APA, Harvard, Vancouver, ISO, and other styles
22

Lales, Charles. "Modélisation gros grains et simulation multi-agents - Application à la membrane interne mitochondriale." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00452853.

Full text
Abstract:
Cette thèse porte sur la modélisation de la membrane interne mitochondriale et des complexes enzymatiques de la chaîne respiratoire imbriqués dans cette bicouche phospholipidique. Une alternative aux techniques de la mécanique moléculaire qui représentent les objets biologiques au niveau atomique sont les modèles à grains d'atomes, ou modèles « gros grains », qui offrent la possibilité d'étudier les phénomènes biologiques à des échelles de temps de l'ordre du dixième de microseconde et d'espace de l'ordre du dixième de micromètre, ce qui correspond à des valeurs beaucoup plus proches de celles nécessaires pour l'étude de phénomènes comme la formation de replis de la membrane. Le modèle proposé représente les phospholipides, constituants de la membrane, sous la forme de trimères rigides rectilignes avec un solvant implicitement modélisé. Ce modèle gros grains donne lieu à une conception orientée agent qui est implémentée sous la forme d'un Système Multi-Agents (SMA) appelé MitoMAS. Des différentes simulations réalisées avec MitoMAS, nous pouvons retenir que l'hydrophobie des phospholipides peut être modélisée avec un solvant implicite comme l'atteste l'apparition de micelles à partir d'une mixture initiale. Une distance de coupure (« cutoff » ) pour les potentiels intermoléculaires d'1nm se révèle être un bon compromis entre réalisme et efficacité des simulations. Sous certaines contraintes de pression latérale, les bicouches forment des replis semblables à ceux de la membrane interne. Les simulations de systèmes hétérogènes nous ont permis de retrouver les observations de radeaux (portions membranaires constituées d'un seul type de phospholipide) et celles de systèmes mixtes phospholipides/protéines, le confinement des complexes intramembranaires dans les replis de la bicouche lipidique. Les perspectives sont nombreuses. Outre l'exploration « in silico » de nouveaux potentiels et de leurs paramètres, il est possible d'envisager des modèles mixtes type gros grains / surfaces maillées afin d'étudier l'interactome d'une cellule.
APA, Harvard, Vancouver, ISO, and other styles
23

Bessière, Christian. "Systèmes à contraintes évolutifs en intelligence artificielle." Montpellier 2, 1992. http://www.theses.fr/1992MON20166.

Full text
Abstract:
La premiere partie de cette these constitue un petit rappel des principales methodes de resolution des problemes de satisfaction de contraintes (csp). Dans la deuxieme partie, apres une definition des csp dynamiques (necessaires dans tous les systemes evolutifs qui utilisent les csp), deux algorithmes de maintien de l'arc-consistance dans un csp dynamique sont proposees. La troisieme partie presente les systemes de maintenance de la verite (tms) et notamment ceux bases sur la logique des propositions. Un codage de tms en psq dynamique est donne et l'equivalence entre deduction simple dans un tms (methode la plus utilisee) et arc-consistance dans le codage en csp est montree. Un algorithme de deduction plus performant est fourni, qui utilise une methode de filtrage des csp. La derniere partie propose un codage de toute formule booleenne en csp binaire (contraintes portant sur deux variables) pour essayer de trouver de nouvelles classes polynomiales en calcul propositionnel en projetant celles connues sur les csp binaires
APA, Harvard, Vancouver, ISO, and other styles
24

Machrouh, Joseph. "Perception attentive et vision en intelligence artificielle." Paris 11, 2002. http://www.theses.fr/2002PA112301.

Full text
Abstract:
Le travail présenté dans cette thèse s'inscrit dans la problématique du développement d'agents logiciels dotés de capacités perceptives. Munir de tels systèmes de capacités exploratoires suppose dans un premier temps la détermination des points d'intérêt de la scène visuelle. Afin de pouvoir se déplacer dans la scène, on distinguera les traitements en champ large et basse résolution des traitements focaux en haute résolution. On sépare ainsi la phase d'exploration associée à la recherche des points d'intérêt de la phase d'exploitation associée à la reconnaissance. Les points d'intérêt retenus sont constitués de maxima d'énergie calculés à l'aide de filtres en ondelettes couvrant une gamme d'orientations et de fréquences spatiales. Les plus basses fréquences sont utilisées pour déterminer les saillances périphériques. Nous montrons que les axes d'une Analyse en Composantes Principales (ACP) d'un échantillon représentatif de scènes naturelles constituent un système de projection permettant de catégoriser les points d'intérêt d'une scène quelconque. Ce système dispose ainsi de plusieurs points de vue de la scène aptes à guider ses mécanismes attentionnels. L'énergie de ces points d'intérêt selon différentes orientations et fréquences spatiales est alors utilisée pour les indexer. Nous avons montré que les composantes de basse fréquence de cette représentation indexée sont suffisantes pour biaiser les saillances de la scène en faveur de cibles similaires aux représentations mémorisées et assez robustes pour conserver cette propriété dans une séquence vidéo soumise à de fortes variations de contraste. Nous démontrons ainsi que des points d'intérêt fondés sur une analyse fréquentielle multi-échelle peuvent être utilisés pour contrôler des saccades exploratoires par un mécanisme ascendant; la part basse fréquence d'une telle représentation peut contrôler de façon descendante des saccades guidées par la cible recherchée
The work presented in this thesis deals with the development of software agents endowed with perceptive capacities. To provide such a system with exploratory capacities supposes the determination of interest points in the scene. In order to be able to move in the image, one will distinguish a low-resolution wide field processing and a high resolution focal processing. One thus separates the exploration phase associated to the search of interest points from the exploitation phase associated to recognition recognition. The selected points consist of energy maxima computed using wavelet filters covering a range of orientations and frequencies. The low frequencies are used to determine the peripheral saliency. Principal Component Analysis (PCA) projection system was computed from a representative sample of natural scenes. This system was used to categorize the interest points of an unspecified scene. The system thus can use several points of view to guide its attentionnal mechanisms. The energy of these interest points according to various orientations and space frequencies is then used to index them. We showed that the low frequency components of this indexed representation are sufficient to bias the saliency of the scene in favor of targets similar to the representations memorized. They are also sufficiently robust to preserve this property in a video sequence subject to strong contrast variations. We showed as well that interest points based on a multi-scale frequency analysis can be used to control exploratory saccades by using a bottom-up mechanism; the low frequency part of such a representation can be used to control the saccades required to attain the target in a top-down way
APA, Harvard, Vancouver, ISO, and other styles
25

Cornu, Philippe. "Logiques et sciences cognitives en intelligence artificielle." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37604052k.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Helft, Nicolas. "L'Induction en intelligence artificielle théorie et algorithmes /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376141929.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Alliche, Abderrahmane Redha. "Contrôle du réseau cloud basé intelligence artificielle." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4022.

Full text
Abstract:
L'explosion du nombre d'utilisateurs d'Internet et du volume de trafic constitue un défi majeur pour la gestion efficace des réseaux de diffusion de contenu (CDN). Bien que ces réseaux aient amélioré leur temps de réponse en exploitant la mise en cache dans des serveurs cloud proches des utilisateurs, les services non mis en cache continuent de poser des problèmes de gestion de trafic. Pour répondre à cette problématique, les réseaux overlay cloud ont émergé, mais ils introduisent des complexités telles que les violations d'inégalités triangulaires (TIV). Dans ce contexte, l'application du paradigme des réseaux à définition logicielle (SDN) combinée aux techniques d'apprentissage par renforcement profond (DRL) offre une opportunité prometteuse pour s'adapter en temps réel aux fluctuations de l'environnement. Face à l'augmentation constante du nombre de serveurs edge, les solutions distribuées de DRL, notamment les modèles d'apprentissage par renforcement profond multi-agent (MA-DRL), deviennent cruciales. Cependant, ces modèles rencontrent des défis non résolus tels que l'absence de simulateurs réseau réalistes, le surcoût de communication entre agents et la convergence et stabilité.Cette thèse se concentre donc sur l'exploration des méthodes MA-DRL pour le routage de paquets dans les réseaux overlay cloud. Elle propose des solutions pour relever ces défis, notamment le développement de simulateurs de réseau réalistes, l'étude du surcoût de communication et la conception d'une solution MA-DRL adaptée aux réseaux overlay cloud. L'accent est mis sur le compromis entre la performance et la quantité d'information partagée entre les agents, ainsi que sur la convergence et la stabilité durant l'entraînement
The exponential growth of Internet traffic in recent decades has prompted the emergence of Content Delivery Networks (CDNs) as a solution for managing high traffic volumes through data caching in cloud servers located near end-users. However, challenges persist, particularly for non-cacheable services, necessitating the use of cloud overlay networks. Due to a lack of knowledge about the underlay network, cloud overlay networks introduce complexities such as Triangle inequality violations (TIV) and dynamic traffic routing challenges.Leveraging the Software Defined Networks (SDN) paradigm, Deep Reinforcement Learning (DRL) techniques offer the possibility to exploit collected data to better adapt to network changes. Furthermore, the increase of cloud edge servers presents scalability challenges, motivating the exploration of Multi-Agent DRL (MA-DRL) solutions. Despite its suitability for the distributed packet routing problem in cloud overlay networks, MA-DRL faces non-addressed challenges such as the need for realistic network simulators, handling communication overhead, and addressing the multi-objective nature of the routing problem.This Ph.D. thesis delves into the realm of distributed Multi-Agent Deep Reinforcement Learning (MA-DRL) methods, specifically targeting the Distributed Packet Routing problem in cloud overlay networks. Throughout the thesis, we address these challenges by developing realistic network simulators, studying communication overhead in the non-overlay general setting, and proposing a distributed MA-DRL framework tailored to cloud overlay networks, focusing on communication overhead, convergence, and model stability
APA, Harvard, Vancouver, ISO, and other styles
28

Guérin, Marianne Penit. "Intelligence artificielle et électrophysiologie sensorielle oculaire : Pantops PC." Clermont-Ferrand 1, 1987. http://www.theses.fr/1987CLF11037.

Full text
Abstract:
La première partie, après un rappel historique sur l’ électro-physiologie sensorielle oculaire, est consacrée à la présentation du Pantops PC, nouvel appareil de recueil articulé autour d’ un micro-ordinateur. Le Pantops PC est caractérisé par sa convivialité et son évolutivité. Tous les paramètres d’ examen sont modifiables à volonté par des manipulations simples. La deuxième partie concerne, après un chapitre sur l’ intelligence artificielle et les systèmes experts, la présentation d’ un système expert d’ aide au diagnostic en électrophysiologie, mis au point dans le service d’ ophtalmologie de Clermont-Ferrand. Il consiste, dans le cadre d’ un auto-enseignement, à aider l’ ophtalmologiste à interpréter les examens électrophysiologiques. L’ auteur décrit ses caractéristiques, analyse ses avantages et inconvénients et trace les perspectives qu’ il pourrait ouvrir à l’ intelligence artificielle en électrophysiologie sensorielle oculaire.
APA, Harvard, Vancouver, ISO, and other styles
29

El, Alam Iyad. "Management des compétences : nouvelles technologies et intelligence artificielle." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX32077.

Full text
Abstract:
Ravail porte sur la modélisation systémique et mathématique des problèmes d'ajustement des Compétences, tant dans les approches classiques que furent les modèles de la Recherche Opérationnelle, que selon de nouveaux points de vue découlant de l'Intelligence Artificielle et des réseaux neuronaux. Cette modélisation est faite dans le cadre d'un Système décisionnel d’évaluation et d’adéquation des compétences par les apports de la modélisation des micros et des macros compétences. Le contexte de l'intelligence artificielle dans lequel nous nous mettrons sera celui des réseaux neuronaux multicouches et de ceux que l'on appelle 'Fuzzy ART' dans le but de proposer un système que nous avons appelé le MARC (Modèle d’Adéquation et de Recherche de Compétences). Les domaines d'application seront surtout ceux des grandes organisations demandant des personnels en grand nombre et pouvant changer fréquemment d'affectation. Le postulat de cette étude vise à montrer qu'il est possible d'envisager une amélioration des décisions des responsables de Ressources Humaines ou des Responsables Opérationnels par une meilleure exploitation des informations liées aux compétences. Ceci est évidemment l'un des facteurs à placer au cœur des nouvelles problématiques stratégiques liées aux compétences et aux formations
The study focuses on the systemic and mathematical modelisation of the skills adjustment problems, both in the classical approaches of operational research models and in new viewpoints stemming from neural networks and artificial intelligence. This modelisation is conducted within the framework of a decision support system of evaluation and skills match through the contribution of the modelisation of micro- and macro-competencies. The context of artificial intelligence will be that of multilayer neural networks, and of the so-called Fuzzy ART, with the aim of proposing a system which we have called CRMM (Competencies Research Matching Model). The system will be implemented in large-sized organizations in need of large numbers of personnel subject to frequent post changes. The assumption on which this study is based tends to demonstrate the possibility to improve the decision-making of human resources or operational managers through a better exploitation of competency-related data. This factor should obviously be placed at the core of new strategic problematics linked to competencies and training
APA, Harvard, Vancouver, ISO, and other styles
30

Pouget, Jonathan. "La réparation du dommage impliquant une intelligence artificielle." Thesis, Aix-Marseille, 2019. http://theses.univ-amu.fr.lama.univ-amu.fr/191212_POUGET_871qcngtj900zlfid640gfeuf393zytl_TH.pdf.

Full text
Abstract:
Le droit positif de la responsabilité civile ainsi que les solutions actuelles d’indemnisation des victimes permettent-ils une réparation adéquate des dommages causés, directement ou non, par une intelligence artificielle ? Cette thèse dessine les contours d'une réponse négative sans pour autant prôner un bouleversement du droit positif. Elle tend à démontrer à la fois la nécessité d'interprétation du droit de la responsabilité civile et du droit des assurances, et la nécessité d'évolution d'une partie du droit de la responsabilité civile et des contrats d'assurance de responsabilité. La piste d'une personnalité juridique aux fonctions encadrées et attribuable aux intelligences artificielles sera également à ces fins, étudiée
Do the current tort law and insurance law allow an adequate compensation for the damage caused, directly or indirectly, by anartificial intelligence? Firstly, this thesis demonstrates that tort law and insurance law need to be interprated. Secondly, it demonstrates that a part of tort law and insurance contracts have to evolve. The track of a legal personhood with supervised functions and attributable to artificial intelligences will also be studied for these purposes
APA, Harvard, Vancouver, ISO, and other styles
31

Le, Gauffre Pascal. "Méthodologie de conception et intelligence artificielle en bâtiment." Lyon, INSA, 1988. http://www.theses.fr/1988ISAL0045.

Full text
Abstract:
La thèse présentée porte sur l'aide à la conception des bâtiments d'habitation et l'apport des techniques de l’intelligence Artificielle. Une première partie est consacrée à l'étude de fondements conceptuels pour une e. A. O. -Bâtiment et renvoie aux paradigmes du Système de Traitement de l'Information (S. T. I. ) et de la Modélisation Systémique. L'activité de conception y est posée comme activité de modélisation et de formulation (+ résolution) de problèmes par une équipe de concepteurs. L'apport des techniques de l'Intelligence Artificielle est alors envisagé d'une part pour ce qui concerne la représentation multi-points de vue du projet de bâtiment, d’autre part pour ce qui concerne les processus de construction et de résolution de problèmes. Une seconde partie est consacrée à la présentation du logiciel DEDAL, maquette de système multi-expert d'aide à la construction et à la résolution de problèmes. Quatre sous-systèmes du logiciel sont successivement étudiés : un module de représentation systémique du projet de bâtiment, un module pour l'élaboration d'une stratégie de modification du projet, un module pour la construction d’un problème multicritère extrait du problème global et un module de résolution du problème construit. Enfin, une troisième partie regroupe un exemple d'utilisation l’expérimentation du logiciel DEDALE, et la présentation des perspectives envisagées pour l'outil en tant que tel et pour l'approche employée pour son élaboration
Research on Computer Aided Design requires a double conceptual base. On the one hand, we have to represent what is the design process, on the other hand we have to define the possible and desirable contributions of the computer in this design process. The works presented deal with Computer Aided Building Design and the contribution of Artificial Intelligence techniques. The first part of this report is dedicated to the study of conceptual bases for Computer Aided Building Design and refers to Information Processing System theory as well as to systems modelisation. The design process is regarded as a modelling activity and as a problem setting (and solving). Process. The contribution of Artificial Intelligence techniques is therefore considered for the representation of the different expert considerations on the building project and for the construction and the resolution of problems. In the second part of the report we present a prototype of an expert system, called DEDALE, dedicated to the four following tasks : 1- Modelisation of the building project, 2- Selection of a strategy for modifications, 3- Construction of a restricted multi criteria problem (according to the strategy), 4- Management of the resolution process. Finally, a third part is devoted to a presentation of an experiment of the DEDALE system, and to a presentation of future prospects of this tool and of the approach used to elaborate it
APA, Harvard, Vancouver, ISO, and other styles
32

Helft, Nicolas. "L' Induction en intelligence artificielle : théorie et algorithmes." Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX22044.

Full text
Abstract:
Le probleme de l'induction est aborde a partir de "premiers principes": etant donnee une connaissance supposee etre representative d'un certain domaine, on se pose le probleme de trouver toutes les hypotheses pouvant etre raisonnablement conjecturees. En d'autres termes, le probleme est de definir et calculer ce qui peut, a l'oppose de ce qui doit etre conjecture
APA, Harvard, Vancouver, ISO, and other styles
33

Durand, Stéphane. "Représentation des points de vues multiples dans une situation d'urgence : une modélisation par organisations d'agents." Le Havre, 1999. http://www.theses.fr/1999LEHA0005.

Full text
Abstract:
Les systèmes d'information et de communication (SIC) sont des systèmes informatisés qui regroupent et fournissent des renseignements et des informations sur une situation d'urgence en cours de développement aux acteurs décisionnels qui doivent la gérer. L'approche factuelle classique n'est pas suffisante pour gérer correctement les de telles situations. Nous proposons donc une approche basée sur l'interprétation artificielle des messages échanges par ces acteurs grâce à la couche communicationnelle d'un SIC. Cette approche permet non seulement de transmettre fidèlement les informations factuelles des messages, mais aussi la prise en compte d'une partie de leurs informations subjectives. Elle permet aussi de monter les points de vue conflictuels entre les acteurs décisionnels en fonction des messages échangés et la gestion de connaissances contradictoires. Pour cela, nous proposons un modèle de la couche communicationnelle d'un SIC incluant la base d'un système d'interprétation des messages. Ce modèle utilise systématiquement le paradigme agent. Il comprend des organisations d'agents, appelées organisations aspectuelles qui reifient les aspects de la situation exprimés dans leurs messages par les acteurs. Ces messages sont enrichis par le système et replacés dans leur contexte communicationnel.
APA, Harvard, Vancouver, ISO, and other styles
34

Imbert, Jean-Louis. "Simplification des systèmes de contraintes numériques linéaires." Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX22022.

Full text
Abstract:
Presentation d'un algorithme qui, a partir d'un systeme de contraintes numeriques lineaires s et d'un ensemble de variables v, calcule un systeme de contraintes lineaires s' ne faisant intervenir que des variables de v, et dont les solutions sont exactement les projections sur v, des solutions du systeme initial. Cet algorithme est constitue principalement de deux sous algorithmes. Le permier, qui est lineaire, simplifie le sous systeme des equations. Le second, vbase sur l'elimination de fourier-motzkin, simplifie le sous systeme des inequations
APA, Harvard, Vancouver, ISO, and other styles
35

Venturini, Gilles. "Apprentissage adaptatif et apprentissage supervise par algorithme genetique." Paris 11, 1994. http://www.theses.fr/1994PA112016.

Full text
Abstract:
Dans cette these, nous nous sommes interesses d'une part a un probleme de controle en robotique et en automatique caracterise par des variations imprevues dans les modeles du robot et de son environnement, et d'autre part a un probleme d'apprentissage de regles a partir d'une base d'exemples comportant de nombreuses valeurs inconnues. Pour ces deux problemes, nous avons utilise les algorithmes generiques, qui sont des procedures d'optimisation inspirees de la selection naturelle, en essayant de les rendre plus controlables de maniere a traiter des connaissances du domaine. Le premier algorithme elabore (agil) est une extension des systemes de regles genetiques qui apprend des regles de controle et adapte ces regles aux variations du systeme a controler. Il a ete teste sur des problemes simules. Le deuxieme algorithme (sia) s'inspire des principes de l'algorithme aq mais en utilisant un algorithme genetique comme mecanisme de recherche. Il traite les valeurs inconnues sans essayer de les remplacer. Il a ete teste sur plusieurs bases de donnees et a ete applique a l'analyse d'un domaine judiciaire. Ces deux algorithmes utilisent des heuristiques explicites et peuvent traiter differents types de connaissances du domaine
APA, Harvard, Vancouver, ISO, and other styles
36

Ginsburger, Kévin. "Modeling and simulation of the diffusion MRI signal from human brain white matter to decode its microstructure and produce an anatomic atlas at high fields (3T)." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS158/document.

Full text
Abstract:
L'imagerie par résonance magnétique du processus de diffusion (IRMd) de l'eau dans le cerveau a connu un succès fulgurant au cours de la décennie passée pour cartographier les connexions cérébrales. C'est toujours aujourd'hui la seule technique d'investigation de la connectivité anatomique du cerveau humain in vivo. Mais depuis quelques années, il a été démontré que l'IRMd est également un outil unique de biopsie virtuelle in vivo en permettant de sonder la composition du parenchyme cérébral également in vivo. Toutefois, les modèles développés à l'heure actuelle (AxCaliber, ActiveAx, CHARMED) reposent uniquement sur la modélisation des membranes axonales à l'aide de géométries cylindriques, et restent trop simplistes pour rendre compte précisément de l'ultrastructure de la substance blanche et du processus de diffusion dans l’espace extra-axonal. Dans un premier temps, un modèle analytique plus réaliste de la substance blanche cérébrale tenant compte notamment de la dépendance temporelle du processus de diffusion dans le milieu extra-axonal a été développé. Un outil de décodage complexe permettant de résoudre le problème inverse visant à estimer les divers paramètres de la cytoarchitecture de la substance blanche à partir du signal IRMd a été mis en place en choisissant un schéma d'optimisation robuste pour l'estimation des paramètres. Dans un second temps, une approche Big Data a été conduite pour améliorer le décodage de la microstructure cérébrale. Un outil de création de tissus synthétiques réalistes de la matière blanche a été développé, permettant de générer très rapidement un grand nombre de voxels virtuels. Un outil de simulation ultra-rapide du processus de diffusion des particules d'eau dans ces voxels virtuels a ensuite été mis en place, permettant la génération de signaux IRMd synthétiques associés à chaque voxel du dictionnaire. Un dictionnaire de voxels virtuels contenant un grand nombre de configurations géométriques rencontrées dans la matière blanche cérébrale a ainsi été construit, faisant en particulier varier le degré de gonflement de la membrane axonale qui peut survenir comme conséquence de pathologies neurologiques telles que l’accident vasculaire cérébral. L'ensemble des signaux simulés associés aux configurations géométriques des voxels virtuels dont ils sont issus a ensuite été utilisé comme un jeu de données permettant l'entraînement d'un algorithme de machine learning pour décoder la microstructure de la matière blanche cérébrale à partir du signal IRMd et estimer le degré de gonflement axonal. Ce décodeur a montré des résultats de régression encourageants sur des données simulées inconnues, montrant le potentiel de l’approche computationnelle présentée pour cartographier la microstructure de tissus cérébraux sains et pathologiques in vivo. Les outils de simulation développés durant cette thèse permettront, en utilisant un algorithme de recalage difféomorphe de propagateurs de diffusion d’ensemble également développé dans le cadre de cette thèse, de construire un atlas probabiliste des paramètres microstructuraux des faisceaux de matière blanche
Diffusion Magnetic Resonance Imaging of water in the brain has proven very useful to establish a cartography of brain connections. It is the only in vivo modality to study anatomical connectivity. A few years ago, it has been shown that diffusion MRI is also a unique tool to perform virtual biopsy of cerebral tissues. However, most of current analytical models (AxCaliber, ActiveAx, CHARMED) employed for the estimation of white matter microstructure rely upon a basic modeling of white matter, with axons represented by simple cylinders and extra-axonal diffusion assumed to be Gaussian. First, a more physically plausible analytical model of the human brain white matter accounting for the time-dependence of the diffusion process in the extra-axonal space was developed for Oscillating Gradient Spin Echo (OGSE) sequence signals. A decoding tool enabling to solve the inverse problem of estimating the parameters of the white matter microstructure from the OGSE-weighted diffusion MRI signal was designed using a robust optimization scheme for parameter estimation. Second, a Big Data approach was designed to further improve the brain microstructure decoding. All the simulation tools necessary to construct computational models of brain tissues were developed in the frame of this thesis. An algorithm creating realistic white matter tissue numerical phantoms based on a spherical meshing of cell shapes was designed, enabling to generate a massive amount of virtual voxels in a computationally efficient way thanks to a GPU-based implementation. An ultra-fast simulation tool of the water molecules diffusion process in those virtual voxels was designed, enabling to generate synthetic diffusion MRI signal for each virtual voxel. A dictionary of virtual voxels containing a huge set of geometrical configurations present in white matter was built. This dictionary contained virtual voxels with varying degrees of axonal beading, a swelling of the axonal membrane which occurs after strokes and other pathologies. The set of synthetic signals and associated geometrical configurations of the corresponding voxels was used as a training data set for a machine learning algorithm designed to decode white matter microstructure from the diffusion MRI signal and estimate the degree of axonal beading. This decoder showed encouraging regression results on unknown simulated data, showing the potential of the presented approach to characterize the microstructure of healthy and injured brain tissues in vivo. The microstructure decoding tools developed during this thesis will in particular be used to characterize white matter tissue microstructural parameters (axonal density, mean axonal diameter, glial density, mean glial cells diameter, microvascular density ) in short and long bundles. The simulation tools developed in the frame of this thesis will enable the construction of a probabilistic atlas of the white matter bundles microstructural parameters, using a mean propagator based diffeomorphic registration tool also designed in the frame of this thesis to register each individual
APA, Harvard, Vancouver, ISO, and other styles
37

Pistilli, Giada. "Pour une éthique de l'intelligence artificielle conversationnelle." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUL038.

Full text
Abstract:
Cette recherche vise à sonder les complexités éthiques de l'intelligence artificielle (IA) conversationnelle, en se concentrant spécifiquement sur les grands modèles de langage et les agents conversationnels. Ce manuscrit construit un cadre qui allie l'analyse empirique au discours philosophique. Notre objectif est de plaider de toute urgence en faveur d'une structure éthique bien fondée pour l'IA conversationnelle, en soulignant la nécessité d'impliquer toutes les parties prenantes, des développeurs aux utilisateurs finaux. Tout d'abord, nous défendons l'intégration de l'ingénierie et d'autres disciplines scientifiques avec la philosophie, facilitant ainsi une compréhension plus nuancée des dimensions éthiques qui sous-tendent l'IA. Cette approche collaborative permet un discours éthique plus riche et mieux informé. Deuxièmement, nous préconisons l'utilisation dynamique de cadres éthiques appliqués en tant que guides fondamentaux pour la définition des objectifs initiaux d'un système d'IA. Ces cadres servent d'outils évolutifs qui s'adaptent aux complexités éthiques rencontrées au cours du développement et du déploiement. Enfin, sur la base d'une recherche pratique et interdisciplinaire, nous plaidons en faveur de la priorisation de l'IA étroite et spécifique à une tâche par rapport à l'intelligence artificielle générale, une position qui repose sur la faisabilité accrue de la surveillance éthique et de la contrôlabilité technique.Avec cette recherche, nous souhaitons contribuer à la littérature sur l'éthique de l'IA, en enrichissant le discours académique à la fois en philosophie et en informatique
This research aims to probe the ethical intricacies of conversational Artificial Intelligence (AI), specifically focusing on Large Language Models and conversational agents. This manuscript constructs a framework that melds empirical analysis with philosophical discourse. We aim to urgently advocate for a well-founded ethical structure for conversational AI, highlighting the necessity to involve all stakeholders, from developers to end-users. Firstly, we champion the integration of engineering and other scientific disciplines with philosophy, facilitating a more nuanced understanding of the ethical dimensions underpinning AI. This collaborative approach allows for a richer, more informed ethical discourse. Secondly, we advocate for the dynamic use of applied ethical frameworks as foundational guides for setting the initial objectives of an AI system. These frameworks serve as evolving tools that adapt to the ethical complexities encountered during development and deployment. Lastly, grounded in hands-on, interdisciplinary research, we make an argument for the prioritization of narrow, task-specific AI over Artificial General Intelligence, a stance that is based on the enhanced feasibility of ethical oversight and technical controllability.With this research, we aim to contribute to the literature on AI ethics, enriching the academic discourse in both philosophy and computer science
APA, Harvard, Vancouver, ISO, and other styles
38

Buche, Cédric Tisseau Jacques. "Un système tutoriel intelligent et adaptatif pour l'apprentissage de compétences en environnement virtuel de formation." [s.l.] : [s.n.], 2005. http://tel.ccsd.cnrs.fr/docs/00/05/23/77/PDF/rapportThese_CedricBuche.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Kyriazopoulos, Constantinos Greussay Patrick. "Une méthodologie cellulaire et multi-agents de conception architecturale évolutionniste An evolutionary supported multi agent system methodology for computer aided cellular architectural design] /." Saint-Denis : Université de Paris 8, 2009. http://www.bu.univ-paris8.fr/consult.php?url_these=theses/KyriazopoulosThese.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Ribas, Santos Eduardo. "Contribution au diagnostic qualitatif des procédés en intelligence artificielle." Vandoeuvre-les-Nancy, INPL, 1996. http://docnum.univ-lorraine.fr/public/INPL_T_1996_RIBAS_SANTOS_E.pdf.

Full text
Abstract:
L’objectif de la supervision des procédés est de surveiller le fonctionnement d'une unité afin d'assurer la réalisation des objectifs fixés, quels que soient les incidents et perturbations extérieures pouvant intervenir. Il est nécessaire d'avoir une vue générale afin d'être en mesure de réagir et de se focaliser sur les points clés. Dans cette thèse, nous proposons une modélisation de la connaissance du fonctionnement des procédés adaptée à la représentation généralement choisie par les spécialistes lors d'un problème donné: à l'aide d'un modèle complet du fonctionnement normal de l'unité, ils cherchent à trouver des fautes ou des combinaisons de fautes possibles. Les concepts proposés sont fondés sur une réflexion du processus d'acquisition de la connaissance qui permet au spécialiste de progresser dans l'analyse des activités en production. Ce processus inclut la formulation, à partir des modèles mathématiques contenant la description du comportement dynamique ou statique des systèmes, d'un modèle préliminaire, de telle manière qu'un spécialiste, pour améliorer ses connaissances, puisse s'appuyer sur celles composant un modèle crée par un autre spécialiste. Dans un premier temps, nous introduisons une méthodologie pour la définition des connaissances permettant au spécialiste (ou, en général, à un individu placé au sein d'une organisation industrielle) de mieux représenter formellement les descriptions de problèmes afin de reproduire ses raisonnements. Dans un deuxième temps, nous proposons une formulation pour la représentation de la connaissance et pour le diagnostic, ou la construction de la base de connaissances comprend des étapes résultant du processus d'acquisition de la connaissance qualitative. Les concepts sont illustrés par des procédés simples choisis dans le domaine du génie des procédés. Ainsi, le diagnostic qualitatif d'un réacteur idéal continu parfaitement agité est examiné en détail dans le cadre général précédemment étudié
APA, Harvard, Vancouver, ISO, and other styles
41

Tina, Yvan calvin. "Les théâtres artificiels : mise en scène, biotechnologie, intelligence artificielle." Thesis, Aix-Marseille, 2018. http://theses.univ-amu.fr.lama.univ-amu.fr/180316_TINA_197j265t589t189bgt_TH.pdf.

Full text
Abstract:
L’utilisation de l’intelligence artificielle et des biotechnologies dans l’art conduit à une reformulation des enjeux du théâtre comme « spectacle vivant ». Ces pratiques technoscientifiques déplacent l’objet de la performance et produisent du discours. Nous proposons dans cette étude de nous servir de leurs énoncés pour élargir le cadre de la théâtralité aux arts de la vie artificielle. En effet, les déplacements opérés au moyen de la théâtralité dans le champ artistique s’effectuent à la fois sur les oeuvres et dans le langage. À la lumière de ces opérations, nous faisons apparaître le potentiel transformateur de l’intégration de nouveaux matériaux dans l’esthétique théâtrale mais aussi les obstacles qui s’y trouvent. Prise entre les arts et les technosciences, l’analyse démontre que la théâtralité des oeuvres technologiques repose notamment sur l’artifice du langage
The use of artificial intelligence and biotechnology in art has led to a radical reformulation of theater as living performance. These technoscientific practices have displaced the subject of performance and produced various new discourses: In this study, I propose to make use of these discourses to expand the frame of theatricality to the realm of artificial life art. The displacements operated by means of theatricality in the artistic field are taking place both on the level of the artworks and the level of discourse. In light of such operations, we see the potential of transformation relying on the use of these materials in theatrical aesthetics, as well as the obstacles found in them. Taking place between the arts and the technosciences, the study proves that the theatricality of technological works relies on the artifice of language
APA, Harvard, Vancouver, ISO, and other styles
42

Raddaoui, Badran. "Contributions aux approches logiques de l'argumentation en intelligence artificielle." Thesis, Artois, 2013. http://www.theses.fr/2013ARTO0412/document.

Full text
Abstract:
Cette thèse se situe dans le domaine des modèles de l’argumentation en intelligence artificielle. Ces modèles constituent des outils très populaires pour l’étude de raisonnements en présence d’incohérences dans les bases de connaissances et lors de la négociation entre agents et la prise de décision. Un modèle argumentatif est un processus interactionnel principalement basé sur la construction d’arguments et de contre-arguments, l’étude des relations entre ces différents arguments et la mise en place de critères permettant de déterminer le statut de chaque argument afin de sélectionner les arguments (les plus) acceptables.Dans ce cadre, ce travail a porté sur l’étude d’un système particulier : le système d’argumentation déductif. Un argument est alors entendu comme un couple prémisses-conclusion tel que la conclusion soit une formule qui puisse être déduite des prémisses. Nous y avons traité plusieurs questions. Tout d’abord, partant du constat que le raisonnement par l’absurde est valide en logique propositionnelle classique, nous proposons une méthode de génération d’arguments en faveur d’une proposition donnée. Cette approche s’étend au calcul des undercuts canoniques, arguments identifiés comme représentant tous les contre-arguments. Contrairement aux autres approches proposées dans la littérature, notre technique est complète au sens où elle permet de générer, modulo une possible explosion combinatoire, tous les arguments relatifs à une formule logique quelconque. Ensuite, nous avons proposé un cadre d’argumentation en logique conditionnelle. Les logiques conditionnelles sont souvent considérées comme étant tout particulièrement adaptées à la formalisation de raisonnements de nature hypothétique. Leur connecteur conditionnel est en effet souvent plus proche de l’intuition que l’on peut avoir de l’implication que ne l’est l’implication matérielle de la logique propositionnelle classique. Ceci nous permet de proposer un concept de contrariété conditionnelle qui couvre à la fois les situations de conflits logiques fondés sur l’incohérence et une forme particulière de conflit qui ne se traduit pas naturellement par un conflit basé sur l’incohérence : quand un agent affirme une règle de type Si alors, une seconde règle qui peut en être déduite et qui impose la satisfaction de prémisses supplémentaires peut apparaître conflictuelle. Nous étudions alors sur cette base les principaux éléments d’une théorie de l’argumentation dans une logique conditionnelle. Enfin, le dernier point étudié dans ce travail concerne le raisonnement au sujet de ressources consommables, dans un cadre où les formules logiques sont elles mêmes consommées dans le processus déductif. Nous proposons une logique, simple et proche du langage et des principes de la logique propositionnelle classique, permettant le raisonnement à partir de ressources consommables et de quantité bornée. Nous y revisitons également les principaux éléments d’une théorie logique de l’argumentation
This thesis focus on the field of argumentation models in artificial intelligence. These models form very popular tools to study reasoning under inconsistency in knowledge bases, negotiation between agents, and also in decision making. An argumentative model is an interactional process mainly based on the construction of arguments and counter-arguments, then studying the relations between these arguments, and finally the introduction of some criteria to identifying the status of each argument in order to select the (most) acceptable of them.In this context, this work was dealt with the study of a particular system: the deductive argumentation framework. An argument is then understood as a pair premises-conclusion such that conclusion is a logical formula entailed by premises, a non-ordered collection of logical formulas. We have addressed several issues. First of all, on the basis that reductio ad absurdum is valid in classical propositional logic, we propose a method to compute arguments for a given statement. This approach is extended to generate canonical undercuts, arguments identified as the representative of all counter-arguments. Contrary to the other approaches proposed in the literature, our technique is complete in the sense that all arguments relative to the statement at hand are generated and so are all relevant counter-arguments. Secondly, we proposed a logic based argumentation in conditional logic. Conditional logic is often regarded as an appealing setting for the formalization of hypothetical reasoning. Their conditional connective is often regarded as a very suitable connective to encode many implicative reasoning patterns real-life and attempts to avoid some pitfalls of material implication of propositional logic. This allows us to put in light and encompass a concept of conditional contrariety thats covers both usual inconsistency-based conflict and a specific form of conflict that often occurs in real-life argumentation: i.e., when an agent asserts an If then rule, it can be argued that the satisfaction of additional conditions are required for the conclusion of a rule to hold. Then, in that case we study the main foundational concepts of an argumentation theory in conditional logic. Finally, the last point investigated in this work concerns the reasoning about bounded resources, within a framework in which logical formulas are themselves consumed in the deductive process. First, a simple variant of Boolean logic is introduced, allowing us to reason about consuming resources. Then, the main concepts of logic-based argumentation are revisited in this framework
APA, Harvard, Vancouver, ISO, and other styles
43

Guichard, Frédéric. "La réorganisation dynamique dans les systèmes multi-agents." Chambéry, 1998. http://www.theses.fr/1996CHAMS031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Julen, Nathalie. "Eléments pour une université virtuelle en médecine : le projet CARDIOLAB." Rennes 1, 2002. http://www.theses.fr/2002REN1B063.

Full text
Abstract:
Afin de pallier aux limites de l'enseignement traditionnel en médecine,et construire des savoirs et savoir-faire mobilisables,de nombreuses universités ont déjà opté pour une nouvelle approche pédagogique,l'approche par problème, basée sur les concepts de la psychologie cognitive. Cette approche cognitiviste,dont font partie les nouvelles méthodes pédagogisques APP,ARC et ARP,est centrée sur l'étudiant et requiert de ce dernier une participation active. En effet, l'étudiant bénéficie de sessions d'apprentissage contextualisé où il est tenu de résoudre des problèmes dans un contexte proche de celui correspondant à la pratique clinique. Notre objectif est de préciser le rôle que pourra jouer la plate-forme CARDIOLAB dans la formation médicale en ligne, et dans le contexte de l'approche cognitiviste de l'apprentissage. Cette plate-forme,développée par la société BioComputing (IBC) en collaboration avec l'Université de Rennes 1 et le CHU de Rennes,intègre un prototype de système d'aide à la décision et de formation médicale baptisé Medical Advisor, ainsi que des modèles informatiques (simulateurs) en physiologie intégrative cardio-vasculaire. Une fois achevée, la plate-forme poura participer à l'enseignement de stratégies cognitives et donner un rôle actif et motivant à l'apprenant,dans un monde virtuel. Elle lui permettra de comprendre en profondeur les processus physiopathologiques sous-jacents aux pathologies,de se mettre virtuellement en situation réelle,et de ce fait,favorisera son apprentissage dans les sessions d'APP,d'ARC ou d'ARP. S'agissant des modèles informatiques,la Physiologie Intégrative Computationnelle constituera le cadre pour la création des "patients virtuels" du futur. Ces patients virtuels,couplés à un expert/professeur virtuel (Medical Advisor) et intégrés au sein d'universités médicales virtuelles,pourront jouer un rôle central dans la formation et l'expertise de futurs médecins.
APA, Harvard, Vancouver, ISO, and other styles
45

Boucher, Jean-David. "Construction d'ontologie multimodale située." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0129.

Full text
Abstract:
Cette thèse consiste à réaliser un programme qui permet à un robot, via une interaction fluide avec un utilisateur, d'apprendre de nouvelles connaissances qui peuvent être réutilisées. L'approche adoptée intègre le paradigme de l'énaction (autonomie, création de sens, émergence, incarnation, expérience subjective), un savoir intersubjectif (ou connaissance mutuelle), et le formalisme des modèles statistiques d'induction. Par une programmation par démonstration (PbD) et un enseignement kinesthésique, l'utilisateur manie le robot et peut lui apprendre des comportements (mouvements de pattes, de tête etc. ) synchrones ou parallèles, cycliques ou acycliques. Ainsi, avec un minimum d'a priori, le système fait émerger des symboles à partir de la segmentation et la détection de régularités dans des flux de données sensori-motrices continues. Symboles ou comportements que l'utilisateur labellise et peut réutiliser
This thesis consists in realizing a program which allows a robot, via a fluid interaction with a user, to acquire new knowledge which can be reused. The adopted approach integrated the enaculation paradigm (autonomy, sense making, emergence, embodiment, subjective experience), intersubjective knowledge (or mutual knowledge), and the formalism of statistical models of induction. By programming by demonstration (PbD) and a kinaesthetic teaching, the user handles the robot and can teach it behavior (movements of legs, head etc. ) which can be synchronous or parallel, cyclic or acyclic. So, with a minimum of a priori structure, the system allows the emergence of symbols from the segmentation and the detection of regularities in streams of continuous sensori-motor data. Symbols or behaviors which the user labels and can be reused in future interactions
APA, Harvard, Vancouver, ISO, and other styles
46

Benhamou, Philippe. "Contribution au développement du générateur de systèmes experts Alouette : une application en gestion des ressources humaines, MIRIAM." Paris 9, 1988. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1988PA090028.

Full text
Abstract:
Alouette est un générateur de système expert. Il exploite une base de connaissance s'appuyant sur un formalisme qui associe l'usage des réseaux sémantiques à celui des règles de production en logique d'ordre un. Après avoir décrit le langage de représentation de la connaissance et les principaux outils associés, nous présentons les structures de données et les principaux algorithmes mis en oeuvre lors de l'unification. La deuxième partie de ce mémoire est consacrée aux applications les plus importantes qui ont été réalisées avec Alouette. Parmi elles, Miriam est un système expert en gestion des ressources humaines (GRH). Miriam saisit des faits statistiques relatifs à des procédures, dresse un tableau de bord social de l'entreprise considérée, établit un diagnostic, simule des plans de gestion et enfin propose des plans d'actions à mettre en oeuvre pour atteindre une situation souhaitée. Dans la troisième partie de ce mémoire, le premier chapitre situe Miriam dans le contexte actuel de la GRH et définit les objectifs du système. Le deuxième traite de la connaissance experte, de sa modélisation et de son exploitation
Alouette is an expert system building tool. It's working in forward chaining with a knowledge representation based on production rules in first order logic and semantical networks. First, we describe the knowledge representation language and the associed tools. Then, we show the data structures and the main algorithms used for unification. The second part of this report concerns the main expert systems built with Alouette. Amoung them, Miriam, expert system in human ressources management, graps the statitical facts relative to an enterprise and offers diverse services : a diagnostic gives a profile of the management style, a simulation program based on chaining procedures, the outline of a middle term plan
APA, Harvard, Vancouver, ISO, and other styles
47

Rougegrez-Loriette, Sophie. "Prediction de processus a partir de comportements observes : le systeme rebecas." Paris 6, 1994. http://www.theses.fr/1994PA066690.

Full text
Abstract:
Le systeme rebecas predit le comportement de processus complexes grace a un raisonnement a partir de cas (case-based reasoning). Ce comportement depend des interactions de nombreux parametres. Ceux-ci se repartissent en deux categories: les parametres source qui influencent le processus et les parametres cible temoignant de l'influence des parametres source. Dans notre systeme, cette influence est immediate, elle peut etre durable. Rebecas produit des hypotheses sur la valeur future des parametres cible en fonction de l'historique des parametres source. Les phenomenes mis en jeu dans ce type de processus sont continus. Un cas representant le comportement d'un processus termine a donc une representation continue, contrairement aux representations de style frame, tres majoritaires en raisonnement a partir de cas. Un cas dans rebecas est en effet compose d'historiques representant les valeurs successives de parametres. Nous proposons pour l'appariement des cas un algorithme d'appariement approximatif de chaines de caracteres, prenant en compte l'aspect temporel de leur representation. Cet algorithme consiste a rechercher un cas dans lequel est inclus l'historique du cas a predire. Compte-tenu de la complexite de cet appariement, tous les parametres ne peuvent etre consideres simultanement. C'est pourquoi l'appariement propose est realise selon differents points de vue. Ceci a pour consequence la restriction de la description du comportement du processus a un des parametres source. Une partie d'un cas est selectionnee, selon un point de vue donne. Plusieurs cas peuvent ainsi etre choisis. Rebecas selectionne le meilleur en considerant l'ensemble des points de vue, et la synchronisation des differentes parties selectionnees dans ce cas. Rebecas est actuellement utilise pour la prediction du comportement d'incendies de forets. Nous montrons que cette approche peut etre appliquee a d'autres domaines
APA, Harvard, Vancouver, ISO, and other styles
48

Ventos, Véronique. "C-classic## : Une logique de descriptions pour la définition et l'apprentissage de concepts avec défauts et exceptions." Paris 13, 1997. http://www.theses.fr/1997PA132007.

Full text
Abstract:
Nous presentons la definition et l'etude theorique d'une nouvelle logique de descriptions (c-classic##) suffisamment expressive pour etre utilisee dans le cadre d'une application et permettant de representer des connaissances par defaut et de type exception. C-classic## comprend tous les connecteurs de c-classic (a. Borgida et p. F. Patel-schneider) plus les connecteurs et definis par p. Coupey et c. Fouquere permettant de representer des connaissances par defaut et de type exception. Cette logique de descriptions est composee de trois modules: un module permettant de representer des connaissances, un module permettant d'utiliser ces connaissances et un module permettant de les mettre a jour. Le module permettant d'utiliser les connaissances est dote d'un algorithme de calcul de subsomption correct, complet et polynomial. Le module permettant de mettre a jour les connaissances s'integre dans un cadre pac-apprenable (i. E. L'apprentissage est de complexite spatiale et temporelle polynomiales, et converge en un sens probabiliste). L'etude theorique de c-classic## est basee sur la definition d'un cadre algebrique comprenant notamment une semantique intensionnelle dans laquelle les concepts sont denotes par une forme normale de l'ensemble de leurs proprietes. Ces formes normales sont utilisees en entree des algorithmes d'inference deductifs et inductifs
APA, Harvard, Vancouver, ISO, and other styles
49

Perrussel, Laurent. "Un outillage logique pour l'ingenierie des exigences multi-points de vue." Toulouse 3, 1998. http://www.theses.fr/1998TOU30020.

Full text
Abstract:
L'activite d'ingénierie des exigences (IE) d'un logiciel a comme objectif de définir les propriétés et le comportement d'un futur système. Les spécifications finales, caractérisables comme un ensemble cohérent de connaissances, sont issues d'un processus de coopération entre de multiples sources appelées points de vue. Notre objectif est de définir un outillage basé sur la logique permettant de représenter explicitement d'une part les points de vue et leurs connaissances et d'autre part la dynamique de ces points de vue, i. E. L'évolution des connaissances dans ces points de vue. Nous proposons de représenter les points de vue et leurs connaissances à l'aide de la logique des contextes initialement proposée par J. McCarthy. Notre proposition est, dans un premier temps, limitée à un langage propositionnel et ensuite étendue au premier ordre. L'extension au premier ordre nous permet de définir des relations inter-contextuelles. Nous montrons que nous aboutissons pour ces deux langages à des systèmes logiques complets et adéquats. Ensuite, nous nous intéressons à la dynamique des théories contextuelles. Nous avons pris soin de spécifier les actions de révision sous une double facette : _ une facette descriptive. Pour ceci, nous étendons notre langage contextuel propositionnel avec des opérateurs de révision des connaissances. Le langage obtenu permet de spécifier (1) à chaque instant les vérités contextuelles et (2) de spécifier les séquences d'actions (le processus) justifiant ces vérités contextuelles. _ une facette constructive. Nous nous intéressons ici au processus de révision de connaissances dans un contexte. Pour ceci, nous considérons les théories contextuelles comme des théories représentées sous forme arborescente. Nous définissons ensuite une fonction de révision respectant les postulats d'Alchourron, Gardenfors et Makinson. L'application pour l'IE multi-points de vues est multiple car nous pouvons : 1. Exhiber les exigences clairement (représentation logique), 2. Représenter explicitement les points de vue et leurs productions (contextes et vérités contextuelles) et les liens entre points de vue (contextes imbriqués), 3. Spécifier formellement le processus d'obtention des exigences (actions de révision) 4. Justifier les actions conduites (fonction de révision).
APA, Harvard, Vancouver, ISO, and other styles
50

Collain, Emmanuel, and Jean-Marc Fovet. "Apprentissage de plans de résolution pour améliorer l'efficacité des chainages avant des systèmes à base de règles." Paris 6, 1991. http://www.theses.fr/1991PA066446.

Full text
Abstract:
En logique d'ordre un l'explosion combinatoire fait chuter les performances des systèmes a base de règles. Ce travail propose un mécanisme de planification pour y remédier. La représentation d'une résolution par un arbre etats/transitions nous donne deux approches possibles: planification par les transitions et planification par les états. Ces deux approches ne sont pas satisfaisantes car la combinatoire des moteurs d'inférence a été remplacée par une combinatoire lors de la construction des plans. Une nouvelle approche est d'avoir des connaissances spécifiques de planification pour chaque problème a résoudre: un schéma de plan. Un schéma de plan est constitue de deux parties: une partie reconnaissance de problème et une partie plan. Les schémas de plan sont construits de façon incrémentale. Pour un nouveau problème une première version d'un schéma de plan est construite à partir de sa résolution en chaînage avant. L'évolution d'un schéma de plan est nécessaire dans les deux cas suivants: son analyse avec une résolution en chaînage avant d'un problème proche montre des divergences, un échec lors de son exécution. L'analyse des performances de la planification par schémas de plans montre un gain de temps dans la plupart des cas
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography