Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Intelligence artificielle générative.

Rozprawy doktorskie na temat „Intelligence artificielle générative”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Intelligence artificielle générative”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Chutaux, Corina. "Art, littérature et Intelligence Artificielle. Sur le chemin de la dématérialisation". Electronic Thesis or Diss., Sorbonne université, 2025. http://www.theses.fr/2025SORUL021.

Pełny tekst źródła
Streszczenie:
Avec l'émergence des intelligences artificielles génératives de nombreuses craintes ont secoué les terrains de l'art et de la littérature divisant potentiellement le monde en deux catégories diamétralement opposées : les technophobes et les technophiles. Cette thèse vise à réconcilier l'art, la littérature et l'intelligence artificielle en proposant un état de l'art sur ces questions et en esquissant des pistes pour l'interprétation de l'esthétique et de la poétique algorithmiques. Il s'agit notamment de mettre en lumière les différentes sémantiques de la créativité. Face à des réalités nouvelles, les termes doivent être réadaptés, recyclés, voire réinterprétés. L'artiste et l'écrivain sont amenés à revoir leurs acquis et à se réinventer, comme l'histoire de l'art l'a prouvé à maintes reprises, mais de manière moins équivoque lors du paragone avec la photographie. Qu'est-ce qu'être artiste ou écrivain à l'aube de la dématérialisation ? Quel apport peut avoir l'intelligence artificielle dans les secteurs de l'art et de la littérature ? Comment relier ces trois domaines, en apparence disjoints, et faire de ce décloisonnement une force dans l'écosystème créatif ? Quelles sont les limites des intelligences artificielles hic et nunc mais aussi quelles sont les limités des artistes humains face à une crise de la représentation ressentie par les critiques d'art depuis plus d'un siècle ?
With the emergence of generative artificial intelligences, numerous concerns have shaken the fields of art and literature, potentially dividing the world into two diametrically opposed categories: technophobes and technophiles. This thesis aims to reconcile art, literature, and artificial intelligence by providing a state-of-the-art overview on these questions and by outlining avenues for interpreting algorithmic aesthetics and poetics. It specifically seeks to shed light on the different semantics of creativity. In the face of new realities, terms must be readjusted, recycled, or even reinterpreted. The artist and the writer are called to reconsider their achievements and reinvent themselves, as art history has demonstrated repeatedly, albeit in a less ambiguous manner during the paragone with photography. What does it mean to be an artist or a writer at the dawn of dematerialization? What contribution can artificial intelligence make to the fields of art and literature? How can these three seemingly disjointed domains be connected, and how can this breaking down of barriers become a strength within the creative ecosystem? What are the current limits of artificial intelligences hic et nunc but also the limits of human artists in the face of a crisis of representation, felt by art critics for over a century ?representation observed by art critics for over a century
Style APA, Harvard, Vancouver, ISO itp.
2

Lacan, Alice. "Transcriptomics data generation with deep generative models". Electronic Thesis or Diss., université Paris-Saclay, 2025. http://www.theses.fr/2025UPASG010.

Pełny tekst źródła
Streszczenie:
Cette thèse explore l'utilisation de modèles génératifs profonds pour améliorer la génération de données transcriptomiques, répondant aux défis de rareté des données dans la classification de phénotypes de cancers. Nous évaluons la capacité des Autoencodeurs Variationnels (VAEs), des Réseaux Antagonistes Génératifs (GANs) et des modèles de diffusion (DDPM/DDIM) à équilibrer réalisme et diversité sur des données tabulaires de haute dimension. Nous avons d'abord adapté des métriques d'évaluation, supervisées et non supervisées. Nous avons ensuite intégré un moduled'auto-attention basé sur les connaissances du domaine dans notre GAN (AttGAN), améliorantle compromis fidélité-diversité. Une contribution notable est l'augmentation de la performance de classification avec un nombre minimal de vraies données augmenté de données générées. Nous proposons également une première adaptation des modèles de diffusion pour l'expression des gènes, ainsi qu'une méthodologie d'analyse d'interpolation offrant des perspectives sur la diversité des données et l'identification de biomarqueurs. Enfin, nous présentons GMDA (Modélisation Générativeavec Alignement de Densités), un modèle génératif alternatif aux GANs, permettant une exploration contrôlée de l'espace des données, une stabilité et une architecture frugale. Cette thèse offre ainsi des perspectives pour la génération de données transcriptomiques et tabulaires au sens large
This thesis explores deep generative models to improve synthetic transcriptomics data generation, addressing data scarcity in phenotypes classification tasks. We focus on Variational Autoencoders (VAEs), Generative Adversarial Networks (GANs), and diffusion models (DDPM/DDIM), assessing their ability to balance realism and diversity in high-dimensional tabular datasets. First, we adapt quality metrics for gene expression and introduce a knowledge-based self-attention module within GANs (AttGAN) to improve the fidelity-diversity trade-off. A main contribution is boosting classification performance using minimal real samples augmented with synthetic data. Secondly, another contribution was the first adaptation of diffusion models to transcriptomic data, demonstrating competitiveness with VAEs and GANs. We also introduce an interpolation analysis bringing perspectives on data diversity and the identification of biomarkers. Finally, we present GMDA (Generative Modeling with Density Alignment), a resource efficient alternative to GANs that balances realism and diversity by aligning locally real and synthetic sample densities. This framework allows controlled exploration of instance space, stable training, and frugality across datasets. Ultimately, this thesis provides comprehensiveinsights and methodologies to advance synthetic transcriptomics data generation
Style APA, Harvard, Vancouver, ISO itp.
3

Régin, Florian. "Programmation par contraintes générative". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4052.

Pełny tekst źródła
Streszczenie:
La Programmation Par Contraintes (PPC) est une méthode pour résoudre des problèmes combinatoires, qui encapsule des techniques venant de l'intelligence artificielle, d'informatique et de recherche opérationnelle. Le Model Checking (MC) est une technique formelle qui permet de prouver automatiquement si un système donné satisfait une spécification. Pour traiter les problèmes de PC qui ont souvent beaucoup d'états et de transitions, les solveurs de PPC sont plus lents ou utilisent plus de mémoire que les solveurs de MC (appelés model checkers). Ces derniers sont parfois capables de pousser l'exponentiel (en temps/espace), comparés aux solveurs de PPC. Cette thèse a pour but de répondre à deux questions : Comment créer une technique de PPC qui peut résoudre les problèmes de MC aussi ou plus efficacement que les modèles checkers ? Comment utiliser cette technique sur des problèmes de PPC classiques aussi ou plus efficacement que les solveurs de PPC traditionnel ? Nous avons répondu à la première question en créant GenCP, une technique de PPC inspirée par Generative Constraint Satisfaction Problem (GCSP) et par le MC à-la-volée (OTF). Pour répondre à la deuxième question, nous avons raffiné GenCP et nous avons démontré ses capacités contre la PPC traditionnelle sur des problèmes classiques de la PPC, comme le problème du NQueens. La Programmation Par Contrainte Générative est un terme que nous crée pour se référer à n'importe quelle technique de PPC qui ressemble à GenCP/GCSP. L'inconvénient majeur des problèmes de MC est le problème de l'explosion des états. Plusieurs variantes du MC ont été créées pour résoudre ce problème. OTF est la variante du MC qui obtient les meilleurs résultats comparés à des solveurs de PPC sur des problèmes de MC. OTF ne commence avec aucun état et crée/détruit des états à-la-volée pendant la recherche de solutions. GCSP a été créée pour résoudre des problèmes de configuration (qui ressemblent aux problèmes de MC). La PPC implique trois concepts principaux : les variables qui représentent les objets du problème, les domaines qui représentent les valeurs associées aux variables et les contraintes qui représentent des propriétés associées à une ou plusieurs variables. En PPC traditionnelle, ces concepts doivent être définis avant la recherche de solutions. En GCSP, les domaines doivent être définis avant la recherche de solutions et les variables/domaines sont générés pendant la recherche de solutions. GCSP est plus efficace que la PPC traditionnelle sur les problèmes de MC, mais moins efficace que OTF. Nous avons conçu GenCP pour être un mixte entre GCSP et OTF. Dans la mesure de nos connaissances, GenCP est la première technique de PPC capable de ne commencer la recherche de solutions avec aucun des concepts de la PPC définis, GenCP génère les concepts pendant la recherche de solutions. GenCP a de meilleurs résultats que GCSP et la PPC traditionnelle sur les problèmes de MC, et des résultats équivalents aux modèles checkers. GenCP a été raffinée grâce à OTF. Le raffinage consiste à traiter simultanément la génération de domaines et des contraintes et la propagation. La version raffinée de GenCP génère des domaines qui sont garantis de satisfaire les contraintes, et sont donc souvent de plus petites tailles que la version non raffinée. La version raffinée a prouvé être efficace en obtenant de meilleurs résultats que la PPC traditionnelle sur des problèmes classiques de PPC : NQueens, All Interval, Graceful Graphs et Langford Number. Pour mieux montrer les avantages de GenCP par rapport à la PPC traditionnelle, nous avons introduit GenCPML, une nouvelle hybridation entre la PPC et le Machine Learning (ML), où les domaines sont créés à la volée pendant la recherche de solutions par un modèle de ML. Sur certains problèmes, GenCPML arrive à obtenir de meilleurs résultats que la PPC seule et le ML seul
Constraint Programming (CP) is a method for solving combinatorial problems, encapsulating techniques from artificial intelligence, computer science and operations research. Model Checking (MC) is a formal technique for automatically proving whether a given system satisfies a specification. To handle CP problems, which often have many states and transitions, CP solvers are slower or use more memory than MC solvers (called model checkers). The latter are sometimes able to push the exponential (in time/space), compared to CP solvers. This thesis aims to answer two questions: How can we create a CP technique that can solve MC problems as efficiently or more efficiently than model checkers? How can this technique be used on classical CP problems as efficiently or more efficiently than traditional CP solvers? We answered the first question by creating GenCP, a CP technique inspired by the Generative Constraint Satisfaction Problem (GCSP) and the On-the-fly MC (OTF). To answer the second question, we refined GenCP and demonstrated its capabilities against traditional CP on classic CP problems, such as the NQueens problem. Generative Constraint Programming is a made-up term to refer to any CP technique that resembles GenCP/GCSP. The major drawback of MC problems is the state explosion problem. Several variants of MC have been created to solve this problem. OTF is the variant of MC that achieves the best results compared with CP solvers on MC problems. OTF doesn't start with any states and creates/destroys states on the fly during the search for solutions. GCSP was created to solve configuration problems (which resemble MC problems). GCSP involves three main concepts: variables, which represent the objects of the problem; domains, which represent the values associated with the variables; and constraints, which represent properties associated with one or more variables. In traditional CP, these concepts must be defined prior to the search for solutions. In GCSP, domains must be defined prior to the solution search, and variables/domains are generated during the solution search. GCSP is more efficient than traditional CP on MC problems, but less efficient than OTF. We designed GenCP to be a mix between GCSP and OTF. To the best of our knowledge, GenCP is the first CP technique capable of starting the solution search with none of the CP concepts defined; GenCP generates the concepts during the solution search. GenCP outperforms GCSP and traditional CP on MC problems, and is equivalent to model checkers. GenCP has been refined using OTF. Refining consists of simultaneously processing domain and constraint generation and propagation. The refined version of GenCP generates domains that are guaranteed to satisfy the constraints, and are therefore often smaller in size than the unrefined version. The refined version has proven to be efficient, achieving better results than traditional CP on classical CP problems: NQueens, All Interval, Graceful Graphs and Langford Number. To further demonstrate the advantages of GenCP over traditional CP, we introduced GenCPML, a new hybridization between CP and Machine Learning (ML), where domains are created on the fly during the search for solutions by an ML model. On some problems, GenCPML manages to achieve better results than CP alone and ML alone
Style APA, Harvard, Vancouver, ISO itp.
4

Haidar, Ahmad. "Responsible Artificial Intelligence : Designing Frameworks for Ethical, Sustainable, and Risk-Aware Practices". Electronic Thesis or Diss., université Paris-Saclay, 2024. https://www.biblio.univ-evry.fr/theses/2024/interne/2024UPASI008.pdf.

Pełny tekst źródła
Streszczenie:
L'intelligence artificielle (IA) transforme rapidement le monde, redéfinissant les relations entre technologie et société. Cette thèse explore le besoin essentiel de développer, de gouverner et d'utiliser l'IA et l'IA générative (IAG) de manière responsable et durable. Elle traite des risques éthiques, des lacunes réglementaires et des défis associés aux systèmes d'IA, tout en proposant des cadres concrets pour promouvoir une Intelligence Artificielle Responsable (IAR) et une Innovation Numérique Responsable (INR).La thèse commence par une analyse approfondie de 27 déclarations éthiques mondiales sur l'IA pour identifier des principes dominants tels que la transparence, l'équité, la responsabilité et la durabilité. Bien que significatifs, ces principes manquent souvent d'outils pratiques pour leur mise en œuvre. Pour combler cette lacune, la deuxième étude de la recherche présente un cadre intégrateur pour l'IAR basé sur quatre dimensions : technique, IA pour la durabilité, juridique et gestion responsable de l'innovation.La troisième partie de la thèse porte sur l'INR à travers une étude qualitative basée sur 18 entretiens avec des gestionnaires de secteurs divers. Cinq dimensions clés sont identifiées : stratégie, défis spécifiques au numérique, indicateurs de performance organisationnels, impact sur les utilisateurs finaux et catalyseurs. Ces dimensions permettent aux entreprises d'adopter des pratiques d'innovation durable et responsable tout en surmontant les obstacles à leur mise en œuvre.La quatrième étude analyse les risques émergents liés à l'IAG, tels que la désinformation, les biais, les atteintes à la vie privée, les préoccupations environnementales et la suppression d'emplois. À partir d'un ensemble de 858 incidents, cette recherche utilise une régression logistique binaire pour examiner l'impact sociétal de ces risques. Les résultats soulignent l'urgence d'établir des cadres réglementaires renforcés, une responsabilité numérique des entreprises et une gouvernance éthique de l'IA.En conclusion, cette thèse apporte des contributions critiques aux domaines de l'INR et de l'IAR en évaluant les principes éthiques, en proposant des cadres intégratifs et en identifiant des risques émergents. Elle souligne l'importance d'aligner la gouvernance de l'IA sur les normes internationales afin de garantir que les technologies d'IA servent l'humanité de manière durable et équitable
Artificial Intelligence (AI) is rapidly transforming the world, redefining the relationship between technology and society. This thesis investigates the critical need for responsible and sustainable development, governance, and usage of AI and Generative AI (GAI). The study addresses the ethical risks, regulatory gaps, and challenges associated with AI systems while proposing actionable frameworks for fostering Responsible Artificial Intelligence (RAI) and Responsible Digital Innovation (RDI).The thesis begins with a comprehensive review of 27 global AI ethical declarations to identify dominant principles such as transparency, fairness, accountability, and sustainability. Despite their significance, these principles often lack the necessary tools for practical implementation. To address this gap, the second study in the research presents an integrative framework for RAI based on four dimensions: technical, AI for sustainability, legal, and responsible innovation management.The third part of the thesis focuses on RDI through a qualitative study of 18 interviews with managers from diverse sectors. Five key dimensions are identified: strategy, digital-specific challenges, organizational KPIs, end-user impact, and catalysts. These dimensions enable companies to adopt sustainable and responsible innovation practices while overcoming obstacles in implementation.The fourth study analyzes emerging risks from GAI, such as misinformation, disinformation, bias, privacy breaches, environmental concerns, and job displacement. Using a dataset of 858 incidents, this research employs binary logistic regression to examine the societal impact of these risks. The results highlight the urgent need for stronger regulatory frameworks, corporate digital responsibility, and ethical AI governance. Thus, this thesis provides critical contributions to the fields of RDI and RAI by evaluating ethical principles, proposing integrative frameworks, and identifying emerging risks. It emphasizes the importance of aligning AI governance with international standards to ensure that AI technologies serve humanity sustainably and equitably
Style APA, Harvard, Vancouver, ISO itp.
5

Boutet, de Monvel Violaine. "Du feedback vidéo à l'IA générative : sur la récursivité dans les arts et médias". Electronic Thesis or Diss., Paris 3, 2025. http://www.theses.fr/2025PA030009.

Pełny tekst źródła
Streszczenie:
Cette thèse érige, sous le prisme du feedback, un pont entre l’art vidéo pionnier des années 1960 à 1980 et les pratiques en lien avec l’IA générative, que les avancées phénoménales de l’apprentissage profond ont précipitées depuis le milieu des années 2010. La rétroaction renvoie en cybernétique à l’autorégulation par la boucle de systèmes naturels et technologiques. Appliqué à des dispositifs analogiques, numériques ou hybrides en circuit fermé, ce processus automatisé qualifie aussi les effets contingents qui en résultent à l'écran. La première partie revient sur l’influence colossale que la théorie de l’information et la notion de bruit ont exercé sur la genèse du genre vidéo depuis l’avènement du médium, en 1965. Elle se concentre sur le paradigme narcissique (Rosalind Krauss, 1976) qui en a renseigné les canons jusqu’à la fin des années 1970, en analysant la place centrale occupée par la perception humaine et son extension prothétique télévisuelle. La seconde partie s’attache à l’exploration concurrente de ladite vision des machines, en dialogue avec les outils (Steina et Woody Vasulka, 1976). À partir du retournement technocratique de l’esthétique alors inhérent au traitement d’images en temps réel, une transition est opérée de la synthèse audiovisuelle à ses pendants cinématiques, puis artificiels. La troisième partie se penche sur la création en prise avec des modèles d’IA générative développés depuis l’introduction des GANs, en 2014. Interrogeant la redistribution de l’agentivité en réseau, elle considère ultimement la généalogie récursive des arts et médias, ainsi que les conditions d’une culture algorithmique sensible entre signal et données
This thesis raises, through the prism of feedback, a bridge between pioneer video art from the 1960s to the 1980s and the practices associated with generative AI, which the phenomenal advances in deep learning have precipitated since the mid-2010s. Retroaction in cybernetics refers to the self-regulation by the loop of natural and technological systems. Applied to closed-circuit analog, digital or hybrid setups, this automated process also qualifies the contingent effects that result from it on screen. The first section looks back at the colossal influence that information theory and the notion of noise have had on the genesis of the video genre since the advent of the medium, in 1965. It revolves around the narcissistic paradigm (Rosalind Krauss, 1976) that essentialized its canons until the late 1970s, by analyzing the central place occupied by human perception and its televisual prosthetic extension. The second section focuses on the concurrent exploration of so-called machine vision, in dialogue with the tools (Steina and Woody Vasulka, 1976). Building upon the technocratic reversal of aesthetics then inherent to real-time image processing, a transition is made from audiovisual synthesis to its cinematic, and artificial counterparts. The third section contemplates creation with generative AI models developed since the introduction of GANs, in 2014. Questioning the redistribution of agency in networks, it ultimately considers the recursive genealogy of the arts and media, as well as the conditions for a sensitive algorithmic culture between signal and data
Style APA, Harvard, Vancouver, ISO itp.
6

Hadjeres, Gaëtan. "Modèles génératifs profonds pour la génération interactive de musique symbolique". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS027.

Pełny tekst źródła
Streszczenie:
Ce mémoire traite des modèles génératifs profonds appliqués à la génération automatique de musique symbolique. Nous nous attacherons tout particulièrement à concevoir des modèles génératifs interactifs, c'est-à-dire des modèles instaurant un dialogue entre un compositeur humain et la machine au cours du processus créatif. En effet, les récentes avancées en intelligence artificielle permettent maintenant de concevoir de puissants modèles génératifs capables de générer du contenu musical sans intervention humaine. Il me semble cependant que cette approche est stérile pour la production artistique dans le sens où l'intervention et l'appréciation humaines en sont des piliers essentiels. En revanche, la conception d'assistants puissants, flexibles et expressifs destinés aux créateurs de contenus musicaux me semble pleine de sens. Que ce soit dans un but pédagogique ou afin de stimuler la créativité artistique, le développement et le potentiel de ces nouveaux outils de composition assistée par ordinateur sont prometteurs. Dans ce manuscrit, je propose plusieurs nouvelles architectures remettant l'humain au centre de la création musicale. Les modèles proposés ont en commun la nécessité de permettre à un opérateur de contrôler les contenus générés. Afin de rendre cette interaction aisée, des interfaces utilisateurs ont été développées ; les possibilités de contrôle se manifestent sous des aspects variés et laissent entrevoir de nouveaux paradigmes compositionnels. Afin d'ancrer ces avancées dans une pratique musicale réelle, je conclue cette thèse sur la présentation de quelques réalisations concrètes (partitions, concerts) résultant de l'utilisation de ces nouveaux outils
This thesis discusses the use of deep generative models for symbolic music generation. We will be focused on devising interactive generative models which are able to create new creative processes through a fruitful dialogue between a human composer and a computer. Recent advances in artificial intelligence led to the development of powerful generative models able to generate musical content without the need of human intervention. I believe that this practice cannot be thriving in the future since the human experience and human appreciation are at the crux of the artistic production. However, the need of both flexible and expressive tools which could enhance content creators' creativity is patent; the development and the potential of such novel A.I.-augmented computer music tools are promising. In this manuscript, I propose novel architectures that are able to put artists back in the loop. The proposed models share the common characteristic that they are devised so that a user can control the generated musical contents in a creative way. In order to create a user-friendly interaction with these interactive deep generative models, user interfaces were developed. I believe that new compositional paradigms will emerge from the possibilities offered by these enhanced controls. This thesis ends on the presentation of genuine musical projects like concerts featuring these new creative tools
Style APA, Harvard, Vancouver, ISO itp.
7

Abdelghani, Rania. "Guider les esprits de demain : agents conversationnels pour entraîner la curiosité et la métacognition chez les jeunes apprenants". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0152.

Pełny tekst źródła
Streszczenie:
La curiosité épistémique (CE), i.e. le désir d’explorer une information pour le plaisir qu’elle procure, est un phénomène étudié dans divers domaines. Plusieurs chercheurs ont souligné son rôle fondamental dans le développement cognitif et la promotion d’un apprentissage continu. De plus, la CE est considérée comme clé pour cultiver un esprit capable de s’adapter aux incertitudes du monde. Ces recherches ont suscité un grand intérêt pour la CE en éducation, la considérant essentielle pour permettre aux individus d’être actifs et maîtres de leur apprentissage. Ce sont des propriétés cruciales pour relever certains des défis éducatifs: offrir aux élèves un soutien adapté à leurs compétences et motivations, et les aider à être des apprenants autonomes et indépendants dans des environnements dynamiques et incertains. Malgré son importance, l’implémentation de la CE dans les salles de classe reste limitée. Notamment, l’une des principales expressions de la CE—le questionnement— est presque absente dans la plupart des établissements: les élèves sont souvent amenés à répondre aux questions des enseignants plutôt qu’à poser les leurs. Et lorsqu’ils posent des questions, elles sont généralement de bas niveau et, contrairement aux questions curieuses, ne cherchent pas de nouvelles informations majorantes aux connaissances antérieures. Cette thèse propose donc de développer des technologies éducatives qui visent à favoriser l’apprentissage dirigé par la CE, en entraînant les comportements de questionnement curieux et les compétences qui lui sont liées. Pour cela, nous proposons des interventions pour entraîner trois dimensions:1) Les compétences linguistiques de questionnement: On implémente un agent conversationnel pour aider les élèves à générer des questions curieuses lors de tâches de lecture-compréhension. L’agent fournit des indices spécifiques pour faciliter l’utilisation des mots interrogatifs composés et des constructions interrogatives. Différentes structures d’indices (phrase vs. série de mots-clés) et leurs modes de génération (manuellement vs. par GPT-3) sont étudiées. 2) Les compétences métacognitives (MC) liées à la CE: On crée des vidéos animées pour donner des connaissances déclaratives sur les compétences MC liées à la CE: l’autoréflexion, faire des hypothèses, formuler des questions et évaluer les nouvelles informations. On propose également des sessions pour pratiquer ces compétences lors de tâches de lecture-compréhension, en utilisant des indices donnés par des agents conversationnels conçus pour entraîner la MC procédurale. 3) Les perceptions sociales: On crée des vidéos animées pour expliquer la CE et sa mise en pratique pour corriger les idées négatives qu’ont les apprenants sur ce concept. Plus de 150 élèves français âgés de 9 à 11 ans ont été recrutés pour tester l’entraînement de ces dimensions. Combinées, ces dernières ont amélioré la sensibilité MC des élèves et leur perception de la curiosité. Ces deux facteurs ont, à leur tout, facilité les comportements de questionnement divergent. Cela a également conduit à un progrès d’apprentissage plus fort et à des expériences d’apprentissage positives et soutenables. Mais malgré ces résultats, nos méthodes présentent certaines limites, en particulier leur courte durée. Cette thèse encourage donc le travail sur des solutions plus durables afin d’examiner les effets à long terme sur la CE. Enfin, cette thèse souligne la nécessité de continuer à explorer les recherches sur le questionnement et la MC à l’âge de l’intelligence artificielle générative (IAG). Bien que la IAG facilite l’accès à l’information, elle nécessite encore de bonnes capacités de questionnement et de MC, pour prévenir les mésuages et/ou faciliter leur détection. Nous proposons un Framework liant l’utilisation efficace de la IAG en éducation, les compétences de questionnement et de MC, et la littératie en IAG. Nous présentons également une étude comportementale pour tester ces relations
Epistemic curiosity—the desire to actively seek information for its inherent pleasure—is a complex phenomenon extensively studied across various domains. Several researchers in psychology, neuroscience, and computer science have repeatedly highlighted its foundational role in cognitive development and in fostering lifelong learning. Further, epistemic curiosity is considered key for cultivating a flexible mindset capable of adapting to the world’s uncertainties. These insights have spurred significant interest in the educational field, recognizing curiosity as essential for helping individuals be active and in control of their learning. These properties are crucial for addressing some of today’s major educational challenges, namely offering students individualized support to suit their competencies and motivations, and helping them become able to learn autonomously and independently in their dynamic and uncertain environments. Despite this well-documented importance of curiosity in education, its practical implementation and promotion in the classroom remains limited. Notably, one of the primary expressions of curiosity— question-asking (QA)—is nearly absent in most of today’s educational settings. Several reports show that students often spend a lot of time answering teachers’ questions rather than asking their own. And when they do ask questions, they are typically low-level and memory-based, as opposed to curious questions that seek novel information. In this context, this thesis aims to develop educational technologies that can foster children’s curiosity-driven learning by practicing curious QA behaviors, and their related metacognitive (MC) skills. Ultimately, we implemented interventions to train three dimensions: 1) Linguistic QA Skills: We implement a conversational agent to train the ability to formulate curious questions using compound questioning words and correct interrogative constructions. It helps children generate curious questions during reading-comprehension tasks, by providing specific cues. The effectiveness of different cue structures (a sentence vs. series of keywords) and implementations (hand-generated vs. GPT-3-generated content) is studied. 2) Curiosity-related metacognitive Skills: We create animated videos to give declarative knowledge about curiosity and its related MC skills: the ability to self reflect, make educated guesses, formulate efficient questions, and evaluate newly-acquired information. We also propose sessions to practice these skills during reading-comprehension tasks using specific cues given by conversational agents we designed to train procedural MC. 3) Social Perceptions and beliefs: We create animated videos to address the negative constructs learners tend to have about curiosity. They explain the importance of curiosity and how to control it during learning. Over 150 French students aged 9 to 11 were recruited to test these trainings of the three dimensions. Combined, these latter enhanced students’ MC sensitivity and perception of curiosity. At their turn, these factors facilitated students’ divergent QA behaviors which, at their turn, led to stronger learning progress and positive, affordable learning experiences. But despite the positive results, our methods had limitations, particularly their short duration. We suggest testing longer-lasting interventions to examine their long-term effects on curiosity. Finally, this thesis highlights the need to continue exploring QA and MC research in the age of Generative Artificial Intelligence (GAI). Indeed, while GAI facilitates access to information, it still requires good QA abilities and MC monitoring to prevent misinformation and facilitate its detection. We thus propose a framework to link efficient GAI use in education to QA and MC skills, and GAI literacy. We also present a behavioral study we intend to conduct to test this framework
Style APA, Harvard, Vancouver, ISO itp.
8

Hadjeres, Gaëtan. "Modèles génératifs profonds pour la génération interactive de musique symbolique". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS027/document.

Pełny tekst źródła
Streszczenie:
Ce mémoire traite des modèles génératifs profonds appliqués à la génération automatique de musique symbolique. Nous nous attacherons tout particulièrement à concevoir des modèles génératifs interactifs, c'est-à-dire des modèles instaurant un dialogue entre un compositeur humain et la machine au cours du processus créatif. En effet, les récentes avancées en intelligence artificielle permettent maintenant de concevoir de puissants modèles génératifs capables de générer du contenu musical sans intervention humaine. Il me semble cependant que cette approche est stérile pour la production artistique dans le sens où l'intervention et l'appréciation humaines en sont des piliers essentiels. En revanche, la conception d'assistants puissants, flexibles et expressifs destinés aux créateurs de contenus musicaux me semble pleine de sens. Que ce soit dans un but pédagogique ou afin de stimuler la créativité artistique, le développement et le potentiel de ces nouveaux outils de composition assistée par ordinateur sont prometteurs. Dans ce manuscrit, je propose plusieurs nouvelles architectures remettant l'humain au centre de la création musicale. Les modèles proposés ont en commun la nécessité de permettre à un opérateur de contrôler les contenus générés. Afin de rendre cette interaction aisée, des interfaces utilisateurs ont été développées ; les possibilités de contrôle se manifestent sous des aspects variés et laissent entrevoir de nouveaux paradigmes compositionnels. Afin d'ancrer ces avancées dans une pratique musicale réelle, je conclue cette thèse sur la présentation de quelques réalisations concrètes (partitions, concerts) résultant de l'utilisation de ces nouveaux outils
This thesis discusses the use of deep generative models for symbolic music generation. We will be focused on devising interactive generative models which are able to create new creative processes through a fruitful dialogue between a human composer and a computer. Recent advances in artificial intelligence led to the development of powerful generative models able to generate musical content without the need of human intervention. I believe that this practice cannot be thriving in the future since the human experience and human appreciation are at the crux of the artistic production. However, the need of both flexible and expressive tools which could enhance content creators' creativity is patent; the development and the potential of such novel A.I.-augmented computer music tools are promising. In this manuscript, I propose novel architectures that are able to put artists back in the loop. The proposed models share the common characteristic that they are devised so that a user can control the generated musical contents in a creative way. In order to create a user-friendly interaction with these interactive deep generative models, user interfaces were developed. I believe that new compositional paradigms will emerge from the possibilities offered by these enhanced controls. This thesis ends on the presentation of genuine musical projects like concerts featuring these new creative tools
Style APA, Harvard, Vancouver, ISO itp.
9

El, Mernissi Karim. "Une étude de la génération d'explication dans un système à base de règles". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066332/document.

Pełny tekst źródła
Streszczenie:
Le concept de “Business Rule Management System” (BRMS) a été introduit pour faciliter la création, la vérification, le déploiement et l'exécution des politiques commerciales propres à chaque compagnie. Basée sur une approche symbolique, l'idée générale est de permettre aux utilisateurs métier de gérer les changements des règles métier dans le système sans avoir besoin de recourir à des compétences techniques. Il s'agit donc de fournir à ces derniers la possibilité de formuler des politiques commerciales et d'automatiser leur traitement tout en restant proche du langage naturel. De nos jours, avec l'expansion de ce type de systèmes, il faut faire face à des logiques de décision de plus en plus complexes et à de larges volumes de données. Il n'est pas toujours facile d'identifier les causes conduisant à une décision. On constate ainsi un besoin grandissant de justifier et d'optimiser les décisions dans de courts délais qui induit l'intégration à ses systèmes d'une composante d'explication évoluée. Le principal enjeu de ces recherches est de fournir une approche industrialisable de l'explication des processus de décision d'un BRMS et plus largement d'un système à base de règles. Cette approche devra être en mesure d'apporter les informations nécessaires à la compréhension générale de la décision, de faire office de justification auprès d'entités internes et externes ainsi que de permettre l'amélioration des moteurs de règles existants. La réflexion se portera tant sur la génération des explications en elles-mêmes que sur la manière et la forme sous lesquelles elles seront délivrées
The concept of “Business Rule Management System” (BRMS) has been introduced in order to facilitate the design, the management and the execution of company-specific business policies. Based on a symbolic approach, the main idea behind these tools is to enable the business users to manage the business rule changes in the system without requiring programming skills. It is therefore a question of providing them with tools that enable to formulate their business policies in a near natural language form and automate their processing. Nowadays, with the expansion of intelligent systems, we have to cope with more and more complex decision logic and large volumes of data. It is not straightforward to identify the causes leading to a decision. There is a growing need to justify and optimize automated decisions in a short time frame, which motivates the integration of advanced explanatory component into its systems. Thus, the main challenge of this research is to provide an industrializable approach for explaining the decision-making processes of business rules applications and more broadly rule-based systems. This approach should be able to provide the necessary information for enabling a general understanding of the decision, to serve as a justification for internal and external entities as well as to enable the improvement of existing rule engines. To this end, the focus will be on the generation of the explanations in themselves as well as on the manner and the form in which they will be delivered
Style APA, Harvard, Vancouver, ISO itp.
10

Boulic-Bouadjio, Audren. "Génération multi-agents de réseaux sociaux". Thesis, Toulouse 1, 2021. http://www.theses.fr/2021TOU10003.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
11

Bonnefoi, Pierre-François. "Techniques de satisfaction de contraintes pour la modélisation déclarative : application à la génération concurrente de scènes". Limoges, 1999. http://www.theses.fr/1999LIMO0045.

Pełny tekst źródła
Streszczenie:
La synthese d'image est un domaine en pleine expansion, chaque jour de nouvelles images sont obtenues avec un realisme toujours accru. Il existe de nombreux algorithmes de visualisation, dont la qualite ne cesse d'augmenter. Si les moyens de visualisation s'ameliorent, il n'en va pas de meme pour la conception des scenes. La conception d'une scene est un processus difficile, peu intuitif quelque soit le modele de representation choisi. Il est en effet obligatoire de specifier precisement toutes les constituantes de la scene. La solution est de recourir a une approche declarative, ou l'utilisateur dispose d'un outil intelligent susceptible de transcrire une description plus ou moins generale effectuee par l'utilisateur, en une ou plusieurs scenes correspondantes. Cette description correspond a la definition des constituants de la scene de maniere plus ou moins detaillee et a l'etablissement de relations sur et entre ces elements. Un modeleur declaratif est caracterise par la nature de la description que l'on fournit en entree (le langage qui la definit), le domaine de representation des scenes solutions et la methode de generation des scenes solutions. L'obtention des scenes solutions se fait par resolution de systemes de contraintes. Le modele de contraintes choisi est celui des contraintes sur domaine fini (clp(fd)) et ces contraintes sont formulees sous une forme dite primitive afin d'en uniformiser le traitement. Les methodes de resolution sont celles utilisees pour les csp (constraint satisfaction problem) et s'appuient sur les techniques de consistance d'arc et l'utilisation de differentes heuristiques. La description d'une scene peut etre faite de maniere hierarchique. Cette structure hierarchique est mise a profit au niveau du processus de generation de scene afin d'en diminuer le cout en temps. Afin d'obtenir un modeleur declaratif puissant, la parallelisation de la generation d'une scene est effectuee. Elle est realisee de maniere transparente pour l'utilisateur, soit de facon automatique a partir de la description fournie en entree du modeleur. La mise en uvre du modeleur declaratif a ete faite egalement dans un soucis d'en preserver l'extensibilite afin de permettre l'etude de nouvelles possibilites quant a l'amelioration de la modelisation declarative.
Style APA, Harvard, Vancouver, ISO itp.
12

Ndiaye, Seydina Moussa. "Apprentissage par renforcement en horizon fini : Application à la génération de règles pour la conduite de culture". Toulouse 3, 1999. http://www.theses.fr/1999TOU30010.

Pełny tekst źródła
Streszczenie:
Le point essentiel de la première partie de la thèse a été d'adapter au cadre de l'horizon fini les méthodes d'apprentissage par renforcement (AR) existantes. Nous avons considéré essentiellement deux d'entre elles basées sur le principe des différences temporelles, le Q-Learning et le R-Learning, qui différent sur la fonction d'évaluation. Toutes les études faites dans ce domaine concernent des problèmes en horizon infini. Les résultats obtenus nous ont permis d'établir un lien entre le critère 1-pondéré (Q-Learning) et le critère moyen (R-Learning) en horizon fini. La réécriture du R-Learning en horizon fini montre une équivalence entre le critère moyen et le critère fini. La méthode de l'ODE (ordinary differential equation) a été utilisée pour analyser la vitesse de convergence de ces algorithmes en horizon fini. Nous avons montré que le R-Learning pouvait être vu comme une version à gain matriciel du Q-Learning. Le second problème a été la représentation de l'espace de résolution en AR. Généralement les algorithmes d'AR sont appliqués sur des espaces discrets alors que dans notre problème de conduite de culture nous avons à faire avec des espaces mixtes (discrets et continus). Une solution est d'utiliser la méthode de représentation par CMAC (cerebellar model articulation controller) communément utilisée en AR. Cependant, bien que donnant des résultats satisfaisants, ce mode de représentation n'est pas adéquat pour notre application parce qu'il ne fournit pas une caractérisation intelligible pour l'utilisateur agronome de la notion de stratégie. Une représentation par un ensemble de règles de décision de la forme si alors est préférable. La solution envisagée est d'apprendre directement des stratégies de conduite de culture sous forme de règles de décision. Pour cela, des techniques d'algorithmes génétiques (AG) sont utilisées pour modifier et apprendre la structure optimale des règles de décision.
Style APA, Harvard, Vancouver, ISO itp.
13

Faiz, Rim. "Modélisation formelle des connaissances temporelles à partir de textes en vue d'une génération automatique de programmes". Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090023.

Pełny tekst źródła
Streszczenie:
L'objectif de notre travail correspond à une réflexion méthodologique sur la modélisation des connaissances temporelles dans le domaine juridique. Le but final est d'extraire une modélisation formelle par traduction d'un texte en langage naturel dans un formalisme formel de représentation des connaissances, puis d'en déduire automatiquement un programme. L'analyse de corpus de textes de lois nous a permis de mettre en évidence que le problème essentiel au niveau de la représentation de ces types de textes n'est pas seulement lie à la logique déontique, mais aussi à la représentation du temps, c'est-à-dire à la logique temporelle. Les notions de date et de délai qui posent des problèmes d'imputation et de déclenchement d'ordre sont, en effet, relativement importantes en droit. En effet, la représentation du temps (délai, date, etc. ) est fondamentale dans la détermination d'une décision en matière de prestations. Certains problèmes relatifs à l'utilisation du temps nous ont permis d'étudier d'une manière conceptuelle l'incorporation de fonctions temporelles dans notre modèle, dans le but de représenter les relations temporelles entre les concepts. Nous avons représenté, en plus du positionnement des entités temporelles les unes par rapport aux autres, les relations de ces entités dans un repère absolu, les dates de début de ces entités, leurs dates de fin et leurs durées, mais aussi le positionnement dans le temps, la granularité du temps, etc. Nous avons également établi une méthodologie permettant de montrer le mécanisme de passage d'un texte en langage naturel à une spécification formelle dans un langage ayant la lisibilité du langage naturel. Le processus de traduction formelle s'effectue en trois étapes: l'étape de traduction du texte en langage naturel à sa représentation littérale semi-formelle, l'étape de passage de cette représentation littérale à une représentation formelle mais ambiguë et incomplète et enfin l'étape de désambiguïsation résolvant les problèmes d'ambiguïté et d'incomplétude. Une vue globale de l'ensemble a été représentée dans le formalisme SADT. Ce processus de traduction formelle, qui est une aide au passage des textes juridiques en langage naturel vers des programmes opérationnels pour implémenter des systèmes d'information juridiques, représente pour notre méthode un outil intéressant pour la conception et la validation des textes juridiques en particulier pour les points difficiles et complexes. Un prototype Temdeo (temporel et déontique) a été conçu permettant le passage automatique de la spécification formelle au programme informatique. Ce système permet aux juristes d'être plus explicite sur les buts ou les alternatives, de procéder à une analyse et calcul sur le temps à partir de textes. Cette analyse est d'autant plus rapide, automatique et correcte qu'elle va leur permettre d'automatiser certaines actions en minimisant le risque d'erreurs
Style APA, Harvard, Vancouver, ISO itp.
14

Niquil, Yves. "Acquisition d'exemples en discrimination : spécification des exemples par génération de scenarios". Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090063.

Pełny tekst źródła
Streszczenie:
La qualité de prédiction des intentions produites par un processus de discrimination à partir d'exemples est fortement liée au choix de ces exemples. Dans beaucoup de cas, l'acquisition des exemples représente l'une des difficultés majeures de telles opérations de discrimination. En particulier il est souvent délicat, pour l'expert ou pour toute autre source d'exemples, de produire spécifiquement les nouveaux exemples qui seraient susceptibles d'améliorer la qualité de prédiction de l'intention. Nous proposons ici une méthode pour guider l'acquisition des exemples. Cette méthode consiste à spécifier le plus souplement possible les exemples qui seraient susceptibles d'améliorer le plus fortement la qualité de prédiction de l'intention. On tentera pour cela de générer, à partir de l'intention produite par le processus de discrimination et des exemples qui ont servi à la produire, des scenarios pour de nouveaux exemples, c'est-a-dire des contraintes sur l'acquisition des nouveaux exemples. Nous montrons que l'on peut dresser une typologie des nouveaux exemples, fondée sur leur utilité. On distingue deux types de recherche de nouveaux exemples: la recherche interne, consistant à rechercher les zones vides d'exemples de l'espace de description, et qui a pour utilité de découvrir de nouveaux conjoints de l'intention ou d'éclater les conjoints existants; la recherche interstitielle, qui vise à rechercher de nouveaux exemples susceptibles de provoquer une adaptation des conjoints de l'intention. Nous montrons également que certaines des méthodes développées en vue d'aider un processus de discrimination à partir d'exemples peuvent également, avec des adaptations mineures, servir à aider un processus de discrimination à partir de descriptions de concept. Les scenarios visent alors à guider l'acquisition de nouvelles descriptions de concept. Les méthodes présentées sont appliquées à une série de domaines réels, dont une application industrielle, concernant l'aide à la modélisation de politiques de sécurité sur des réseaux de télécommunication
Style APA, Harvard, Vancouver, ISO itp.
15

Elferkh, Jrad Zeina. "Apport des techniques de l'intelligence artificielle dans la négociation dynamique de niveaux de service : proposition d'une interface utilisateur pour l'Internet de nouvelle génération". Paris 13, 2006. http://www.theses.fr/2006PA132005.

Pełny tekst źródła
Streszczenie:
L'évolution considérable de l'Internet en terme de nombre de fournisseurs de services et d'usage nécessite, de la part de l'utilisateur, une meilleure connaissance, à la fois de ses besoins et des offres disponibles. L'Internet actuel basé sur un réseau ‘'best-effort'', c'est-à-dire ne présentant aucune L'évolution considérable de l'Internet en terme de nombre de fournisseurs de services et d'usage nécessite, de la part de l'utilisateur, une meilleure connaissance, à la fois de ses besoins et des offres garantie sur la qualité de la communication, n'est plus suffisant aujourd'hui. Avec l'utilisation de plus en plus importante d'applications temps réel, principalement vidéo et audio, l'Internet se doit d'offrir des garanties de service, notamment en terme de débit, de délai et de taux de perte de l'information. Cette nouvelle génération d'Internet s'appuie, en grande partie, sur l'architecture DiffServ. Dans ce contexte, l'utilisateur doit négocier un certain niveau de service en fonction de ses besoins avant de transmettre ses données. Ce processus de négociation est complexe parce que l'utilisateur doit fournir les paramètres techniques dont il a besoin. C'est dans ce contexte général que se situent nos travaux de thèse. Nous proposons d'introduire un ``Assistant Individuel de Négociation'' (NIA : Negociation Individual Assistant) dans le terminal de l'utilisateur. Cet assistant l'aidera, à choisir dans un premier temps le meilleur fournisseur, puis à (re)négocier dynamiquement les paramètres techniques du SLA. . . Cette thèse porte donc sur la modélisation et la conception d'une interface intelligente, personnalisée et ayant pour objectif de permettre aux utilisateurs d'accéder à l'Internet et de demander des services en fonction de leurs besoins. . .
Style APA, Harvard, Vancouver, ISO itp.
16

Launay, Jean-Pierre. "Génération de code de protocole de communication par système expert". Paris 9, 1995. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1995PA090030.

Pełny tekst źródła
Streszczenie:
Les documents de spécification de protocoles de communication sont principalement écrits en langage naturel (norme OSI ou RFC internet). L'élaboration de langages formels intermédiaires (techniques formelles de description) a permis de structurer le cycle de développement de logiciel associé : à partir d'une spécification du protocole ayant été réécrite dans un tel langage, il est possible de générer automatiquement du code. Cependant, on connait peu de choses sur le processus (manuel) de reformulation du document initial vers une telle spécification formelle, et par voie de conséquence, il est difficile d'avoir la conviction de l'équivalence entre les deux niveaux de description. L'objectif de la thèse est de définir un langage formel intégrant différents types de représentations, et qui soit plus proche du langage naturel employé par le spécificateur, de sorte que l'on puisse qualifier de traduction le passage entre les deux niveaux de description
Style APA, Harvard, Vancouver, ISO itp.
17

Peureux, Fabien. "Génération de tests aux limites à partir de spécifications B en programmation logique avec contraintes ensemblistes". Besançon, 2002. http://www.theses.fr/2002BESA2046.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans cette thèse proposent une méthode originale de génération automatique de tests fonctionnels aux limites accompagnée d'un environnement baptisé BZ-Testing-Tools. Le but de notre démarche est de générer des jeux de tests à partir d'une machine abstraite B du système sous test produite spécialement pour la phase de test. Cette méthode repose sur la réécriture de la spécification B en un système de contraintes et la partition du domaine des variables de la spécification, ce qui permet d'exhiber l'ensemble des comportements du système. A partir de chaque comportement, des entrées de test aux limites sont calculées au moyen d'un solveur spécifique utilisant des techniques de Programmation Logique avec Contraintes. Des séquences de tests sont alors générées par parcours du graphe d'atteignabilité de la spécification. La vérification des résultats de l'exécution est effectuée par comparaison des états de sortie avec ceux obtenus par animation du modèle abstrait
The work presented in this thesis defines a functional test case generation method based on an original approach using formal methods. This method is fully supported by a tool-set called BZ-Testing-Tools. Our goal is to test some implementation from a B abstract machine of the system under test, which is not derived from the formal model. The test generation process works by translating the formal specifications of the system under test into an equivalent constraint system. A domain partition of the state variables of the specifications is performed to derive all the possible behaviours of the system. From each behaviour, test objectives are performed through a computation of boundary goals by a specific solver using Constraint Logic Programming. Then test cases are generated, by searching for a sequence of operations that reaches the boundary goal from the initial state. Finally, the formal specifications are used as an oracle to determinate the expected output for a given input
Style APA, Harvard, Vancouver, ISO itp.
18

Godbout, Mathieu. "Approches par bandit pour la génération automatique de résumés de textes". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69488.

Pełny tekst źródła
Streszczenie:
Ce mémoire aborde l'utilisation des méthodes par bandit pour résoudre la problématique de l'entraînement de modèles de générations de résumés extractifs. Les modèles extractifs, qui bâtissent des résumés en sélectionnant des phrases d'un document original, sont difficiles à entraîner car le résumé cible correspondant à un document n'est habituellement pas constitué de manière extractive. C'est à cet effet que l'on propose de voir la production de résumés extractifs comme différents problèmes de bandit, lesquels sont accompagnés d'algorithmes pouvant être utilisés pour l'entraînement. On commence ce document en présentant BanditSum, une approche tirée de la litérature et qui voit la génération des résumés d'un ensemble de documents comme un problème de bandit contextuel. Ensuite, on introduit CombiSum, un nouvel algorithme qui formule la génération du résumé d'un seul document comme un bandit combinatoire. En exploitant la formule combinatoire, CombiSum réussit à incorporer la notion du potentiel extractif de chaque phrase à son entraînement. Enfin, on propose LinCombiSum, la variante linéaire de CombiSum qui exploite les similarités entre les phrases d'un document et emploie plutôt la formulation en bandit linéaire combinatoire.
This thesis discusses the use of bandit methods to solve the problem of training extractive abstract generation models. The extractive models, which build summaries by selecting sentences from an original document, are difficult to train because the target summary of a document is usually not built in an extractive way. It is for this purpose that we propose to see the production of extractive summaries as different bandit problems, for which there exist algorithms that can be leveraged for training summarization models.In this paper, BanditSum is first presented, an approach drawn from the literature that sees the generation of the summaries of a set of documents as a contextual bandit problem. Next,we introduce CombiSum, a new algorithm which formulates the generation of the summary of a single document as a combinatorial bandit. By exploiting the combinatorial formulation,CombiSum manages to incorporate the notion of the extractive potential of each sentence of a document in its training. Finally, we propose LinCombiSum, the linear variant of Com-biSum which exploits the similarities between sentences in a document and uses the linear combinatorial bandit formulation instead
Style APA, Harvard, Vancouver, ISO itp.
19

El, Mernissi Karim. "Une étude de la génération d'explication dans un système à base de règles". Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066332.

Pełny tekst źródła
Streszczenie:
Le concept de “Business Rule Management System” (BRMS) a été introduit pour faciliter la création, la vérification, le déploiement et l'exécution des politiques commerciales propres à chaque compagnie. Basée sur une approche symbolique, l'idée générale est de permettre aux utilisateurs métier de gérer les changements des règles métier dans le système sans avoir besoin de recourir à des compétences techniques. Il s'agit donc de fournir à ces derniers la possibilité de formuler des politiques commerciales et d'automatiser leur traitement tout en restant proche du langage naturel. De nos jours, avec l'expansion de ce type de systèmes, il faut faire face à des logiques de décision de plus en plus complexes et à de larges volumes de données. Il n'est pas toujours facile d'identifier les causes conduisant à une décision. On constate ainsi un besoin grandissant de justifier et d'optimiser les décisions dans de courts délais qui induit l'intégration à ses systèmes d'une composante d'explication évoluée. Le principal enjeu de ces recherches est de fournir une approche industrialisable de l'explication des processus de décision d'un BRMS et plus largement d'un système à base de règles. Cette approche devra être en mesure d'apporter les informations nécessaires à la compréhension générale de la décision, de faire office de justification auprès d'entités internes et externes ainsi que de permettre l'amélioration des moteurs de règles existants. La réflexion se portera tant sur la génération des explications en elles-mêmes que sur la manière et la forme sous lesquelles elles seront délivrées
The concept of “Business Rule Management System” (BRMS) has been introduced in order to facilitate the design, the management and the execution of company-specific business policies. Based on a symbolic approach, the main idea behind these tools is to enable the business users to manage the business rule changes in the system without requiring programming skills. It is therefore a question of providing them with tools that enable to formulate their business policies in a near natural language form and automate their processing. Nowadays, with the expansion of intelligent systems, we have to cope with more and more complex decision logic and large volumes of data. It is not straightforward to identify the causes leading to a decision. There is a growing need to justify and optimize automated decisions in a short time frame, which motivates the integration of advanced explanatory component into its systems. Thus, the main challenge of this research is to provide an industrializable approach for explaining the decision-making processes of business rules applications and more broadly rule-based systems. This approach should be able to provide the necessary information for enabling a general understanding of the decision, to serve as a justification for internal and external entities as well as to enable the improvement of existing rule engines. To this end, the focus will be on the generation of the explanations in themselves as well as on the manner and the form in which they will be delivered
Style APA, Harvard, Vancouver, ISO itp.
20

Tientcheu, Joseph. "Couplage fonctionnel homme-machine : des communications interactives et de la génération des faits d'émotion". Paris 8, 2003. http://www.theses.fr/2003PA082328.

Pełny tekst źródła
Streszczenie:
Le texte présenté ci-dessus concerne une approche des communications par rapport à plusieurs sciences. La problématique est celle de l'interface homme-machine dans toutes ses composantes dans le cadre des médiations. L'hypothèse est que les nouvelles sciences nous apparaissent souvent comme une décongélation et qu'il convient de visiter ou de revisiter certaines sciences (psychologie, philosophie, intelligence artificielle) qui peuvent servir de fondements à notre vision des choses. La première partie plante le décors de la problématique à travers certains concepts et invariants qui constituent le premier socle de notre approche. La deuxième partie focalise sur ce que l'Homme a en particulier et en exclusivité quant aux communications ayant un sens. La troisième partie nous dit en quoi nous ressemblons ou divergeons par rapport aux machines pour les communications. La quatrième partie nous décrit quelques outils fondamentaux qui rendent fécond notre univers de recherche. La dernière et cinquième partie est une prospective vers un essai de modélisation sur un mode complexe et nous montre ce que l'intelligence artificielle peut nous apporter dans une démarche systémique tendant vers une écologie de la communication
This text is a mediologic approach of communication by comparison with many other sciences. It develops a theory based upon human and computer interface with the help of psychology, philosophy and Artificial Intelligency which can help us to get a new vision on hypermedia communications. The first part illustrates how somes parameters and concepts involve in our process construction. The second part describes in what HUMAN being is particular, the third part shows some common points and differences beetwen human and the computer about communications. The fourth part represents the staging tools concerning the rich feeld of our commitment. The end is a reflexion about systemic construction wich can helps us to built an ecologic communications approach
Style APA, Harvard, Vancouver, ISO itp.
21

Fahlaoui, Ouafae. "Système expert de génération automatique de Grafcet à partir d'une spécification lexicale libre du cahier des charges". Paris 11, 1987. http://www.theses.fr/1987PA112204.

Pełny tekst źródła
Streszczenie:
Le système wab constitue une bonne application de l'intelligence artificielle à la conception des automatismes logiques. Il permet la traduction du cahier de charges rédigé en langage libre en un outil de description normalisé: le grafcet. Il est conçu suivant une structure de système expert : l'interface de communication homme/machine ; la base des connaissances; le mécanisme de raisonnement. Les performances du système wab pourraient être améliorés par l'utilisation de versions récentes de prolog.
Style APA, Harvard, Vancouver, ISO itp.
22

Giroire, Hélène. "Un système à base de connaissances pour la génération d'exercices dans des domaines liés au monde réel". Paris 6, 1989. http://www.theses.fr/1989PA066210.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
23

Wang, Dong Hue. "Systèmes multi-agents adaptatifs avec contraintes temps-réel : De la spécification formelle à la vérification et à la génération de code". Evry-Val d'Essonne, 2005. http://www.theses.fr/2005EVRY0011.

Pełny tekst źródła
Streszczenie:
La conception de systèmes réactifs répond à des impératifs de correction logique (le système fait ce qu'il doit) et de correction temporelle (le système se conforme à un ensemble de contraintes temporelles). Nous proposons dans cet article une approche globale de conception de systèmes réactifs adaptatifs, c'est à dire adaptant dynamiquement leur architecture en fonction du contexte. Pour représenter le comportement des agents composant le système, nous utilisons le formalisme des automates temporisés, ce qui permet d'évaluer à priori les propriétés du système (en termes de correction logique et temporelle), grâce à des techniques de model-checking et de simulation. Des outils de génération automatique de code, que nous avons développés, nous permettent ensuite de produire rapidement, à partir du modèle, un prototype multi-agents opérationnel qui satisfait les mêmes propriétés
The design of reactive systems must comply with logical correctness (the system does what it supposed to do) and timeliness (the system has to satisfy a set of temporal constraints) criteria. In this paper, we propose a global approach for the design of adaptative reactive systems, i. E. Systems that dynamically adapt their architecture depending on the context. We use the timed automata formalism for the design of the agents' behaviour. This allows evaluating beforehand the properties of the system (regarding logical correctiness and timeliness), thanks to model-checking and simulation techniques. This model is enhanced to tools that we developed for the automatic generation of code, allowing to produce very quickly a running multi-agent prototype satisfying the properties of model
Style APA, Harvard, Vancouver, ISO itp.
24

Hankach, Pierre. "Génération automatique de textes par satisfaction de contraintes". Paris 7, 2009. http://www.theses.fr/2009PA070027.

Pełny tekst źródła
Streszczenie:
Nous nous intéressons dans cette thèse à la construction d'un système de génération automatique - un logiciel informatique capable de transformer une représentation formelle de l'information en un texte en langage naturel. Dans notre approche, nous définissons la génération comme un problème de satisfaction de contraintes (CSP). Le système résultant garantit un traitement intégré des opérations de la génération car les différentes dépendances sont prises en compte et aucune priorité n'est donnée à un type d'opération par rapport aux autres. Pour définir le problème de satisfaction de contraintes, nous représentons les opérations de construction du texte par des variables de décision. Les opérations individuelles qui réalisent un même type d'expressions minimales dans le texte sont groupées ensemble et constituent une tâche de la génération. Nous classons les variables de décision selon les types d'opérations qu'elles représentent (e. G. Variables de sélection du contenu, variables de structuration du document. . . ). Les règles linguistiques régissant les opérations sont représentées par des contraintes sur les variables. Une contrainte peut être définie sur des variables d'un ou plusieurs type(s), marquant la dépendance entre les opérations correspondantes. La production d'un texte consiste en la résolution du système global des contraintes, c'est-à-dire trouver une affectation complète des variables qui ne viole pas les contraintes. Dans le cadre de la définition de la grammaire de contraintes, nous formulons notamment la partie qui régit les opérations de structuration du document. Nous modélispns par des contraintes la structure rhétorique développée par la SORT afin d'aboutir à des textes cohérents à la sortie du générateur. Auparavant, afin d'augmenter les capacités de génération de notre système, nous étendons cette structure rhétorique pour couvrir les textes non canoniques. En plus de la définition de ces contraintes pour la cohérence, nous formulons un ensemble de contraintes qui permettent de façonner la macrostructure en fonction des buts communicatifs afin de favoriser leur réalisation. Enfin, nous proposons une solution au problème de la complexité de calcul de la génération de textes de grande taille. Cette solution repose sur la génération de ces textes par paquet de propositions. Le problème de génération du texte global est ainsi défini comme plusieurs problèmes de génération de parties du texte. Ces parties sont de taille limitée et la complexité associée à leur génération reste raisonnable. Le partitionnement proposé est motivé par des considérations linguistiques
We address in this thesis the construction of a natural language generation System - computer software that transforms a formal representation of information into a text in natural language. In our approach, we define the generation problem as a constraint satisfaction problem (CSP). The implemented System ensures an integrated processing of generation operations as their different dependencies are taken into account and no priority is given to any type of operation over the others. In order to define the constraint satisfaction problem, we represent the construction operations of a text by decision variables. Individual operations that implement the same type of minimal expressions in the text form a generation task. We classify decision variables according to the type of operations they represent (e. G. Content selection variables, document structuring variables. . . ). The linguistic rules that govern the operations are represented as constraints on the variables. A constraint can be defined over variables of the same type or different types, capturing the dependency between the corresponding operations. The production of a text consists of resolving the global System of constraints, that is finding an evaluation of the variables that satisfies all the constraints. As part of the grammar of constraints for generation, we particularly formulate the constraints that govern document structuring operations. We model by constraints the rhetorical structure of SORT in order to yield coherent texts as the generator's output. Beforehand, in order to increase the generation capacities of our System, we extend the rhetorical structure to cover texts in the non-canonical order. Furthermore, in addition to defining these coherence constraints, we formulate a set of constraints that enables controlling the form of the macrostructure by communicative goals. Finally, we propose a solution to the problem of computational complexity of generating large texts. This solution is based on the generation of a text by groups of clauses. The problem of generating a text is therefore divided into many problems of reduced complexity, where each of them is concerned with generating a part of the text. These parts are of limited size so the associated complexity to their generation remains reasonable. The proposed partitioning of generation is motivated by linguistic considerations
Style APA, Harvard, Vancouver, ISO itp.
25

Tallon, Quentin. "Intelligence artificielle pour la détection automatique de translocations chromosomiques : application à la dosimétrie biologique rétrospective basée sur l'imagerie FISH". Electronic Thesis or Diss., Université de Rennes (2023-....), 2025. http://www.theses.fr/2025URENS001.

Pełny tekst źródła
Streszczenie:
L'évaluation précise de la dose est essentielle après une exposition aux rayonnements ionisants, en particulier pour la prise en charge des victimes asymptomatiques. Parmi les méthodes disponibles, la dosimétrie biologique s'appuie sur l'imagerie cytogénétique pour identifier les aberrations chromosomiques dans les lymphocytes. Les aberrations stables, détectables par imagerie par Fluorescence In Situ Hybridization (FISH), sont particulièrement utiles pour la dosimétrie rétrospective. Cette étude vise à automatiser la détection des aberrations stables à l'aide de techniques d'apprentissage profond. Nous avons développé une méthode basé sur des modèles de pointe pour la détection d'objets au niveau de la métaphase, ainsi que des modèles de convolution pour la classification au niveau des chromosomes après segmentation. Un défi majeur était la disponibilité limitée des données annotées et la rareté des translocations, que nous avons abordées par la génération de données synthétiques à l'aide de modèles de diffusion générative. Notre approche génère des chromosomes transloqués synthétiques à partir d'images non annotées, ce qui donne des résultats prometteurs pour la détection automatisée des aberrations et améliore l'efficacité de l'imagerie cytogénétique dans les applications de dosimétrie
Accurate dose assessment is essential following ionizing radiation exposure, particularly for managing asymptomatic victims. Among the methods available, biological dosimetry relies on cytogenetic imaging to identify chromosomal aberrations in lymphocytes. Stable aberrations, detectable via Fluorescence In Situ Hybridization (FISH) imaging, are especially useful for retrospective dosimetry. This study aims to automate the detection of stable aberrations using deep learning techniques. We developed a workflow based on state-of-the-art models for metaphase-level object detection, alongside convolution models for chromosome-level classification after segmentation. A major challenge was the limited availability of annotated data and the rarity of translocations, which we addressed through synthetic data generation using generative diffusion models. Our approach generates synthetic translocated chromosomes from unannotated images, yielding promising results for automated aberration detection, and enhancing the efficiency of cytogenetic imaging in dosimetry applications
Style APA, Harvard, Vancouver, ISO itp.
26

Naanaa, Wady. "Résolution de problèmes de satisfaction de contraintes intégrant la flexibilité et la symétrie : application à la génération de structures moléculaires". Lyon 1, 1996. http://www.theses.fr/1996LYO10320.

Pełny tekst źródła
Streszczenie:
Dans ce memoire, nous introduisons une procedure systematique pour la resolution de problemes de satisfaction de contraintes binaires (csps). Cette procedure integre deux strategies de recherche. Nous proposons des extensions au formalisme csp standard. Ces extensions permettent la relaxation des csps surcontraints et la resolution de csps ayant une structure ambigue. Nous proposons egalement une methode, pour le traitement de la symetrie inherente aux csps. Cette methode s'appuie sur les automorphismes de graphe simple. Nous validons les methodes et procedures proposees sur le probleme de l'identification des structures moleculaires qui est un probleme central en chimie analytique.
Style APA, Harvard, Vancouver, ISO itp.
27

Franceschi, Jean-Yves. "Apprentissage de représentations et modèles génératifs profonds dans les systèmes dynamiques". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS014.

Pełny tekst źródła
Streszczenie:
L'essor de l'apprentissage profond trouve notamment sa source dans les avancées scientifiques qu'il a permises en termes d'apprentissage de représentations et de modèles génératifs. Dans leur grande majorité, ces progrès ont cependant été obtenus sur des données textuelles et visuelles statiques, les données temporelles demeurant un défi pour ces méthodes. Compte tenu de leur importance pour l'automatisation croissante de multiples tâches, de plus en plus de travaux en apprentissage automatique s'intéressent aux problématiques d'évolution temporelle. Dans cette thèse, nous étudions ainsi plusieurs aspects de la temporalité et des systèmes dynamiques dans les réseaux de neurones profonds pour l'apprentissage non supervisé de représentations et de modèles génératifs. Premièrement, nous présentons une méthode générale d'apprentissage de représentations non supervisée pour les séries temporelles prenant en compte des besoins pratiques d'efficacité et de flexibilité. Dans un second temps, nous nous intéressons à l'apprentissage pour les séquences structurées de nature spatio-temporelle, couvrant les vidéos et phénomènes physiques. En les modélisant par des équations différentielles paramétrisées par des réseaux de neurones, nous montrons la corrélation entre la découverte de représentations pertinentes d'un côté, et de l'autre la fabrique de modèles prédictifs performants sur ces données. Enfin, nous analysons plus généralement dans une troisième partie les populaires réseaux antagonistes génératifs dont nous décrivons la dynamique d'apprentissage par des équations différentielles, nous permettant d'améliorer la compréhension de leur fonctionnement
The recent rise of deep learning has been motivated by numerous scientific breakthroughs, particularly regarding representation learning and generative modeling. However, most of these achievements have been obtained on image or text data, whose evolution through time remains challenging for existing methods. Given their importance for autonomous systems to adapt in a constantly evolving environment, these challenges have been actively investigated in a growing body of work. In this thesis, we follow this line of work and study several aspects of temporality and dynamical systems in deep unsupervised representation learning and generative modeling. Firstly, we present a general-purpose deep unsupervised representation learning method for time series tackling scalability and adaptivity issues arising in practical applications. We then further study in a second part representation learning for sequences by focusing on structured and stochastic spatiotemporal data: videos and physical phenomena. We show in this context that performant temporal generative prediction models help to uncover meaningful and disentangled representations, and conversely. We highlight to this end the crucial role of differential equations in the modeling and embedding of these natural sequences within sequential generative models. Finally, we more broadly analyze in a third part a popular class of generative models, generative adversarial networks, under the scope of dynamical systems. We study the evolution of the involved neural networks with respect to their training time by describing it with a differential equation, allowing us to gain a novel understanding of this generative model
Style APA, Harvard, Vancouver, ISO itp.
28

Molinet, Benjamin. "Génération et évaluation d'explications argumentatives en langage naturel appliquées au domaine médical". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4063.

Pełny tekst źródła
Streszczenie:
L'Argument Mining, un domaine en pleine expansion du traitement automatique du langage naturel (TALN) et des modèles informatiques d'argumentation, vise à reconnaître automatiquement les structures d'argumentation (c'est-à-dire les composants et les relations) dans les ressources textuelles en langage naturel. Dans le domaine médicale, l'Argument Mining s'est avérée bénéfique en fournissant des méthodes pour détecter automatiquement les structures argumentatives afin de soutenir la médecine fondée sur des preuves. L'importance de ces approches repose sur le fait que, malgré la précision des modèles neuronaux dans la prédiction de diagnostic médical, l'explication de leurs résultats reste problématique. Cette thèse aborde cette question ouverte et se concentre sur la génération et l'évaluation d'explications argumentatives en langage naturel pour les prédictions de diagnostic, afin d'aider les cliniciens dans la prise de décision et l'apprentissage. Tout d'abord, j'ai proposé un nouveau pipeline complet pour générer automatiquement des explications en langage naturel d'examens (QCM) médicaux sur les diagnostics en s'appuyant sur une ontologie médicale et des entités cliniques à partir des textes d'examen. J'ai défini un système état de l'art de reconnaissance et de classification des entités médicales nommées (NERC) pour détecter les symptômes exprimés par les patients et les résultats médicaux que j'aligne sur les termes de l'ontologie afin de justifier le diagnostic d'un cas clinique fourni aux résidents en médecine. Le module NERC, appelé SYMEXP, permet à notre système de générer des explications argumentatives en langage naturel basées sur des templates afin de justifier pourquoi la bonne réponse est correcte et pourquoi les autres options proposées ne le sont pas. Deuxièmement, j'ai proposé un cadre d'évaluation des explications basées sur l'argumentation, appelé ABEXA, pour extraire automatiquement la structure argumentative d'un QCM médicale et mettre en évidence un ensemble de critères personnalisables pour caractériser l'explication clinique et l'argumentation du document. ABEXA aborde la question de l'évaluation des explications d'un point de vue argumentatif en définissant un ensemble de patterns sur un graphe argumentatif généré automatiquement. Troisièmement, j'ai contribué à la conception et au développement de la suite de logiciels ANTIDOTE, qui propose différents modules d'intelligence artificielle explicative guidée par l'argumentation pour la médecine. Notre système offre les fonctionnalités suivantes : analyse argumentative multilingue pour le domaine médical, explication, extraction et génération de diagnostics cliniques, modèles linguistiques multilingues pour le domaine médical, et le premier benchmark multilingue de QCM médicaux. En conclusion, dans cette thèse, j'explore comment l'intelligence artificielle combinée à la théorie de l'argumentation pourrait conduire à des systèmes de soins de santé plus transparents. Nous appliquons nos résultats au domaine critique de la médecine en montrant tout leur potentiel en termes de soutien à l'éducation, par exemple, des étudiants en médecine
Argument(ation) mining, a rapidly growing area of Natural Language Processing (NLP) and computational models of argument, aims at the automatic recognition of argument structures (i.e., components and relations) in natural language textual resources. In the healthcare domain, argument mining has proven beneficial in providing methods to automatically detect argumentative structures to support Evidence-Based Medicine (EBM). The importance of these approaches relies on the fact that, despite the accuracy of neural models in medical diagnosis, explanation of their outcomes remains problematic. The thesis tackles this open issue and focuses on generation and assessment of natural language argumentative explanations for diagnosis predictions, supporting clinicians in decision making and learning. First, I proposed a novel complete pipeline to automatically generate natural language explanations of medical question answering exams for diagnoses relying on a medical ontology and clinical entities from exam texts. I defined a state-of-the-art medical named entity recognition and classification (NERC) system to detect layperson symptoms and medical findings that I align to ontology terms so as to justify a diagnosis of a clinical case provided to medical residents. NERC module, called SYMEXP, allows our system to generate template-based natural language argumentative explanations to justify why the correct answer is correct and why the other proposed options are not. Second, I proposed an argument-based explanation assessment framework, called ABEXA, to automatically extract the argumentative structure of a medical question answering document and highlight a set of customisable criteria to characterise the clinical explanation and the document argumentation. ABEXA tackles the issue of explanation assessment from the argumentative viewpoint by defining a set of graph rules over an automatically generated argumentative graph. Third, I contributed to the design and development of the ANTIDOTE software tool, proposing different modules for argumentation-driven explainable Artificial Intelligence for digital medicine. Our system offers the following functionalities: multilingual argumentative analysis for the medical domain, explanation, extraction and generation of clinical diagnoses, multilingual large language models for the medical domain, and the first multilingual benchmark for medical question-answering. In conclusion, in this thesis, I explore how artificial intelligence combined with the argumentation theory could lead to more transparent healthcare systems. We apply our results to the critical domain of medicine showing all their potential in terms of support for education, for example, of clinical residents
Style APA, Harvard, Vancouver, ISO itp.
29

Ben, ameur Ayoub. "Artificial intelligence for resource allocation in multi-tenant edge computing". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS019.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous considérons le Edge Computing (EC) comme un environnement multi-tenant où les Opérateurs Réseau (NOs) possèdent des ressources en périphérie déployées dans les stations de base, les bureaux centraux et/ou les boîtiers intelligents, les virtualisent, et permettent aux Fournisseurs de Services tiers (SPs) - ou tenants - de distribuer une partie de leurs applications en périphérie afin de répondre aux demandes des utilisateurs. Les SPs aux besoins hétérogènes coexistent en périphérie, allant des Communications Ultra-Fiables à Latence Ultra-Basse (URLLC) pour le contrôle des véhicules ou des robots, à la Communication de Type Machine Massive (mMTC) pour l'Internet des Objets (IoT) nécessitant un grand nombre de dispositifs connectés, en passant par les services multimédias tels que la diffusion vidéo et la Réalité Augmentée/Virtuelle (AR/VR), dont la qualité d'expérience dépend fortement des ressources disponibles. Les SPs orchestrent indépendamment leur ensemble de microservices, exécutés dans des conteneurs, qui peuvent être facilement répliqués, migrés ou arrêtés. Chaque SP peut s'adapter aux ressources allouées par le NO, en décidant s'il doit exécuter des microservices sur les appareils, les nœuds en périphérie ou dans le cloud.L'objectif de cette thèse est de promouvoir l'émergence de déploiements réels du ``véritable" EC dans de vrais réseaux, en montrant l'utilité que les NOs peuvent tirer de l'EC. Nous croyons que cela peut contribuer à encourager l'engagement concret et les investissements des NOs dans l'EC. À cette fin, nous proposons de concevoir de nouvelles stratégies basées sur les données qui allouent efficacement les ressources entre les SPs hétérogènes, en périphérie, appartenant au NO, afin d'optimiser ses objectifs pertinents, tels que la réduction des coûts, la maximisation des revenus et l'amélioration de la Qualité de Service (QoS) perçue par les utilisateurs finaux, en termes de latence, de fiabilité et de débit, tout en répondant aux exigences des SPs.Cette thèse présente une perspective sur la manière dont les NOs, les seuls propriétaires de ressources en périphérie, peuvent extraire de la valeur grâce à la mise en œuvre de l'EC dans un environnement multi-tenant. En promouvant cette vision de l'EC et en la soutenant par des résultats quantitatifs et une analyse approfondie, cette thèse fournit principalement aux NOs des conclusions susceptibles d'influencer les stratégies de décision concernant le déploiement futur de l'EC. Cela pourrait favoriser l'émergence de nouvelles applications à faible latence et à forte intensité de données, telles que la réalité augmentée haute résolution, qui ne sont pas envisageables dans le cadre actuel du Cloud Computing (CC).Une autre contribution de la thèse est qu'elle propose des solutions basées sur des méthodes novatrices exploitant la puissance de l'optimisation basée sur les données. En effet, nous adaptons des techniques de pointe issues de l'Apprentissage par Renforcement (RL) et de la prise de décision séquentielle au problème pratique de l'allocation des ressources en EC. Ce faisant, nous parvenons à réduire le temps d'apprentissage des stratégies adoptées à des échelles compatibles avec la dynamique de l'EC, grâce à la conception soignée de modèles d'estimation intégrés au processus d'apprentissage. Nos stratégies sont conçues de manière à ne pas violer les garanties de confidentialité essentielles pour que les SPs acceptent d'exécuter leurs calculs en périphérie, grâce à l'environnement multi-tenant
We consider in this thesis Edge Computing (EC) as a multi-tenant environment where Network Operators (NOs) own edge resources deployed in base stations, central offices and/or smart boxes, virtualize them and let third party Service Providers (SPs) - or tenants - distribute part of their applications in the edge in order to serve the requests sent by the users. SPs with heterogeneous requirements coexist in the edge, ranging from Ultra-Reliable Low Latency Communications (URLLC) for controlling cars or robots, to massive Machine Type Communication (mMTC) for Internet of Things (IoT) requiring a massive number of connected devices, to media services, such as video streaming and Augmented/Virtual Reality (AR/VR), whose quality of experience is strongly dependant on the available resources. SPs independently orchestrate their set of microservices, running on containers, which can be easily replicated, migrated or stopped. Each SP can adapt to the resources allocated by the NO, deciding whether to run microservices in the devices, in the edge nodes or in the cloud.We aim in this thesis to advance the emergence of real deployments of the“true” EC in real networks, by showingthe utility that NOs can collect thanks to EC. We believe that thiscan contribute to encourage concrete engagement and investments engagement of NOs in EC. For this, we point to design novel data-driven strategiesthat efficiently allocate resources between heterogeneous SPs, at the edge owned by the NO, in order to optimize its relevant objectives, e.g., cost reduction, revenue maximization and better Quality of Service (QoS) perceived by end users, in terms of latency, reliability and throughput, while satisfying the SPs requirements.This thesis presents a perspective on how NOs, the sole owners of resources at the far edge (e.g., at base stations), can extract value through the implementation of EC within a multi-tenant environment.By promoting this vision of EC and by supporting it via quantitativeresults and analysis, this thesis provides, mainly to NOs, findings that can influence decision strategies about the future deployment of EC. This might foster the emergence of novel low-latency and data-intensive applications, such as high resolution augmented reality, which are not feasible in the current Cloud Computing (CC) setting.Another contribution of the thesis it that it provides solutions based on novel methods that harness the power of data-driven optimization.We indeed adapt cutting-edge techniques from Reinforcement Learning (RL) and sequential decision making to the practical problem of resource allocation inEC. In doing so, we succeed in reducing the learning time of the adopted strategies up to scales that are compatible with the EC dynamics, via careful design of estimation models embedded in the learning process. Our strategies are conceived in order not to violate the confidentiality guarantees that are essential for SPs to accept running their computation at the EC, thanks to the multi-tenant setting
Style APA, Harvard, Vancouver, ISO itp.
30

Rarivomanana, Jens A. "Système CADOC : génération fonctionnelle de test pour les circuits complexes". Phd thesis, Grenoble INPG, 1985. http://tel.archives-ouvertes.fr/tel-00319028.

Pełny tekst źródła
Streszczenie:
Le système CADOC est un outil de conception assisté pour circuits VLSI, basé sur le langage CADOC-LD. Présentation du langage CADOC-LD en tenant compte de l'étude du langage de description de matériel CHDL. Application à partir du langage CADOC-LD basée sur les techniques d'exécution symbolique temporisée et de l'intelligence artificielle
Style APA, Harvard, Vancouver, ISO itp.
31

Audemard, Gilles. "Résolution du problème SAT et génération de modèles finis en logique du premier ordre". Aix-Marseille 1, 2001. http://www.theses.fr/2001AIX11036.

Pełny tekst źródła
Streszczenie:
Dans la première partie de cette thèse nous traitons du problème SAT. Nous proposons un lagorithme permettant de détecter des mono-littéraux que la procédure de DAVIS et PUTNAM (DP) n'exploite pas. Cet algorithme est combiné avec la procédure DP créant ainsi une méthode que nous avons nommé AVAL. L'étude expérimentale que nous avons menée a mis en avant une avalanche de propagation de mono-littéraux donnant lieu à cette appellation. Dans la deuxième partie, nous abordons la génération de modèles finis pour les théories multi-types de la logique du premier ordre. Nous avons essayé d'améliorer la propagation des contraintes de diverses manières. La première utilise un pré-traitement qui modifie la syntaxe de la théorie. La deuxième est un algorithme de type "look-ahead" qui détecte les valeurs de domaines incompatibles et induit une heuristique de type UP. La dernière crée, à partir de la syntaxe de la théorie, un ordre de préférence sur les symboles fonctionnels que nous utilisons pour mettre au point des heuristiques optimisant la propagation. Les problèmes exprimés sous forme de théories multi-types contiennent souvent un grand nombre de symétries. Il est nécessaire d'en supprimer une partie pour avoir un générateur de modèles finis efficace. Certains utilisent l'heuristique LNH pour supprimer les isomorphismes triviaux. Nous proposons une extension de cette dernière, nommée XLNH , qui ne génère que les interprétations non symétriques d'une fonction unaire. Elle détecte ensuite statiquement certains isomorphismes sans sur-coût de temps. Nous avons ensuite étudié un cadre plus général de la symétrie, nous montrons de nouvelles propriétés concernant les symétries et étudions un algorithme qui permet de les détecter et de les exploiter dynamiquement. Nous montrons, notamment, que les symétries supprimées par les heuristiques LNH et XLNH sont des cas particuliers de ce cadre d'étude.
Style APA, Harvard, Vancouver, ISO itp.
32

Arantes, Júnior Wilmondes Manzi de. "P. A. S. Pluggable Alert System : un système pour la génération et l'affichage d'alertes médicales adaptées à l'utilisateur". Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0025/these.pdf.

Pełny tekst źródła
Streszczenie:
Ce travail concerne la conception et le développement d’un système de détection d’alertes médicales adaptables au contexte de consultation dans le cadre des réseaux de soins. Ces alertes sont créées à l’aide de variables linguistiques associées à des niveaux d’importance (alerte si âge = âgé; important et température = très-chaud; très-important) et dont les rapports d’influence (le poids dépend de l’âge) sont modélisés par un graphe orienté pondéré. Chaque alerte déclenchée présente deux indices de qualité – dits d’applicabilité et de confiance – qui indiquent dans quelle mesure le patient est concerné et jusqu’à quel point elle est digne de confiance. Notre système est aussi capable de traiter de façon transparente les informations manquantes en s’appuyant sur une base historique utilisée pour prédire le valeurs inconnues. Au niveau de l’affichage, un module multi-agents se charge d’adapter les alertes déclenchées au contexte, qui est représenté, entre autres, par les caractéristiques du professionnel de santé, le dispositif d’affichage et l’urgence. L’adaptation est alors menée par trois agents intelligents – le patient, le médecin et l’alerte – qui négocient sur la qualité requise pour chaque dimension de l’interface finale : le contenu, le graphisme et la sécurité. Ensuite, des appels d’offre correspondants sont diffusés dans trois sociétés d’agents de service exécuteurs de tâches qui représentant ces trois dimensions et ceux qui les gagnants collaborent pour construire l’interface de l’alerte. Finalement, les tests réalisés sur le module de détection – qui fera l’objet d’un dépôt de brevet – se sont montrés très satisfaisants
We propose a system that is able to detect and trigger user-defined medical alerts in the context of healthcare networks. Such alerts are created by using fuzzy linguistic variables associated with importance levels (e. G. Alert if age = elderly; important and air-temperature = very-hot; very-important) and whose dependency relationships (e. G. The weight depends on the age) are modeled through a weighted oriented graph. Each alert the system triggers has two quality indicators – an applicability level and a trust level – which state to which extent the patient is concerned and how reliable it is. Our system is also able to transparently infer missing information by using an historical database containing previously reported similar cases. Finally, a multi-agents display module adapts each alert to the context, which is represented by the patient (elderly, etc. ), the healthcare user (physician, etc. ), the display device (PC, PDA, etc. ), the place (hospital, etc. ) and the urgency of the alert itself (very urgent, etc. ). The adaptation process is controlled by three intelligent agents – the patient, the physician and the alert – which negotiate to agree on the min-max quality levels required for the three dimensions of display: contents (information that will be shown), graphics (graphic components that will be used) and security (protection mechanisms to use). Then, the corresponding task announcements are broadcasted within three societies of reactive agents (which have not cognitive capabilities and simply perform tasks) representing these dimensions and the winning ones collaborate to build the interface of the alert. The final system will be integrated into the hospital information system provided by the company that has sponsored my research and will be patented as soon as possible
Style APA, Harvard, Vancouver, ISO itp.
33

Caudron, Didier. "Utilisation de techniques de résolution de problèmes pour la planification de séquences de redémarrage de processus continus". Compiègne, 1990. http://www.theses.fr/1990COMPD306.

Pełny tekst źródła
Streszczenie:
Après avoir présenté les principales caractéristiques et difficultés liées aux problèmes de planification d'opérations pendant les périodes de démarrage, nous proposons une représentation en terme de modes de fonctionnement des unités de production chimiques de type continues. Cette représentation a été élaborée après entretiens avec les opérateurs, elle est basée sur le concept général de région opératoire. Un mode de fonctionnement est défini comme un chemin de fluide autorisé pendant les périodes de démarrage. Une méthode permet de proposer une séquence de modes de fonctionnement ainsi que les conditions de transition qui permettent de passer d'un mode à un autre. Pour finir nous présentons des mécanismes permettant lors de l'exécution du plan de fournir les actions à mener sur le processus pour passer d'un mode à l'autre.
Style APA, Harvard, Vancouver, ISO itp.
34

Santoni, Williams Alexius. "Apprentissage par mémorisation d'expériences dans la résolution des problèmes". Compiègne, 1989. http://www.theses.fr/1989COMPD160.

Pełny tekst źródła
Streszczenie:
Le travail que nous présentons est composé de deux études. La première partie porte sur les mécanismes propres à l'apprentissage en général, nous y étudions un ensemble de caractéristiques nécessaires à la mise en oeuvre des systèmes capables d'apprendre. Nous arguons que pour parvenir à ce but il faut être en mesure de mémoriser ses expériences passées, suite à cela nous présentons une recompilation et caractérisation des recherches sur l'apprentissage dans le domaine de l'intelligence artificielle. La deuxième partie concerne la mise en oeuvre d'un système qui apprend des comportements procéduraux par mémorisation des expériences dans la résolution des problèmes. Nous utilisons la technique du Morcellement (Rosenbloom, 1983) et de génération automatique des sous-buts (Laird, 1983). Le Morcellement étant une méthode de choix des informations pertinentes à la description d'une situation rencontrée et la génération automatique des sous-buts est une méthode générale de résolution des problèmes qui permet, entre autres, d'utiliser le Morcellement. Le résultat est un système semblable à SOAR (Laird, Rosenbloom, Newell 1986a).
Style APA, Harvard, Vancouver, ISO itp.
35

Ciguene, Richardson. "Génération automatique de sujets d'évaluation individuels en contexte universitaire". Electronic Thesis or Diss., Amiens, 2019. http://www.theses.fr/2019AMIE0046.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse s'intéresse à l'évaluation des apprentissages et notamment à la génération automatique de sujets d'évaluations dans les universités. Nous nous appuyons sur une base de questions sources pour créer les questions des sujets grâce à des algorithmes qui sont en mesure de construire des tests d'évaluation différenciés. Ces recherches ont permis d'élaborer une métrique qui mesure cette différenciation et de proposer des algorithmes visant à maximiser la différenciation totale sur des collections de tests, tout en minimisant le nombre de patterns nécessaires. Les performances en moyenne de ces derniers dépendent du nombre de patterns disponibles dans la base source (en regard du nombre d'items souhaités dans les tests), et de la taille des collections générées. On s'est focalisé sur la différenciation possible dans de très petites collections de sujets, et propose des pistes méthodologiques pour optimiser la distribution de ces sujets différenciés à des cohortes d'étudiants en respectant les contraintes de l'enseignant. La suite de ce travail sera éventuellement de prendre en compte le niveau de difficulté d'un Test comme nouvelle contrainte, en s'appuyant en partie sur les données statistiques et sémantiques récoltées après chaque Épreuve. Le but est de pouvoir maximiser la différenciation en gardant l'équité entre les Tests d'une Collection, pour une distribution optimisée lors des Épreuves
This PhD work focuses on the evaluation of learning and especially the automatic generation of evaluation topics in universities. We rely on a base of source questions to create topic questions through algorithms that are able to construct differentiated assessment tests. This research has made it possible to develop a metric that measures this differentiation and to propose algorithms aimed at maximizing total differentiation on test collections, while minimizing the number of necessary patterns. The average performance of the latter depends on the number of patterns available in the source database (compared to the number of items desired in the tests), and the size of the generated collections. We focused on the possible differentiation in very small collections of subjects, and proposes methodological tracks to optimize the distribution of these differentiated subjects to cohorts of students respecting the constraints of the teacher. The rest of this work will eventually take into account the level of difficulty of a test as a new constraint, relying in part on the statistical and semantic data collected after each test. The goal is to be able to maximize the differentiation by keeping the equity between the Tests of a Collection, for an optimized distribution during the Events
Style APA, Harvard, Vancouver, ISO itp.
36

Jeyasothy, Adulam. "Génération d'explications post-hoc personnalisées". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS027.

Pełny tekst źródła
Streszczenie:
La thèse se place dans le domaine de l'IA explicable (XAI, eXplainable AI). Nous nous concentrons sur les méthodes d'interprétabilité post-hoc qui visent à expliquer à un utilisateur la prédiction pour une donnée d'intérêt spécifique effectuée par un modèle de décision entraîné. Pour augmenter l'interprétabilité des explications, cette thèse étudie l'intégration de connaissances utilisateur dans ces méthodes, et vise ainsi à améliorer la compréhensibilité de l'explication en générant des explications personnalisées adaptées à chaque utilisateur. Pour cela, nous proposons un formalisme général qui intègre explicitement la connaissance via un nouveau critère dans les objectifs d'interprétabilité. Ce formalisme est ensuite décliné pour différents types connaissances et différents types d'explications, particulièrement les exemples contre-factuels, conduisant à la proposition de plusieurs algorithmes (KICE, Knowledge Integration in Counterfactual Explanation, rKICE pour sa variante incluant des connaissances exprimées par des règles et KISM, Knowledge Integration in Surrogate Models). La question de l'agrégation des contraintes de qualité classique et de compatibilité avec les connaissances est également étudiée et nous proposons d'utiliser l'intégrale de Gödel comme opérateur d'agrégation. Enfin nous discutons de la difficulté à générer une unique explication adaptée à tous types d'utilisateurs et de la notion de diversité dans les explications
This thesis is in the field of eXplainable AI (XAI). We focus on post-hoc interpretability methods that aim to explain to a user the prediction for a specific data made by a trained decision model. To increase the interpretability of explanations, this thesis studies the integration of user knowledge into these methods, and thus aims to improve the understandability of the explanation by generating personalized explanations tailored to each user. To this end, we propose a general formalism that explicitly integrates knowledge via a new criterion in the interpretability objectives. This formalism is then declined for different types of knowledge and different types of explanations, particularly counterfactual examples, leading to the proposal of several algorithms (KICE, Knowledge Integration in Counterfactual Explanation, rKICE for its variant including knowledge expressed by rules and KISM, Knowledge Integration in Surrogate Models). The issue of aggregating classical quality and knowledge compatibility constraints is also studied, and we propose to use Gödel's integral as an aggregation operator. Finally, we discuss the difficulty of generating a single explanation suitable for all types of users and the notion of diversity in explanations
Style APA, Harvard, Vancouver, ISO itp.
37

Membrado, Miguel. "Génération d'un système conceptuel écrit en langage de type semi-naturel en vue d'un traitment des données textuelles : application au langage médical". Paris 11, 1989. http://www.theses.fr/1989PA112004.

Pełny tekst źródła
Streszczenie:
Cet ouvrage présente l'étude et la réalisation d'un système de traitement de données à visée générale (DOXIS), pouvant manipuler sous une même forme des données structurées, des données textuelles ou des connaissances. Le domaine de recherche concerné est l'intelligence artificielle, cadre au sein duquel est proposée une représentation des connaissances originale, permettant de créer des dictionnaires contenant des définitions conceptuelles rédigées dans un langage de type semi-naturel, formant la base de connaissances du système. L'objectif appliqué est en particulier de pouvoir mettre en œuvre un système documentaire "intelligent". La puissance du langage de déclaration permet de traiter une partie des ambiguïtés du langage, plus particulièrement les polysémies contextuelles, d'aborder les métonymies, de résoudre un certain nombre de types de paraphrases, de déclarer les connaissances au sein de polyhiérarchies, elles­mêmes divisées en environnements sémantiques, ainsi que de gérer les connaissances incomplètes. L'analyse et la recherche de documents se déroule en deux phases distinctes l'extraction conceptuelle, et la comparaison structurelle. La première étape fait l'objet de cette thèse, et sert à retrouver un ensemble pertinent de textes par rapport à une question, permettant ensuite de lancer la seconde étape. Celle-ci ne sera elle-même abordée que dans ses grandes lignes. Le but final des travaux est de retrouver la connaissance non pas au niveau du dictionnaire, mais au niveau des textes eux-mêmes
We present our research and our own realization on a KBMS (Knowledge Based Management System) aiming at processing any kind of data, especially textual data, and the related knowledge. In this field of applied Artificial Intelligence, we propose a way for representing knowledge : to describe it in a semi-natural language able as well to describe structures or relations as rules. Knowledge is managed as conceptual definitions figuring in a dictionary which represents the knowledge base. The power of this language allows to process a lot of ambiguities, especially those coming from contextual polysemia, to deal with metonymia or incomplete knowledge, and to solve several kinds of paraphrases. Simultaneous polyhierarchies as well as chunks are taken into account. The system has been specially studied for automatic processing of medical reports. An application to neuro­ radiology has been taken as example. But it could be applied as well to any other field, included outside Medecine to any professional field. Text analysis is realized in two steps : first a conceptual extraction, secondly a structural analysis. The first step only is taken into account in this thesis. It aims at retrieving pertinent documents, matching them to the given question by comparison between concepts, not between character strings. An overview of the second step will be presented. The final goal is to be able to retrieve the knowledge contained into the texts, i. E. The data themselves, and to manage it in respect to the knowledge represented into the dictionaries
Style APA, Harvard, Vancouver, ISO itp.
38

Gotlieb, Arnaud. "Contributions à la génération de tests à base de contraintes". Habilitation à diriger des recherches, Université Européenne de Bretagne, 2011. http://tel.archives-ouvertes.fr/tel-00699260.

Pełny tekst źródła
Streszczenie:
Ces dernières années, les recherches en matière de Test Logiciel ont conduit au développement de techniques de résolution de contraintes dédiées, dans ce qui est appelé ''le test à base de contraintes''. Notre approche dans ce domaine vise à explorer l'apport de la Programmation par Contraintes à la génération automatique de test pour les programmes impératifs. Nous nous sommes intéressés à la résolution de problèmes combinatoires difficiles issus de la génération de données de test, en développant des techniques de propagation de contraintes et de filtrage, adaptées au traitement des constructions des langages de programmation. Notre habilitation tente de faire une première synthèse de ce sujet au travers de cinq contributions: l'hybridation de techniques de résolution de contraintes pour la génération automatique de cas de test, la génération probabiliste de cas de test à l'aide d'opérateurs à contrainte probabiliste, les contraintes sur un modèle mémoire pour les programmes manipulant les pointeurs, la résolution de contraintes sur les expressions portant sur les nombres à virgule flottante, et le test de programmes à contraintes. Nous illustrons également ces contributions par leur application à la vérification de logiciels critiques, et dressons quelques perspectives à ces travaux.
Style APA, Harvard, Vancouver, ISO itp.
39

Daher, Tony. "Gestion cognitive des réseaux radio auto-organisant de cinquième génération". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT023.

Pełny tekst źródła
Streszczenie:
L’optimisation de l’opération des réseaux mobiles a toujours été d'un très grand intérêt pour les opérateurs, surtout avec une augmentation rapide du trafic mobile, des attentes qualité de service encore plus élevées des utilisateurs, et l’émergence de nouveaux services requérant des contraintes spécifiques et différentes. Le concept de gestion autonome des réseaux (SON) a été introduit par la 3rd Generation Partnership Project comme étant une solution prometteuse pour simplifier l’opération et la gestion des réseaux complexes. Aujourd’hui, plusieurs fonctions SON sont déjà déployées dans les réseaux. Cependant, les actions conduites par les fonctions SON dans le réseau dépendent de la configuration de l’algorithme même de ces fonctions, et aussi du contexte du réseau et de l’environnement ou cette fonction est déployée. D’autre part, un réseau radio mobile auto-organisant serait idéalement un réseau où toutes les fonctions autonomes (SON) fonctionnent de manière coordonnée et cohérente pour répondre à des objectifs de haut niveau de l’opérateur. L’entité autonome serait donc le réseau capable de s’autogérer pour répondre à une stratégie globale de l’opérateur, exprimée en termes d’objectifs de haut niveau de l’opérateur. A cette fin, nous proposons dans cette thèse une approche qu'on appel « Cognitive Policy Based SON Management » (C-PBSM). Le C-PBSM est capable d’apprendre des configurations optimales des fonctions SON selon les exigences de l’opérateur. Il a également la capacité d’améliorer sa décision au cours du temps en apprenant de son expérience passée, et de s’adapter avec les changements de l’environnement. Nous étudions plusieurs approches pour mettre en place la boucle cognitive en se basant sur l’apprentissage par renforcement (RL). Nous analysons la convergence et la scalabilité de ces approches et proposons des solutions adaptées. Nous prenons en compte la non stationnarité des réseaux, notamment la variation de trafic. Nous proposons également des solutions pour mettre en œuvre un apprentissage collaboratif et un transfert des connaissances. Une architecture SDN (software defined networks) est proposée pour le déploiement des agents d’apprentissage dans le réseau
The pressure on operators to improve the network management efficiency is constantly growing for many reasons: the user traffic that is increasing very fast, higher end users expectations, emerging services with very specific requirements. Self-Organizing Networks (SON) concept was introduced by the 3rd Generation Partnership Project as a promising solution to simplify the operation and management of complex networks. Many SON modules are already being deployed in today’s networks. Such networks are known as SON enabled networks, and they have proved to be useful in reducing the complexity of network management. However, SON enabled networks are still far from realizing a network that is autonomous and self-managed as a whole. In fact, the behavior of the SON functions depends on the parameters of their algorithm, as well as on the network environment where it is deployed. Besides, SON objectives and actions might be conflicting with each other, leading to incompatible parameter tuning in the network. Each SON function hence still needs to be itself manually configured, depending on the network environment and the objectives of the operator. In this thesis, we propose an approach for an integrated SON management system through a Cognitive Policy Based SON Management (C-PBSM) approach, based on Reinforcement Learning (RL). The C-PBSM translates autonomously high level operator objectives, formulated as target Key Performance Indicators (KPIs), into configurations of the SON functions. Furthermore, through its cognitive capabilities, the C-PBSM is able to build its knowledge by interacting with the real network. It is also capable of adapting with the environment changes. We investigate different RL approaches, we analyze the convergence time and the scalability and propose adapted solutions. We tackle the problem of non-stationarity in the network, notably the traffic variations, as well as the different contexts present in a network. We propose as well an approach for transfer learning and collaborative learning. Practical aspects of deploying RL agents in real networks are also investigated under Software Defined Network (SDN) architecture
Style APA, Harvard, Vancouver, ISO itp.
40

Mayet, Tsiry. "Multi-domain translation in a semi-supervised setting". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR46.

Pełny tekst źródła
Streszczenie:
Cette thèse explore la génération multi-modale dans un contexte d'apprentissage semi-supervisé, en abordant deux défis cruciaux : la prise en charge de configurations flexibles d'entrées et de sorties à travers plusieurs domaines, et le développement d'une stratégie d'entraînement efficace des données semi-supervisées. Alors que les systèmes d'intelligence artificielle progressent, il existe un besoin croissant de modèles capables d'intégrer et de générer de manière flexible plusieurs modalités, reflétant les capacités cognitives humaines. Les systèmes d'apprentissage profond conventionnels peinent souvent lorsqu'ils s'écartent de leur configuration d'entraînement, notamment lorsque certaines modalités sont indisponibles dans les applications réelles. Par exemple, dans le domaine médical, les patients pourraient ne pas faire tous les examens possibles pour un système d'analyse complet. Obtenir un contrôle plus fin sur les modalités générées est crucial pour améliorer les capacités de génération et fournir des informations contextuelles plus riches. De plus, l'augmentation du nombre de domaines rend plus difficile l'obtention d'une supervision simultanée. Nous nous concentrons sur la translation multi-domaine dans un contexte semi-supervisé, étendant le paradigme classique de translation de domaine. Plutôt que de considérer une direction de translation spécifique ou de les limiter entre paires de domaines, nous développons des méthodes facilitant les translations entre toutes les configurations possibles de domaines. L'aspect semi-supervisé reflète des scénarios réels où une annotation complète des données est souvent infaisable ou prohibitivement coûteuse. Notre travail présente trois contributions : (1) l'étude des fonctions de régularisation pour l'espace latent avec une supervision limitée, (2) l'étude de la mise à l'échelle et de la flexibilité des modèles de translation basés sur les modèles de diffusion, et (3) l'amélioration de la vitesse de génération des modèles d'inpainting par diffusion. Premièrement, nous proposons LSM, un modèle de translation semi-supervisé exploitant des données d'entrée supplémentaires et des données de sortie structurées pour régulariser les dépendances inter-domaines et intra-domaines. Deuxièmement, nous développons MDD, un modèle semi-supervisé de translation multi-domaine basé sur la diffusion. MDD transforme la fonction de perte classique des modèles de diffusion d'une fonction de reconstruction vers une fonction de translations en modélisant différents niveaux de bruit par domaine. Le modèle exploite les domaines moins bruités pour reconstruire les domaines plus bruités, permettant de modéliser les données manquantes comme du bruit pur et d'obtenir une configuration flexible des domaines condition et cible. Enfin, nous introduisons TD-Paint, un modèle d'inpainting basé sur la diffusion améliorant la vitesse de génération et à réduire la charge de calcul associée à la génération. Notre étude révèle que les modèles d'inpainting par diffusion souffrent d'une désynchronisation entre génération et conditionnement. Les solutions existantes, reposant sur le rééchantillonnage ou des régularisations supplémentaires, augmentent la complexité computationnelle. TD-Paint résout ce problème en modélisant des niveaux de bruit variables au niveau des pixels, permettant une utilisation efficace de la condition dès le début du processus
This thesis explores multi-modal generation and semi-supervised learning, addressing two critical challenges: supporting flexible configurations of input and output across multiple domains, and developing efficient training strategies for semi-supervised data settings. As artificial intelligence systems advance, there is growing need for models that can flexibly integrate and generate multiple modalities, mirroring human cognitive abilities. Conventional deep learning systems often struggle when deviating from their training configuration, which occurs when certain modalities are unavailable in real-world applications. For instance, in medical settings, patients might not undergo all possible scans for a comprehensive analysis system. Additionally, obtaining finer control over generated modalities is crucial for enhancing generation capabilities and providing richer contextual information. As the number of domains increases, obtaining simultaneous supervision across all domains becomes increasingly challenging. We focus on multi-domain translation in a semi-supervised setting, extending the classical domain translation paradigm. Rather than addressing specific translation directions or limiting translations to domain pairs, we develop methods facilitating translations between any possible domain configurations, determined at test time. The semi-supervised aspect reflects real-world scenarios where complete data annotation is often infeasible or prohibitively expensive. Our work explores three main areas: (1) studying latent space regularization functions to enhance domain translation learning with limited supervision, (2) examining the scalability and flexibility of diffusion-based translation models, and (3) improving the generation speed of diffusion-based inpainting models. First, we propose LSM, a semi-supervised translation framework leveraging additional input and structured output data to regularize inter-domain and intra-domain dependencies. Second, we develop MDD, a novel diffusion-based multi-domain translation semi-supervised framework. MDD shifts the classical reconstruction loss of diffusion models to a translation loss by modeling different noise levels per domain. The model leverages less noisy domains to reconstruct noisier ones, modeling missing data from the semi-supervised setting as pure noise and enabling flexible configuration of condition and target domains. Finally, we introduce TD-Paint, a novel diffusion-based inpainting model improving generation speed and reducing computational burden. Through investigation of the generation sampling process, we observe that diffusion-based inpainting models suffer from unsynchronized generation and conditioning. Existing models often rely on resampling steps or additional regularization losses to realign condition and generation, increasing time and computational complexity. TD-Paint addresses this by modeling variable noise levels at the pixel level, enabling efficient use of the condition from the generation onset
Style APA, Harvard, Vancouver, ISO itp.
41

Durand, Philippe. "Contributions à la génération et à l'amendement de plans d'actions : application à la conception de gammes d'usinage dans un contexte CIM". Phd thesis, Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00330034.

Pełny tekst źródła
Streszczenie:
Présentation de concepts issus de la cotation volumique qui répondent aux besoins d'un système CFAO integré allant de la conception à la fabrication. Validation de ces concepts et des méthodes par implantation d'un logiciel de conception automatique de gammes d'usinage appelé Gagmat
Style APA, Harvard, Vancouver, ISO itp.
42

Cripwell, Liam. "Controllable and Document-Level Text Simplification". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0186.

Pełny tekst źródła
Streszczenie:
La simplification de texte est une tâche qui consiste à réécrire un texte pour le rendre plus facile à lire et à comprendre pour un public plus large, tout en exprimant toujours le même sens fondamental. Cela présente des avantages potentiels pour certains utilisateurs (par exemple, les locuteurs non natifs, les enfants, les personnes ayant des difficultés de lecture), tout en étant prometteur en tant qu'étape de prétraitement pour les tâches de Traitement Automatique des Langues (TAL) en aval. Les progrès récents dans les modèles génératifs neuronaux ont conduit au développement de systèmes capables de produire des sorties très fluides. Cependant, étant donné la nature de "boîte noire" (black box) de ces systèmes de bout en bout, l'utilisation de corpus d'entraînement pour apprendre implicitement comment effectuer les opérations de réécriture nécessaires. Dans le cas de la simplification, ces ensembles de données comportent des limitation en termes à la fois de quantité et de qualité, la plupart des corpus étant soit très petits, soit construits automatiquement, soit soumis à des licences d'utilisation strictes. En conséquence, de nombreux systèmes ont tendance à être trop conservateurs, n'apportant souvent aucune modification au texte original ou se limitant à la paraphrase de courtes séquences de mots sans modifications structurelles substantielles. En outre, la plupart des travaux existants sur la simplification du texte se limitent aux entrées au niveau de la phrase, les tentatives d'application itérative de ces approches à la simplification au niveau du document ne parviennent en effet souvent pas à préserver de manière cohérente la structure du discours du document. Ceci est problématique, car la plupart des applications réelles de simplification de texte concernent des documents entiers. Dans cette thèse, nous étudions des stratégies pour atténuer la conservativité des systèmes de simplification tout en favorisant une gamme plus diversifiée de types de transformation. Cela implique la création de nouveaux ensembles de données contenant des instances d'opérations sous-représentées et la mise en œuvre de systèmes contrôlables capables d'être adaptés à des transformations spécifiques et à différents niveaux de simplicité. Nous étendons ensuite ces stratégies à la simplification au niveau du document, en proposant des systèmes capables de prendre en compte le contexte du document environnant. Nous développons également des techniques de contrôlabilité permettant de planifier les opérations à effectuer, à l'avance et au niveau de la phrase. Nous montrons que ces techniques permettent à la fois des performances élevées et une évolutivité des modèles de simplification
Text simplification is a task that involves rewriting a text to make it easier to read and understand for a wider audience, while still expressing the same core meaning. This has potential benefits for disadvantaged end-users (e.g. non-native speakers, children, the reading impaired), while also showing promise as a preprocessing step for downstream NLP tasks. Recent advancement in neural generative models have led to the development of systems that are capable of producing highly fluent outputs. However, these end-to-end systems often rely on training corpora to implicitly learn how to perform the necessary rewrite operations. In the case of simplification, these datasets are lacking in both quantity and quality, with most corpora either being very small, automatically constructed, or subject to strict licensing agreements. As a result, many systems tend to be overly conservative, often making no changes to the original text or being limited to the paraphrasing of short word sequences without substantial structural modifications. Furthermore, most existing work on text simplification is limited to sentence-level inputs, with attempts to iteratively apply these approaches to document-level simplification failing to coherently preserve the discourse structure of the document. This is problematic, as most real-world applications of text simplification concern document-level texts. In this thesis, we investigate strategies for mitigating the conservativity of simplification systems while promoting a more diverse range of transformation types. This involves the creation of new datasets containing instances of under-represented operations and the implementation of controllable systems capable of being tailored towards specific transformations and simplicity levels. We later extend these strategies to document-level simplification, proposing systems that are able to consider surrounding document context and use similar controllability techniques to plan which sentence-level operations to perform ahead of time, allowing for both high performance and scalability. Finally, we analyze current evaluation processes and propose new strategies that can be used to better evaluate both controllable and document-level simplification systems
Style APA, Harvard, Vancouver, ISO itp.
43

Duffaut, Olivier. "Problématique multi-modèle pour la génération d'arbres de test : application au domaine de l'automobile". Toulouse, ENSAE, 1994. http://www.theses.fr/1994ESAE0005.

Pełny tekst źródła
Streszczenie:
Ce travail concerne l'étude d'un système multi-modèle d'aide à la génération d'arbres de test. Son application a été menée sur les systèmes électroniques de commande embarqués sur véhicules automobiles. Le travail présenté met en évidence les problèmes actuels du développement manuel des arbres de test et propose une solution basée sur l'utilisation conjointe de plusieurs modèles du système traité. Dans l'architecture présentée, chaque modèle est considéré comme une entité indépendante qui participe à la construction de l'arbre de test en rendant des services. Ce processus est supervisé par une autre entité qui est dépositaire de la stratégie globale de test. Trois modèles ont été développés : un modèle fonctionnel, un modèle de comportement électrique normal et un modèle de comportement électrique anormal. La connaissance utilisée, les technique de génération de test et les services renuds dans un cadre multi-modèle sont décrits pour chaque modèle. Un maquette informatique a été réalisée. / Les arbres de test fournis ont été testés sur un système d'injection de carburant et évalués par rapport aux arbres de test existants.
Style APA, Harvard, Vancouver, ISO itp.
44

Bourcier, Frédéric. "Représentation des connaissances pour la résolution de problèmes et la génération d'explications en langue naturelle : contribution au projet AIDE". Compiègne, 1996. http://www.theses.fr/1996COMPD903.

Pełny tekst źródła
Streszczenie:
Dans le cadre du projet AIDE dont l'objectif est la conception d'un générateur de systèmes experts explicatifs, nous nous sommes intéressés à la représentation explicite du sens de textes explicatifs et au mécanisme permettant de les générer en langue naturelle. Notre étude sur la représentation du sens d'explications nous a conduits à contribuer au développement de la représentation générale des connaissances. Dans ce but, nous avons été amenés a étendre un formalisme de type réseaux sémantiques. Nous avons ainsi adjoint une nouvelle construction nous permettant notamment de représenter l'expression de connaissances sémantiques par des connaissances linguistiques (syntaxiques, morphologiques et lexicales), que nous avons incorporées dans le cadre d'un résolveur de problèmes de contrôle de procédés (SEFOR). Nous avons également introduit la notion d'ensemble, de façon à distinguer des collections d'objets. Enfin, nous avons défini une structure de représentation sémantique servant à représenter d'une part des propositions définitionnelles et d'autre part des explications, en tenant compte de leur intention communicative et de leur contenu informationnel. Pour valider l'ensemble de l'architecture des connaissances du générateur en tenant compte des nouvelles constructions, nous avons conçu et associé à un module de construction d'explications (Gréboval 94), un module de génération en langue naturelle. Ce dernier, suite à une phase de traduction sémantique, applique différentes phases de génération : syntaxique et morpho-lexicale, pour produire une phrase en français.
Style APA, Harvard, Vancouver, ISO itp.
45

Nesvijevskaia, Anna. "Phénomène Big Data en entreprise : processus projet, génération de valeur et Médiation Homme-Données". Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1247.

Pełny tekst źródła
Streszczenie:
Le Big Data, phénomène sociotechnique porteur de mythes, se traduit dans les entreprises par la mise en place de premiers projets, plus particulièrement des projets de Data Science. Cependant, ils ne semblent pas générer la valeur espérée. La recherche-action menée au cours de 3 ans sur le terrain, à travers une étude qualitative approfondie de cas multiples, pointe des facteurs clés qui limitent cette génération de valeur, et notamment des modèles de processus projet trop autocentrés. Le résultat est (1) un modèle ajusté de dispositif projet data (Brizo_DS), ouvert et orienté sur les usages, dont la capitalisation de connaissances, destiné à réduire les incertitudes propres à ces projets exploratoires, et transposable à l’échelle d’une gestion de portefeuille de projets data en entreprise. Il est complété par (2) un outil de documentation de la qualité des données traitées, le Databook, et par (3) un dispositif de Médiation Homme-Données, qui garantissent l’alignement des acteurs vers un résultat optimal
Big Data, a sociotechnical phenomenon carrying myths, is reflected in companies by the implementation of first projects, especially Data Science projects. However, they do not seem to generate the expected value. The action-research carried out over the course of 3 years in the field, through an in-depth qualitative study of multiple cases, points to key factors that limit this generation of value, including overly self-contained project process models. The result is (1) an open data project model (Brizo_DS), orientated on the usage, including knowledge capitalization, intended to reduce the uncertainties inherent in these exploratory projects, and transferable to the scale of portfolio management of corporate data projects. It is completed with (2) a tool for documenting the quality of the processed data, the Databook, and (3) a Human-Data Mediation device, which guarantee the alignment of the actors towards an optimal result
Style APA, Harvard, Vancouver, ISO itp.
46

Tsang, Jean Patrick. "Planification par combinaison de plans : application à la génération de gammes d'usinage". Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00325043.

Pełny tekst źródła
Streszczenie:
Etude de l'automatisation de la conception de gammes d'usinage. Il s'agit d'un problème de planification sous contraintes en intelligence artificielle qui a été résolu en employant, d'une part, une stratégie de planification par combinaison opportuniste de plans en conjonction avec un algorithme de traitement d'échecs " par compromis" et, d'autre part, une modélisation "par entités" du problème. Ces méthodes et modèles ont donné lieu à la réalisation du systeme propel, un générateur de plan d'actions général, et à son application à la conception automatique de gammes d'usinage
Style APA, Harvard, Vancouver, ISO itp.
47

Benabbou, Azzeddine. "Génération dynamique de situations critiques en environnements virtuels : dilemme et ambiguïté". Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2432.

Pełny tekst źródła
Streszczenie:
Nos travaux traitent de la génération dynamique de situations critiques en environnements virtuels. Parmi les dimensions qui caractérisent les situations critiques, nous nous intéressons particulièrement aux dilemmes et aux situations ambiguës. L’enjeu informatique de nos travaux consiste à générer automatiquement des dilemmes et des situations ambiguës à partir de modèles qui ne sont pas destinés, à priori, pour décrire ces deux types de situations. Un dilemme est souvent défini comme étant une situation à choix difficile, où l’individu doit choisir entre deux options, ou plus, qui présentent toutes des inconvénients. L’ambiguïté quant à elle, se réfère aux situations qui sont sujettes à plusieurs interprétations. Dans le cadre de nos travaux, nous proposons tout d’abord un modèle formel de ces deux notions en se reposant sur des théories issues des sciences humaines et sociales. A partir de cette formalisation, nous proposons un ensemble d’algorithmes et de techniques de génération qui raisonnent sur des modèles de connaissances—manipulés par les experts du domaine — qui ne sont pas destinés, à priori, pour la description des dilemmes ou des situations ambiguës. Le raisonnement sur ces modèles sémantiques permet d’inférer de nouvelles connaissances. Elles permettent d’identifier les entités (e.g. actions, événements, objets) susceptibles de créer, si combinées ensemble, des situations qui vérifient les propriétés énoncées dans la formalisation des dilemmes et de l’ambiguïté
Our work is related to dynamic generation of critical situations in virtual environments. We focus on two particular types of critical situations: dilemmas and ambiguous situations. The challenge of this work is to generate automatically these situations using models that are not intended to describe dilemmas and ambiguous situations. A dilemma is defined as a situation that includes a difficult choice. It refers to a situation where individuals have to choose between two, or more, inconvenient options. Ambiguity refers to situations that can be interpreted in different ways. In the context of this thesis, we propose a formal model for the two notions that is inspired by humanities and social sciences. Using this formalization, we propose a set of algorithms and generation technics that use knowledge models — manipulated by domain experts — that are not intended to describe dilemmas and ambiguous situations. The use of these models enables the generation engine to infer new knowledge used to extract the entities (e.g. actions, events, objects) that can potentially produce situations that meet the properties defined in the dilemma and ambiguity formalization. In order to propose a content adapted to each learner, it is necessary to take into consideration the value system of each person in the dilemma generation process. Thus, we propose to operationalize the theory of universal values of Schwartz. Concerning the ambiguity, it is necessary to take into account the level of knowledge of the learner regarding the world variables. Thus, we propose to model the mental representation of the learner. In order to consider the uncertainties in this representation, we propose to use the belief functions theory that is well-suited for this matter
Style APA, Harvard, Vancouver, ISO itp.
48

Wang, Yaohui. "Apprendre à générer des vidéos de personnes". Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4116.

Pełny tekst źródła
Streszczenie:
Les réseaux antagonistes génératifs (GAN) ont suscité une attention croissante en raison de leurs capacités à modéliser des distributions de données visuelles complexes, ce qui leur permet de générer et de traduire des images réalistes. Bien que la génération de vidéos réalistes soit la suite naturelle, elle est nettement plus difficile en ce qui concerne leur complexité et leur calcul, associés à la modélisation simultanée de l'apparence, ainsi que du mouvement de la personne dans la vidéo. Plus précisément, en inférant et en modélisant la distribution de vidéos, les modèles génératifs sont confrontés à trois défis principaux : (a) générer un nouveau mouvement et conserver l'apparence de la personne, (b) modéliser la cohérence spatio-temporelle, ainsi que (c) comprendre la représentation latente de la vidéo.Dans cette thèse, nous proposons un certain nombre d'approches novatrices pour générer des vidéos de haute qualité visuelle et interpréter l'espace latent de la représentation de la vidéo dans ces modèles génératifs. Nous introduisons tout d'abord une méthode, qui apprend à générer conditionnellement des vidéos basées sur une seule image en entrée. Notre modèle proposé permet une génération de vidéo contrôlable en fournissant diverses catégories de mouvement. Deuxièmement, nous présentons un modèle, qui est capable de produire des vidéos à partir de vecteurs de bruit en dissociant l'apparence et le mouvement dans l'espace latent. Nous démontrons que les deux facteurs peuvent être manipulés de manière conditionnelle et inconditionnelle. Troisièmement, nous introduisons un modèle génératif inconditionnel de vidéos qui permet l'interprétation de l'espace latent. Nous mettons l'accent sur l'interprétation et la manipulation du mouvement. Nous montrons que la méthode proposée est capable de découvrir des représentations du mouvement sémantiquement significatives, qui à leur tour permettent le contrôle des vidéos générées. Enfin, nous décrivons une nouvelle approche pour combiner la modélisation générative avec l'apprentissage contrastif pour la réidentification de personnes en mode non supervisé. Nous exploitons les données générées en tant qu'augmentation de données et montrons que ces données peuvent améliorer la précision de la ré-identification
Generative Adversarial Networks (GANs) have witnessed increasing attention due to their abilities to model complex visual data distributions, which allow them to generate and translate realistic images. While realistic \textit{video generation} is the natural sequel, it is substantially more challenging w.r.t. complexity and computation, associated to the simultaneous modeling of appearance, as well as motion. Specifically, in inferring and modeling the distribution of human videos, generative models face three main challenges: (a) generating uncertain motion and retaining of human appearance, (b) modeling spatio-temporal consistency, as well as (c) understanding of latent representation. In this thesis, we propose three novel approaches towards generating high-visual quality videos and interpreting latent space in video generative models. We firstly introduce a method, which learns to conditionally generate videos based on single input images. Our proposed model allows for controllable video generation by providing various motion categories. Secondly, we present a model, which is able to produce videos from noise vectors by disentangling the latent space into appearance and motion. We demonstrate that both factors can be manipulated in both, conditional and unconditional manners. Thirdly, we introduce an unconditional video generative model that allows for interpretation of the latent space. We place emphasis on the interpretation and manipulation of motion. We show that our proposed method is able to discover semantically meaningful motion representations, which in turn allow for control in generated results. Finally, we describe a novel approach to combine generative modeling with contrastive learning for unsupervised person re-identification. Specifically, we leverage generated data as data augmentation and show that such data can boost re-identification accuracy
Style APA, Harvard, Vancouver, ISO itp.
49

Henry-Chatelain, Catherine. "Génération de méta-faits pour la modélisation du raisonnement en diagnostic médical : application du diagnostic de l'infection néonatale". Compiègne, 1987. http://www.theses.fr/1987COMPD068.

Pełny tekst źródła
Streszczenie:
Le thème de ce travail est le développement d'un système expert relatif au diagnostic de l'infection materno-fœtale chez le nouveau né. Cette étude s'insère dans le cadre de développement d'un générateur de système expert utilisable en mode diagnostic et en mode simulation. Après avoir présenté les différentes étapes de réalisation d'un système expert d'une part et les principaux modes de représentation des connaissances à travers la description de systèmes experts en médecine d'autre part, nous décrivons le générateur de système expert et son interface langage naturel à partir desquels nous avons réalisé ce développement. Nous décrivons ensuite ce qu'est l'infection materno-fœtale afin de soulever tous les problèmes posés par son diagnostic. Ceux-ci sont décomposés et formulés de façon telle que l'expertise se retrouve sous forme de règles de raisonnement simples. Nous proposons alors un modèle général de représentation des connaissances, fondé ici sur les critères d'infection, ainsi qu'un module de génération automatique de méta-faits qui, à partir de la description directe de faits initiaux, permet d'en déduire de nouveaux dans des termes compatibles avec ceux utilisés dans le raisonnement du médecin. La mise en œuvre pratique du module est largement détaillée. L'ensemble des différents méta-faits générés est proposé, l'analyse de ceux ci ainsi que le choix des règles déclenchables sont explicités, un exemple de consultation est donné. Les résultats obtenus lors de la phase d'évaluation réalisée au sein d'un service de réanimation pédiatrique sont enfin présentés
The theme of this work is the development of an expert system for materno-foetal diagnosis in newborn babies. The study is part of the development of an essential expert system usable in either the diagnostic or simulation mode. Firstly, we present the various stages of an expert system development and also the main modes of knowledge representation via expert system description in the medical field. Secondly, we describe the essential expert system and its natural language interface with which its development has been conducted. Following this, we describe the main feature of materno-foetal infections, so as to highlight the various problems associated with their diagnosis. These are broken down and formulated in such a way that the analysis is in the form of fairly simple reasoning process. We put forward a general-purpose model of knowledge representation, based here upon infection criteria, as well as a meta-knowledge automatic generation module ; the latter, using the direct description of the basic facts allows us to deduce new data, in terms compatible with those used by doctors. The practical use of the module is described in considerable detail. The whole of the various generated meta-knowledge is reported, as is its analysis and the choice of triggerable rules. An example of a consultation is given. Results are presented for the evaluation phase, which was conducted in a pediatric reanimation unit
Style APA, Harvard, Vancouver, ISO itp.
50

Ghosh, Aishik. "Simulation of the ATLAS electromagnetic calorimeter using generative adversarial networks and likelihood-free inference of the offshell Higgs boson couplings at the LHC". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP058.

Pełny tekst źródła
Streszczenie:
Depuis la découverte du boson de Higgs en 2012, les expériences du LHC testent les prévisions du modèle standard avec des mesures de haute précision. Les mesures des couplages du boson de Higgs hors résonance permettront d'éliminer certaines dégénérescences qui ne peuvent pas être résolues avec les mesures sur résonance, comme la sonde de la largeur du boson de Higgs, ce qui pourrait donner des indications pour la nouvelle physique. Une partie de cette thèse se concentre sur la mesure des couplages hors résonance du boson de Higgs produit par la fusion du boson vecteur et se décomposant en quatre leptons. Ce canal de désintégration offre une occasion unique de sonder le boson de Higgs dans son régime hors résonance grâce à des sections efficaces augmentées au-delà de 2Mz (deux fois la masse du boson Z) de la région des quatre leptons. L'importante interférence quantique entre le signal et les processus de fond rend le concept d'"étiquettes de classe" mal défini, et pose un défi aux méthodes traditionnelles et aux modèles génériques de classification par apprentissage machine utilisés pour optimiser une mesure de la force du signal. Une nouvelle famille de stratégies d'inférence sans fonction de vraisemblance basées sur l'apprentissage machine, qui exploitent des informations supplémentaires pouvant être extraites du simulateur, a été adaptée à un problème de mesure de la force du signal. L'étude montre des résultats prometteurs par rapport aux techniques de base sur un ensemble de données de simulation rapide avec Delphes. Dans ce contexte, on a également introduit le réseau aspiration, un algorithme d'adverse amélioré pour la formation tout en maintenant l'invariance par rapport aux caractéristiques choisies. Les mesures de l'expérience ATLAS reposent sur de grandes quantités de données simulées précisément. Le logiciel de simulation actuel de Geant4 est trop coûteux en termes de calculs pour supporter la grande quantité de données simulées nécessaires aux analyses futures prévues. Autre partie de cette thèse se concentre sur une nouvelle approche de la simulation rapide utilisant un réseau advers génératif (GAN). La simulation de gerbe en cascade du calorimètre complexe d'ATLAS est la partie la plus lente de la chaîne de simulation utilisant Geant4. Son remplacement par un réseau de neurones qui a appris la distribution de probabilité des gerbes de particules en fonction des propriétés des particules incidentes et de la géométrie locale du détecteur augmente la vitesse de simulation de plusieurs ordres de grandeur, même sur des CPU à cœur unique, et ouvre la porte à une accélération supplémentaire sur les GPU. L'intégration dans le logiciel ATLAS permet pour la première fois de faire des comparaisons réalistes avec des simulations rapides paramétrées "à la main''. L'étude est réalisée sur une petite section du détecteur (0,20<|η|<0,25) en utilisant des photons et compare les distributions en utilisant des échantillons simulés par le modèle autonome ainsi qu'après intégration dans le logiciel ATLAS avec des échantillons Geant4 entièrement simulés. Des leçons importantes sur les mérites et les inconvénients des différentes stratégies, profitent à l'objectif ultime de simuler l'ensemble du calorimètre ATLAS avec des modèles générateurs profonds. L'étude révèle également un problème inhérent à le GAN de Wasserstein basé sur une pénalité de gradient, et propose une solution
Since the discovery of the Higgs boson in 2012, experiments at the LHC have been testing Standard Model predictions with high precision measurements. Measurements of the off-shell couplings of the Higgs boson will remove certain degeneracies that cannot be resolved with the current on-shell measurements, such as probing the Higgs boson width, which may lead to hints for new physics. One part of this thesis focuses on the measurement of the off-shell couplings of the Higgs boson produced by vector boson fusion and decaying to four leptons. This decay channel provides a unique opportunity to probe the Higgs in its off-shell regime due to enhanced cross-sections beyond 2Mz (twice the mass of the Z boson) region of the four lepton mass. The significant quantum interference between the signal and background processes renders the concept of `class labels' ill-defined, and poses a challenge to traditional methods and generic machine learning classification models used to optimise a signal strength measurement. A new family of machine learning based likelihood-free inference strategies, which leverage additional information that can be extracted from the simulator, were adapted to a signal strength measurement problem. The study shows promising results compared to baseline techniques on a fast simulated Delphes dataset. Also introduced in this context is the aspiration network, an improved adversarial algorithm for training while maintaining invariance with respect to chosen features. Measurements in the ATLAS experiment rely on large amounts of precise simulated data. The current Geant4 simulation software is computationally too expensive to sustain the large amount of simulated data required for planned future analyses. The other part of this thesis focuses on a new approach to fast simulation using a Generative Adversarial Network (GAN). The cascading shower simulation of the complex ATLAS calorimeter is the slowest part of the simulation chain using Geant4. Replacing it with a neural network that has learnt the probability distribution of the particle showers as a function of the incident particle properties and local detector geometry increases the simulation speed by several orders of magnitude, even on single core CPUs, and opens to door the further speed up on GPUs. The integration into the ATLAS software allows for the first time to make realistic comparisons to hand-designed fast simulation frameworks. The study is performed on a small section of the detector (0,20<|η|<0,25) using photons and compares distributions using samples simulated by the model standalone as well as after integration into the ATLAS software against fully simulated Geant4 samples. Important lessons on the merits and demerits of various strategies, benefit the ultimate goal of simulating the entire ATLAS calorimeter with a few deep generative models. The study also reveals an inherent problem with the popular gradient penalty based Wasserstein GAN, and proposes a solution
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii