To see the other types of publications on this topic, follow the link: Intelligence artificielle.

Dissertations / Theses on the topic 'Intelligence artificielle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Intelligence artificielle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tina, Yvan calvin. "Les théâtres artificiels : mise en scène, biotechnologie, intelligence artificielle." Thesis, Aix-Marseille, 2018. http://theses.univ-amu.fr.lama.univ-amu.fr/180316_TINA_197j265t589t189bgt_TH.pdf.

Full text
Abstract:
L’utilisation de l’intelligence artificielle et des biotechnologies dans l’art conduit à une reformulation des enjeux du théâtre comme « spectacle vivant ». Ces pratiques technoscientifiques déplacent l’objet de la performance et produisent du discours. Nous proposons dans cette étude de nous servir de leurs énoncés pour élargir le cadre de la théâtralité aux arts de la vie artificielle. En effet, les déplacements opérés au moyen de la théâtralité dans le champ artistique s’effectuent à la fois sur les oeuvres et dans le langage. À la lumière de ces opérations, nous faisons apparaître le potentiel transformateur de l’intégration de nouveaux matériaux dans l’esthétique théâtrale mais aussi les obstacles qui s’y trouvent. Prise entre les arts et les technosciences, l’analyse démontre que la théâtralité des oeuvres technologiques repose notamment sur l’artifice du langage
The use of artificial intelligence and biotechnology in art has led to a radical reformulation of theater as living performance. These technoscientific practices have displaced the subject of performance and produced various new discourses: In this study, I propose to make use of these discourses to expand the frame of theatricality to the realm of artificial life art. The displacements operated by means of theatricality in the artistic field are taking place both on the level of the artworks and the level of discourse. In light of such operations, we see the potential of transformation relying on the use of these materials in theatrical aesthetics, as well as the obstacles found in them. Taking place between the arts and the technosciences, the study proves that the theatricality of technological works relies on the artifice of language
APA, Harvard, Vancouver, ISO, and other styles
2

Lodter, Christiane. "Intelligence artificielle en orthodontie (ODONTEL*)." Toulouse 3, 1990. http://www.theses.fr/1990TOU30206.

Full text
Abstract:
Ce memoire presente un systeme-expert d'aide au diagnostic en orthodontie accessible par minitel: odontel*. La premiere partie de l'ouvrage est une presentation a l'usage des odontologistes de l'intelligence artificielle: principes, caracteristiques. La methodologie systeme-expert est ensuite abordee. Odontel* est decrit dans la seconde partie: buts, modalites d'acces, conditions de realisation et fondementes orthodontiques puis validation
APA, Harvard, Vancouver, ISO, and other styles
3

Bessière, Christian. "Systèmes à contraintes évolutifs en intelligence artificielle." Montpellier 2, 1992. http://www.theses.fr/1992MON20166.

Full text
Abstract:
La premiere partie de cette these constitue un petit rappel des principales methodes de resolution des problemes de satisfaction de contraintes (csp). Dans la deuxieme partie, apres une definition des csp dynamiques (necessaires dans tous les systemes evolutifs qui utilisent les csp), deux algorithmes de maintien de l'arc-consistance dans un csp dynamique sont proposees. La troisieme partie presente les systemes de maintenance de la verite (tms) et notamment ceux bases sur la logique des propositions. Un codage de tms en psq dynamique est donne et l'equivalence entre deduction simple dans un tms (methode la plus utilisee) et arc-consistance dans le codage en csp est montree. Un algorithme de deduction plus performant est fourni, qui utilise une methode de filtrage des csp. La derniere partie propose un codage de toute formule booleenne en csp binaire (contraintes portant sur deux variables) pour essayer de trouver de nouvelles classes polynomiales en calcul propositionnel en projetant celles connues sur les csp binaires
APA, Harvard, Vancouver, ISO, and other styles
4

Machrouh, Joseph. "Perception attentive et vision en intelligence artificielle." Paris 11, 2002. http://www.theses.fr/2002PA112301.

Full text
Abstract:
Le travail présenté dans cette thèse s'inscrit dans la problématique du développement d'agents logiciels dotés de capacités perceptives. Munir de tels systèmes de capacités exploratoires suppose dans un premier temps la détermination des points d'intérêt de la scène visuelle. Afin de pouvoir se déplacer dans la scène, on distinguera les traitements en champ large et basse résolution des traitements focaux en haute résolution. On sépare ainsi la phase d'exploration associée à la recherche des points d'intérêt de la phase d'exploitation associée à la reconnaissance. Les points d'intérêt retenus sont constitués de maxima d'énergie calculés à l'aide de filtres en ondelettes couvrant une gamme d'orientations et de fréquences spatiales. Les plus basses fréquences sont utilisées pour déterminer les saillances périphériques. Nous montrons que les axes d'une Analyse en Composantes Principales (ACP) d'un échantillon représentatif de scènes naturelles constituent un système de projection permettant de catégoriser les points d'intérêt d'une scène quelconque. Ce système dispose ainsi de plusieurs points de vue de la scène aptes à guider ses mécanismes attentionnels. L'énergie de ces points d'intérêt selon différentes orientations et fréquences spatiales est alors utilisée pour les indexer. Nous avons montré que les composantes de basse fréquence de cette représentation indexée sont suffisantes pour biaiser les saillances de la scène en faveur de cibles similaires aux représentations mémorisées et assez robustes pour conserver cette propriété dans une séquence vidéo soumise à de fortes variations de contraste. Nous démontrons ainsi que des points d'intérêt fondés sur une analyse fréquentielle multi-échelle peuvent être utilisés pour contrôler des saccades exploratoires par un mécanisme ascendant; la part basse fréquence d'une telle représentation peut contrôler de façon descendante des saccades guidées par la cible recherchée
The work presented in this thesis deals with the development of software agents endowed with perceptive capacities. To provide such a system with exploratory capacities supposes the determination of interest points in the scene. In order to be able to move in the image, one will distinguish a low-resolution wide field processing and a high resolution focal processing. One thus separates the exploration phase associated to the search of interest points from the exploitation phase associated to recognition recognition. The selected points consist of energy maxima computed using wavelet filters covering a range of orientations and frequencies. The low frequencies are used to determine the peripheral saliency. Principal Component Analysis (PCA) projection system was computed from a representative sample of natural scenes. This system was used to categorize the interest points of an unspecified scene. The system thus can use several points of view to guide its attentionnal mechanisms. The energy of these interest points according to various orientations and space frequencies is then used to index them. We showed that the low frequency components of this indexed representation are sufficient to bias the saliency of the scene in favor of targets similar to the representations memorized. They are also sufficiently robust to preserve this property in a video sequence subject to strong contrast variations. We showed as well that interest points based on a multi-scale frequency analysis can be used to control exploratory saccades by using a bottom-up mechanism; the low frequency part of such a representation can be used to control the saccades required to attain the target in a top-down way
APA, Harvard, Vancouver, ISO, and other styles
5

Cornu, Philippe. "Logiques et sciences cognitives en intelligence artificielle." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37604052k.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Helft, Nicolas. "L'Induction en intelligence artificielle théorie et algorithmes /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376141929.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Alliche, Abderrahmane Redha. "Contrôle du réseau cloud basé intelligence artificielle." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4022.

Full text
Abstract:
L'explosion du nombre d'utilisateurs d'Internet et du volume de trafic constitue un défi majeur pour la gestion efficace des réseaux de diffusion de contenu (CDN). Bien que ces réseaux aient amélioré leur temps de réponse en exploitant la mise en cache dans des serveurs cloud proches des utilisateurs, les services non mis en cache continuent de poser des problèmes de gestion de trafic. Pour répondre à cette problématique, les réseaux overlay cloud ont émergé, mais ils introduisent des complexités telles que les violations d'inégalités triangulaires (TIV). Dans ce contexte, l'application du paradigme des réseaux à définition logicielle (SDN) combinée aux techniques d'apprentissage par renforcement profond (DRL) offre une opportunité prometteuse pour s'adapter en temps réel aux fluctuations de l'environnement. Face à l'augmentation constante du nombre de serveurs edge, les solutions distribuées de DRL, notamment les modèles d'apprentissage par renforcement profond multi-agent (MA-DRL), deviennent cruciales. Cependant, ces modèles rencontrent des défis non résolus tels que l'absence de simulateurs réseau réalistes, le surcoût de communication entre agents et la convergence et stabilité.Cette thèse se concentre donc sur l'exploration des méthodes MA-DRL pour le routage de paquets dans les réseaux overlay cloud. Elle propose des solutions pour relever ces défis, notamment le développement de simulateurs de réseau réalistes, l'étude du surcoût de communication et la conception d'une solution MA-DRL adaptée aux réseaux overlay cloud. L'accent est mis sur le compromis entre la performance et la quantité d'information partagée entre les agents, ainsi que sur la convergence et la stabilité durant l'entraînement
The exponential growth of Internet traffic in recent decades has prompted the emergence of Content Delivery Networks (CDNs) as a solution for managing high traffic volumes through data caching in cloud servers located near end-users. However, challenges persist, particularly for non-cacheable services, necessitating the use of cloud overlay networks. Due to a lack of knowledge about the underlay network, cloud overlay networks introduce complexities such as Triangle inequality violations (TIV) and dynamic traffic routing challenges.Leveraging the Software Defined Networks (SDN) paradigm, Deep Reinforcement Learning (DRL) techniques offer the possibility to exploit collected data to better adapt to network changes. Furthermore, the increase of cloud edge servers presents scalability challenges, motivating the exploration of Multi-Agent DRL (MA-DRL) solutions. Despite its suitability for the distributed packet routing problem in cloud overlay networks, MA-DRL faces non-addressed challenges such as the need for realistic network simulators, handling communication overhead, and addressing the multi-objective nature of the routing problem.This Ph.D. thesis delves into the realm of distributed Multi-Agent Deep Reinforcement Learning (MA-DRL) methods, specifically targeting the Distributed Packet Routing problem in cloud overlay networks. Throughout the thesis, we address these challenges by developing realistic network simulators, studying communication overhead in the non-overlay general setting, and proposing a distributed MA-DRL framework tailored to cloud overlay networks, focusing on communication overhead, convergence, and model stability
APA, Harvard, Vancouver, ISO, and other styles
8

Espinoza, Lara Pablo. "Détection de signaux sismologiques par intelligence artificielle." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5083.

Full text
Abstract:
Les systèmes d'alerte précoce des tremblements de terre (EEWS) sont conçus pour fournir des alertes avant que les ondes sismiques les plus destructrices d'un séisme n'atteignent les zones peuplées, offrant ainsi quelques précieuses secondes aux populations pour prendre des mesures de protection. Cependant, les EEWS traditionnels dépendent fortement de réseaux sismiques denses et rencontrent souvent des difficultés à détecter rapidement les séismes dans les régions disposant d'une infrastructure limitée ou de moins de stations. En réponse à ces limitations, et afin de fournir des alertes plus rapides même dans les zones bien équipées, nous avons conçu un algorithme basé sur l'intelligence artificielle, nommé E3WS (Ensemble Earthquake Early Warning System), qui détecte les tremblements de terre et estime leur magnitude et leur localisation en utilisant 3 secondes de données enregistrées sur une seule station. Ce concept permet non seulement d'améliorer le temps de réponse, mais aussi de faire fonctionner E3WS de manière efficace dans des zones disposant de moins de stations, en faisant une solution flexible pouvant être appliquée non seulement dans les régions étudiées, mais également à l'échelle mondiale, renforçant ainsi les capacités d'alerte précoce dans des contextes tectoniques divers. Nous avons installé E3WS comme algorithme central du système d'alerte précoce sismique péruvien (SASPe pour Sistema de Alerta Sísmica Peruano), fournissant des alertes précoces pour les séismes de subduction le long de la côte et bénéficiant à plus de 18 millions de Péruviens. SASPe fonctionne à travers un réseau de 111 stations, où E3WS est implémenté de manière indépendante. Au-delà du Pérou, nous utilisons E3WS pour prévoir les répliques en Haïti, détecter les essaims sismiques en Équateur, et étudier une séquence de séismes précurseurs précédant un séisme majeur survenu à Arequipa, au Pérou
Earthquake Early Warning Systems (EEWS) are designed to provide alerts before the most damaging seismic waves of an earthquake reach populated areas, giving people precious seconds to take protective actions. However, traditional EEWS rely heavily on dense seismic networks and often face challenges in rapidly detecting earthquakes in regions with limited infrastructure or fewer stations. In response to these limitations, and in order to provide faster warning even in well-instrumented areas, we design an AI-based algorithm, coined E3WS for Ensemble Earthquake Early Warning System, which detects earthquakes and estimate their magnitude and location using 3 seconds of data recorded on a single station. This design not only improves the time response but also enables E3WS to operate effectively in areas with fewer stations, making it a flexible solution that can be applied not only in the studied regions but also globally, enhancing early warning capabilities in diverse tectonic settings. We install E3WS as the core algorithm of the Peruvian EEWS (SASPe for Sistema de Alerta Sísmica Perúano), providing timely alerts for subduction earthquakes along the coast and benefiting more than 18 million Peruvians. SASPe operates through a network of 111 stations, where E3WS is independently implemented. Beyond Peru, we use E3WS to forecast aftershocks in Haiti, to detect seismic swarms in Ecuador, and to study a foreshock sequence leading up to a major earthquake that occurred in Arequipa, Peru
APA, Harvard, Vancouver, ISO, and other styles
9

Guérin, Marianne Penit. "Intelligence artificielle et électrophysiologie sensorielle oculaire : Pantops PC." Clermont-Ferrand 1, 1987. http://www.theses.fr/1987CLF11037.

Full text
Abstract:
La première partie, après un rappel historique sur l’ électro-physiologie sensorielle oculaire, est consacrée à la présentation du Pantops PC, nouvel appareil de recueil articulé autour d’ un micro-ordinateur. Le Pantops PC est caractérisé par sa convivialité et son évolutivité. Tous les paramètres d’ examen sont modifiables à volonté par des manipulations simples. La deuxième partie concerne, après un chapitre sur l’ intelligence artificielle et les systèmes experts, la présentation d’ un système expert d’ aide au diagnostic en électrophysiologie, mis au point dans le service d’ ophtalmologie de Clermont-Ferrand. Il consiste, dans le cadre d’ un auto-enseignement, à aider l’ ophtalmologiste à interpréter les examens électrophysiologiques. L’ auteur décrit ses caractéristiques, analyse ses avantages et inconvénients et trace les perspectives qu’ il pourrait ouvrir à l’ intelligence artificielle en électrophysiologie sensorielle oculaire.
APA, Harvard, Vancouver, ISO, and other styles
10

El, Alam Iyad. "Management des compétences : nouvelles technologies et intelligence artificielle." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX32077.

Full text
Abstract:
Ravail porte sur la modélisation systémique et mathématique des problèmes d'ajustement des Compétences, tant dans les approches classiques que furent les modèles de la Recherche Opérationnelle, que selon de nouveaux points de vue découlant de l'Intelligence Artificielle et des réseaux neuronaux. Cette modélisation est faite dans le cadre d'un Système décisionnel d’évaluation et d’adéquation des compétences par les apports de la modélisation des micros et des macros compétences. Le contexte de l'intelligence artificielle dans lequel nous nous mettrons sera celui des réseaux neuronaux multicouches et de ceux que l'on appelle 'Fuzzy ART' dans le but de proposer un système que nous avons appelé le MARC (Modèle d’Adéquation et de Recherche de Compétences). Les domaines d'application seront surtout ceux des grandes organisations demandant des personnels en grand nombre et pouvant changer fréquemment d'affectation. Le postulat de cette étude vise à montrer qu'il est possible d'envisager une amélioration des décisions des responsables de Ressources Humaines ou des Responsables Opérationnels par une meilleure exploitation des informations liées aux compétences. Ceci est évidemment l'un des facteurs à placer au cœur des nouvelles problématiques stratégiques liées aux compétences et aux formations
The study focuses on the systemic and mathematical modelisation of the skills adjustment problems, both in the classical approaches of operational research models and in new viewpoints stemming from neural networks and artificial intelligence. This modelisation is conducted within the framework of a decision support system of evaluation and skills match through the contribution of the modelisation of micro- and macro-competencies. The context of artificial intelligence will be that of multilayer neural networks, and of the so-called Fuzzy ART, with the aim of proposing a system which we have called CRMM (Competencies Research Matching Model). The system will be implemented in large-sized organizations in need of large numbers of personnel subject to frequent post changes. The assumption on which this study is based tends to demonstrate the possibility to improve the decision-making of human resources or operational managers through a better exploitation of competency-related data. This factor should obviously be placed at the core of new strategic problematics linked to competencies and training
APA, Harvard, Vancouver, ISO, and other styles
11

Pouget, Jonathan. "La réparation du dommage impliquant une intelligence artificielle." Thesis, Aix-Marseille, 2019. http://theses.univ-amu.fr.lama.univ-amu.fr/191212_POUGET_871qcngtj900zlfid640gfeuf393zytl_TH.pdf.

Full text
Abstract:
Le droit positif de la responsabilité civile ainsi que les solutions actuelles d’indemnisation des victimes permettent-ils une réparation adéquate des dommages causés, directement ou non, par une intelligence artificielle ? Cette thèse dessine les contours d'une réponse négative sans pour autant prôner un bouleversement du droit positif. Elle tend à démontrer à la fois la nécessité d'interprétation du droit de la responsabilité civile et du droit des assurances, et la nécessité d'évolution d'une partie du droit de la responsabilité civile et des contrats d'assurance de responsabilité. La piste d'une personnalité juridique aux fonctions encadrées et attribuable aux intelligences artificielles sera également à ces fins, étudiée
Do the current tort law and insurance law allow an adequate compensation for the damage caused, directly or indirectly, by anartificial intelligence? Firstly, this thesis demonstrates that tort law and insurance law need to be interprated. Secondly, it demonstrates that a part of tort law and insurance contracts have to evolve. The track of a legal personhood with supervised functions and attributable to artificial intelligences will also be studied for these purposes
APA, Harvard, Vancouver, ISO, and other styles
12

Le, Gauffre Pascal. "Méthodologie de conception et intelligence artificielle en bâtiment." Lyon, INSA, 1988. http://www.theses.fr/1988ISAL0045.

Full text
Abstract:
La thèse présentée porte sur l'aide à la conception des bâtiments d'habitation et l'apport des techniques de l’intelligence Artificielle. Une première partie est consacrée à l'étude de fondements conceptuels pour une e. A. O. -Bâtiment et renvoie aux paradigmes du Système de Traitement de l'Information (S. T. I. ) et de la Modélisation Systémique. L'activité de conception y est posée comme activité de modélisation et de formulation (+ résolution) de problèmes par une équipe de concepteurs. L'apport des techniques de l'Intelligence Artificielle est alors envisagé d'une part pour ce qui concerne la représentation multi-points de vue du projet de bâtiment, d’autre part pour ce qui concerne les processus de construction et de résolution de problèmes. Une seconde partie est consacrée à la présentation du logiciel DEDAL, maquette de système multi-expert d'aide à la construction et à la résolution de problèmes. Quatre sous-systèmes du logiciel sont successivement étudiés : un module de représentation systémique du projet de bâtiment, un module pour l'élaboration d'une stratégie de modification du projet, un module pour la construction d’un problème multicritère extrait du problème global et un module de résolution du problème construit. Enfin, une troisième partie regroupe un exemple d'utilisation l’expérimentation du logiciel DEDALE, et la présentation des perspectives envisagées pour l'outil en tant que tel et pour l'approche employée pour son élaboration
Research on Computer Aided Design requires a double conceptual base. On the one hand, we have to represent what is the design process, on the other hand we have to define the possible and desirable contributions of the computer in this design process. The works presented deal with Computer Aided Building Design and the contribution of Artificial Intelligence techniques. The first part of this report is dedicated to the study of conceptual bases for Computer Aided Building Design and refers to Information Processing System theory as well as to systems modelisation. The design process is regarded as a modelling activity and as a problem setting (and solving). Process. The contribution of Artificial Intelligence techniques is therefore considered for the representation of the different expert considerations on the building project and for the construction and the resolution of problems. In the second part of the report we present a prototype of an expert system, called DEDALE, dedicated to the four following tasks : 1- Modelisation of the building project, 2- Selection of a strategy for modifications, 3- Construction of a restricted multi criteria problem (according to the strategy), 4- Management of the resolution process. Finally, a third part is devoted to a presentation of an experiment of the DEDALE system, and to a presentation of future prospects of this tool and of the approach used to elaborate it
APA, Harvard, Vancouver, ISO, and other styles
13

Helft, Nicolas. "L' Induction en intelligence artificielle : théorie et algorithmes." Aix-Marseille 2, 1988. http://www.theses.fr/1988AIX22044.

Full text
Abstract:
Le probleme de l'induction est aborde a partir de "premiers principes": etant donnee une connaissance supposee etre representative d'un certain domaine, on se pose le probleme de trouver toutes les hypotheses pouvant etre raisonnablement conjecturees. En d'autres termes, le probleme est de definir et calculer ce qui peut, a l'oppose de ce qui doit etre conjecture
APA, Harvard, Vancouver, ISO, and other styles
14

Ribas, Santos Eduardo. "Contribution au diagnostic qualitatif des procédés en intelligence artificielle." Vandoeuvre-les-Nancy, INPL, 1996. http://docnum.univ-lorraine.fr/public/INPL_T_1996_RIBAS_SANTOS_E.pdf.

Full text
Abstract:
L’objectif de la supervision des procédés est de surveiller le fonctionnement d'une unité afin d'assurer la réalisation des objectifs fixés, quels que soient les incidents et perturbations extérieures pouvant intervenir. Il est nécessaire d'avoir une vue générale afin d'être en mesure de réagir et de se focaliser sur les points clés. Dans cette thèse, nous proposons une modélisation de la connaissance du fonctionnement des procédés adaptée à la représentation généralement choisie par les spécialistes lors d'un problème donné: à l'aide d'un modèle complet du fonctionnement normal de l'unité, ils cherchent à trouver des fautes ou des combinaisons de fautes possibles. Les concepts proposés sont fondés sur une réflexion du processus d'acquisition de la connaissance qui permet au spécialiste de progresser dans l'analyse des activités en production. Ce processus inclut la formulation, à partir des modèles mathématiques contenant la description du comportement dynamique ou statique des systèmes, d'un modèle préliminaire, de telle manière qu'un spécialiste, pour améliorer ses connaissances, puisse s'appuyer sur celles composant un modèle crée par un autre spécialiste. Dans un premier temps, nous introduisons une méthodologie pour la définition des connaissances permettant au spécialiste (ou, en général, à un individu placé au sein d'une organisation industrielle) de mieux représenter formellement les descriptions de problèmes afin de reproduire ses raisonnements. Dans un deuxième temps, nous proposons une formulation pour la représentation de la connaissance et pour le diagnostic, ou la construction de la base de connaissances comprend des étapes résultant du processus d'acquisition de la connaissance qualitative. Les concepts sont illustrés par des procédés simples choisis dans le domaine du génie des procédés. Ainsi, le diagnostic qualitatif d'un réacteur idéal continu parfaitement agité est examiné en détail dans le cadre général précédemment étudié
APA, Harvard, Vancouver, ISO, and other styles
15

Raddaoui, Badran. "Contributions aux approches logiques de l'argumentation en intelligence artificielle." Thesis, Artois, 2013. http://www.theses.fr/2013ARTO0412/document.

Full text
Abstract:
Cette thèse se situe dans le domaine des modèles de l’argumentation en intelligence artificielle. Ces modèles constituent des outils très populaires pour l’étude de raisonnements en présence d’incohérences dans les bases de connaissances et lors de la négociation entre agents et la prise de décision. Un modèle argumentatif est un processus interactionnel principalement basé sur la construction d’arguments et de contre-arguments, l’étude des relations entre ces différents arguments et la mise en place de critères permettant de déterminer le statut de chaque argument afin de sélectionner les arguments (les plus) acceptables.Dans ce cadre, ce travail a porté sur l’étude d’un système particulier : le système d’argumentation déductif. Un argument est alors entendu comme un couple prémisses-conclusion tel que la conclusion soit une formule qui puisse être déduite des prémisses. Nous y avons traité plusieurs questions. Tout d’abord, partant du constat que le raisonnement par l’absurde est valide en logique propositionnelle classique, nous proposons une méthode de génération d’arguments en faveur d’une proposition donnée. Cette approche s’étend au calcul des undercuts canoniques, arguments identifiés comme représentant tous les contre-arguments. Contrairement aux autres approches proposées dans la littérature, notre technique est complète au sens où elle permet de générer, modulo une possible explosion combinatoire, tous les arguments relatifs à une formule logique quelconque. Ensuite, nous avons proposé un cadre d’argumentation en logique conditionnelle. Les logiques conditionnelles sont souvent considérées comme étant tout particulièrement adaptées à la formalisation de raisonnements de nature hypothétique. Leur connecteur conditionnel est en effet souvent plus proche de l’intuition que l’on peut avoir de l’implication que ne l’est l’implication matérielle de la logique propositionnelle classique. Ceci nous permet de proposer un concept de contrariété conditionnelle qui couvre à la fois les situations de conflits logiques fondés sur l’incohérence et une forme particulière de conflit qui ne se traduit pas naturellement par un conflit basé sur l’incohérence : quand un agent affirme une règle de type Si alors, une seconde règle qui peut en être déduite et qui impose la satisfaction de prémisses supplémentaires peut apparaître conflictuelle. Nous étudions alors sur cette base les principaux éléments d’une théorie de l’argumentation dans une logique conditionnelle. Enfin, le dernier point étudié dans ce travail concerne le raisonnement au sujet de ressources consommables, dans un cadre où les formules logiques sont elles mêmes consommées dans le processus déductif. Nous proposons une logique, simple et proche du langage et des principes de la logique propositionnelle classique, permettant le raisonnement à partir de ressources consommables et de quantité bornée. Nous y revisitons également les principaux éléments d’une théorie logique de l’argumentation
This thesis focus on the field of argumentation models in artificial intelligence. These models form very popular tools to study reasoning under inconsistency in knowledge bases, negotiation between agents, and also in decision making. An argumentative model is an interactional process mainly based on the construction of arguments and counter-arguments, then studying the relations between these arguments, and finally the introduction of some criteria to identifying the status of each argument in order to select the (most) acceptable of them.In this context, this work was dealt with the study of a particular system: the deductive argumentation framework. An argument is then understood as a pair premises-conclusion such that conclusion is a logical formula entailed by premises, a non-ordered collection of logical formulas. We have addressed several issues. First of all, on the basis that reductio ad absurdum is valid in classical propositional logic, we propose a method to compute arguments for a given statement. This approach is extended to generate canonical undercuts, arguments identified as the representative of all counter-arguments. Contrary to the other approaches proposed in the literature, our technique is complete in the sense that all arguments relative to the statement at hand are generated and so are all relevant counter-arguments. Secondly, we proposed a logic based argumentation in conditional logic. Conditional logic is often regarded as an appealing setting for the formalization of hypothetical reasoning. Their conditional connective is often regarded as a very suitable connective to encode many implicative reasoning patterns real-life and attempts to avoid some pitfalls of material implication of propositional logic. This allows us to put in light and encompass a concept of conditional contrariety thats covers both usual inconsistency-based conflict and a specific form of conflict that often occurs in real-life argumentation: i.e., when an agent asserts an If then rule, it can be argued that the satisfaction of additional conditions are required for the conclusion of a rule to hold. Then, in that case we study the main foundational concepts of an argumentation theory in conditional logic. Finally, the last point investigated in this work concerns the reasoning about bounded resources, within a framework in which logical formulas are themselves consumed in the deductive process. First, a simple variant of Boolean logic is introduced, allowing us to reason about consuming resources. Then, the main concepts of logic-based argumentation are revisited in this framework
APA, Harvard, Vancouver, ISO, and other styles
16

Pistilli, Giada. "Pour une éthique de l'intelligence artificielle conversationnelle." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUL038.

Full text
Abstract:
Cette recherche vise à sonder les complexités éthiques de l'intelligence artificielle (IA) conversationnelle, en se concentrant spécifiquement sur les grands modèles de langage et les agents conversationnels. Ce manuscrit construit un cadre qui allie l'analyse empirique au discours philosophique. Notre objectif est de plaider de toute urgence en faveur d'une structure éthique bien fondée pour l'IA conversationnelle, en soulignant la nécessité d'impliquer toutes les parties prenantes, des développeurs aux utilisateurs finaux. Tout d'abord, nous défendons l'intégration de l'ingénierie et d'autres disciplines scientifiques avec la philosophie, facilitant ainsi une compréhension plus nuancée des dimensions éthiques qui sous-tendent l'IA. Cette approche collaborative permet un discours éthique plus riche et mieux informé. Deuxièmement, nous préconisons l'utilisation dynamique de cadres éthiques appliqués en tant que guides fondamentaux pour la définition des objectifs initiaux d'un système d'IA. Ces cadres servent d'outils évolutifs qui s'adaptent aux complexités éthiques rencontrées au cours du développement et du déploiement. Enfin, sur la base d'une recherche pratique et interdisciplinaire, nous plaidons en faveur de la priorisation de l'IA étroite et spécifique à une tâche par rapport à l'intelligence artificielle générale, une position qui repose sur la faisabilité accrue de la surveillance éthique et de la contrôlabilité technique.Avec cette recherche, nous souhaitons contribuer à la littérature sur l'éthique de l'IA, en enrichissant le discours académique à la fois en philosophie et en informatique
This research aims to probe the ethical intricacies of conversational Artificial Intelligence (AI), specifically focusing on Large Language Models and conversational agents. This manuscript constructs a framework that melds empirical analysis with philosophical discourse. We aim to urgently advocate for a well-founded ethical structure for conversational AI, highlighting the necessity to involve all stakeholders, from developers to end-users. Firstly, we champion the integration of engineering and other scientific disciplines with philosophy, facilitating a more nuanced understanding of the ethical dimensions underpinning AI. This collaborative approach allows for a richer, more informed ethical discourse. Secondly, we advocate for the dynamic use of applied ethical frameworks as foundational guides for setting the initial objectives of an AI system. These frameworks serve as evolving tools that adapt to the ethical complexities encountered during development and deployment. Lastly, grounded in hands-on, interdisciplinary research, we make an argument for the prioritization of narrow, task-specific AI over Artificial General Intelligence, a stance that is based on the enhanced feasibility of ethical oversight and technical controllability.With this research, we aim to contribute to the literature on AI ethics, enriching the academic discourse in both philosophy and computer science
APA, Harvard, Vancouver, ISO, and other styles
17

Souza, Marco Antonio Lucas de. "Intelligence artificielle et philosophie : les critiques de H. L. Dreyfus et J. Searle à l'intelligence artificielle." Thèse, Université du Québec à Trois-Rivières, 1992. http://depot-e.uqtr.ca/5367/1/000597800.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Kerinska, Nikoleta. "Art et intelligence artificielle : dans le contexte d'une expérimentation artistique." Thesis, Paris 1, 2014. http://www.theses.fr/2014PA010541/document.

Full text
Abstract:
Cette thèse a ses origines dans notre pratique artistique et se caractérise par la curiosité inlassable envers le rapport entre l'art et la technologie numérique. Son idée fondamentale est d'examiner les possibilités offertes par l'intelligence artificielle dans le contexte de l'art. L'hypothèse de cette recherche est que les œuvres d'art dotées d'intelligence artificielle présentent une problématique commune et identifiable dans le panorama général des œuvres numériques. Notre but est de comprendre comment la notion d'intelligence est mise en œuvre dans certains projets d'art, et de quelle manière les techniques d'intelligence artificielle enrichissent du point de vue conceptuel et formel les productions artistiques actuelles. Nous proposons d'abord une étude sur l'art assisté pal l'ordinateur, ses principales définitions et tendances actuelles. Puis, nous développons une définition de l'œuvre d'art dotée d'intelligence artificielle. Ensuite, nous présentons nos projets artistiques et leurs problématiques respectives.Dans le cadre de cette thèse. nous avons développé deux projets qui investissent une réflexion artistique sur le langage naturel comme interface de la communication homme-machine, aussi bien que sur les notions d'automate et d'agent intelligent considérés dans le contexte de l'art numérique
This thesis finds its origins in the way we are making art, and it is marked by our unflagging interest in the relationship between art and digital technology. Its primary idea consists in examining the possibilities offered by artificial intelligence in the context of art. The hypothesis of this study suggests that artworks endowed with artificial intelligence present a type of problematic that is common and identifiable in the general landscape of computer works of art. Our aim is to understand how the notion of intelligence is evoked by the behavior of certain artworks, and in what way current art productions are enriched from a conceptual and formal point of view, by techniques of artificial intelligence. At first we propose a study about the computer art main definitions and current trends. Next, we develop a definition of artworks endowed with artificial intelligence. Then, we present our artistic projects and their respective problematic. As part of this dissertation we have developed two projects that engage in an artistic reflection on natural language as a interface of the communication between man and machine, as well as on the notion of automaton and intelligent agents in the context of computer art
APA, Harvard, Vancouver, ISO, and other styles
19

Sofiane, Ahcène. "Contributions aux techniques de fusion de connaissances en intelligence artificielle." Artois, 2003. http://www.theses.fr/2003ARTO0408.

Full text
Abstract:
Ce travail de thèse s'inscrit dans le domaine de l'intelligence artificielle symbolique. Plus précisément, il apporte une contribution au domaine de la représentation des connaissances et du raisonnement en se penchant sur des problèmes liés à la fusion de bases (ou de sources) de connaissance et de croyance qui peuvent être mutuellement contradictoires. Dans un premier temps, nous nous sommes intéressés aux approches sémantiques de fusion de croyances. Alors qu'une base de connaissance peut se définir par ses modèles, des croyances mutuellement inconsistantes ne possèdent par définition pas de modèles. Aussi différents auteurs ont essayé de pallier ce problème en définissant le résultat de la fusion de bases de croyance mutuellement inconsistantes par un ensemble d'interprétations proches de ce que seraient ces modèles s'ils existaient. Nous avons étudié de manière critique ces approches. Nous pensons que dans certains champs d'application, elles ne sont pas les plus appropriées dans la mesure où elles reposent uniquement sur des outils sémantiques et ne prennent en aucun compte la forme syntaxique prises par les bases à fusionner. Nous pensons et argumentons que dans certaines applications, la syntaxe des bases de connaissance est à prendre, du moins dans une certaine mesure, en compte lorsque l'on désire décrire ce que doit être le résultat de leur fusion. Aussi, nous avons revisité techniquement ces approches en incluant des critères syntaxiques au sein des définitions sémantiques, ceci par une transformation très simple des définitions à l'origine purement sémantique. Notre seconde contribution vise à étendre les opérateurs sémantiques de fusion de croyances à un contexte non monotone. Plus précisément, nous nous plaçons dans un cadre où les bases à fusionner sont en fait implicitement augmentées par des hypothèses de complétion comme l'hypothèse de monde clos et ses variantes. Dans ce contexte, un problème conceptuel surgit. Comment régler la priorité à accorder à une base par rapport à la complétion d'une autre base lorsque ces deux ensembles sont inconsistants ? Nous étudions le cas où la complétion doit se voir attribuer une priorité moindre que l'information d'une autre base (et ses conséquences logiques). Nous montrons qu'alors les opérateurs sémantiques de fusion doivent être adaptés en conséquence et que la notion de modèle est à grain trop gros et doit lui-même être affiné. Nous reconstruisons ces opérateurs dans ce cadre de non-monotonie, et soulignons les différentes options possibles. La troisième contribution de ce travail s'inscrit dans le domaine de la fusion de connaissances à propos de dispositifs et processus techniques que l'on retrouve par exemple dans le domaine du diagnostic à base de principes premiers. Nous montrons que, pour ce domaine, les opérateurs classiques de fusion de croyances ne sont pas relevants. De fait, ces opérateurs préconisent que la fusion de bases de connaissance dont l'union est consistance doit être cette union elle-même. Nous montrons que lorsque nous fusionnons des bases de connaissance logiques à propos des mêmes dispositifs et processus techniques, il doit parfois en aller différemment. En particulier, des règles elles-mêmes doivent être fusionnées pour former des règles communes, ceci afin que des conditions nécessaires de bon fonctionnement ne deviennent pas simplement suffisantes. Techniquement ce phénomène est causé par le fait que ces bases devraient être normalement soumises à une forme de non-monotonie. Nous étudions ce problème et proposons en toute généralité une étape efficace et préalable à la fusion qui permet de le résoudre. Cette question est étudiée sous différents aspects, notamment sémantiques. Ceci nous permet ainsi d'illustrer un cas surprenant de fusion qui permet de restaurer la consistance. En complément de ce travail, nous proposons des tests de consistances qui permettent d'éviter que la fusion de croyances dans ce domaine conduise à dériver des informations qui seraient contraires à l'intuition (en évitant notamment des effets non-souhaités de subsomption sur des informations plus spécifiques qui devraient prédominer).
APA, Harvard, Vancouver, ISO, and other styles
20

Tschirhart, Fabien. "Intelligence artificielle pour la psychologie des foules en animation interactive." Paris 8, 2013. http://octaviana.fr/document/181584794#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Nous étudions une méthode de simulation de foules pour des environnements virtuels tels que ceux utilisés dans l’industrie du cinéma, le jeu vidéo ou l’art interactif. Selon le contexte dans lequel elles évoluent, les foules adoptent des attitudes différentes : si le plus souvent elles sont ambulantes, elles peuvent également patienter, se montrer hostiles, expressives, spectatrices, voire dans une situation dangereuse, paniquer. Les outils de simulation de foules actuellement disponibles appartiennent à deux catégories. La première d’entre elles utilise une approche macroscopique : elle compare le comportement d’une foule à celui d’un gaz ou d’un fluide en généralisant l’attitude des individus qui la composent sur la base des formules issues de la mécanique des fluides. Là où l’approche macroscopique ignorait tous des contraintes liées au comportement individuel, l’approche microscopique en se concentrant sur l’individu néglige, elle, une partie du phénomène de foule. L’idée principale de notre étude repose en effet sur le principe qu’une fois immergé dans une foule, un individu adopte un comportement totalement différent. Cette théorie repose sur les nombreux constats effectués en psychologie sociale ; lesquels concluent qu’un individu adapte son comportement aux normes de la foule. Le modèle que nous proposons, le Scale Based Model, se fonde sur un concept d’échelle où chaque échelon représente un ensemble spécifique de normes comportementales selon lesquelles le comportement de chaque individu peut se conformer. Cette approche, nouvelle, permet d’obtenir des foules, un comportement plus proche de la réalité, directement utilisable dans la création artistique
We are studying a way to simulate crowds for virtual environments such as used in the cinema, video games or any interactive numeric art. Depending on the context it is evolving with, crowd will adopt different behaviors: most of the time, they are simply ambulant, but they can be waiting or show hostility or violence, be expressive or spectating, or in an emergency situation, get into panic and flee. Main tools for the crowd simulation belong to two model categories. The first one use a macroscopic approach: matching the behavior of a crowd with a fluid or a gas it generalizes the attitude of its individual members on the basis of formulas from fluid mechanics. While the macroscopic approach ignores any of the constraint linked to individual’s behavior, the microscopic approach, working exclusively upon individuals, neglect a part of the crowd phenomenon. The main idea of our study lay on the principle that once immersed in a crowd, an individual behavior will become totally different from the one he had while isolated from it. This theory hold upon observations and assumptions made by social and crowd psychology studies, they conclude that an individual adapt its behavior to the norms and rules of the rules he belongs to. The model we are suggesting, the Scale Based Model, is using a scale concept where each different scale corresponds to a specific set of social-behavioral norms that are used to adapt the behavior of each individual. This whole new approach allows crowds with a way more realistic behavior that can be used into interactive arts
APA, Harvard, Vancouver, ISO, and other styles
21

Napoli, Amedeo. "Représentations à objets et raisonnement par classification en intelligence artificielle." Nancy 1, 1992. http://www.theses.fr/1992NAN10012.

Full text
Abstract:
Cette thèse aborde les notions de catégorisation et de raisonnement par classification dans le contexte de la représentation de connaissances. La catégorisation et le raisonnement par classification y jouent des rôles complémentaires : la tâche de la première consiste à organiser des connaissances en hiérarchies sur lesquelles opère le second. Le raisonnement par classification consiste à reconnaître un objet en appariant ses caractéristiques avec celles de catégories connues d'objets afin de découvrir la catégorie à laquelle l'objet pourrait se rattacher. Il joue un rôle primordial dans la recherche, la gestion et la maintenance d'informations organisées en catégories hiérarchisées, ainsi que comme méthode de résolution de problèmes. Les représentations à objets sont fondées sur ces principes. Elles font partie, avec les systèmes à subsomption, des formalismes de représentation à base d'objets dans lesquels le raisonnement tient une place fondamentale. La partie expérimentale de cette thèse décrit la construction d'un système de conception de plans de synthèse de molécules organiques. Dans le modèle présenté, une synthèse est considérée comme un système temporel qui évolue d'un état initial, la molécule à fabriquer, vers un état final, un ensemble de molécules facilement accessibles. Le système est implanté sous la forme d'une représentation à objets, ou chaque état est décrit par un objet temporel. Le raisonnement employé pour résoudre les problèmes de synthèse est le raisonnement par classification, qui opère simultanément sur des hiérarchies croisées qui reflètent des ordres partiels différents, donc une organisation en catégories orthogonales.
APA, Harvard, Vancouver, ISO, and other styles
22

Charroppin, Rémi. "Contribution à l'élaboration d'une méthodologie de conception en intelligence artificielle." Aix-Marseille 3, 1989. http://www.theses.fr/1989AIX30073.

Full text
Abstract:
La demarche de conception d'un systeme expert, ou d'un systeme base sur la connaissance requiert l'acquisition du savoir, sa formalisation, puis l'utilisation de ce savoir dans un modele informatique. Le travail decrit tente d'apporter une solution en fournissant a la fois une demarche methodologique, un ensemble de modeles de representation de la connaissance et des outils accompagnant la methode. Dans un premier temps, les specificites d'une methode dediee a la conception des systemes bases sur la connaissance sont evoquees, tenant compte des beoins du cogniticien et des outils informatiques disponibles. Puis un apercu des methodes de conception utilise dans le genie logiciel permet d'apprecier les elements communs aux deux demarches. Les principes de la methode kod, et des concepts mis en uvre sont alors exposes. Les modeles qui y figurent sont presentes, en particulier le modele cognitif de l'action, ainsi que les fonctionnalites qui leur sont associees. Une structure de representation des relations temporelles qui s'expriment dans la langue naturelle complete le modele de l'action. Une partir plus pratique expose la mise en uvre d'un recueil d'expertise. En dernier lieu, la realisation d'outils informatiques qui accompagnent la methode, fait l'objet d'un chapitre illustre d'images d'ecran d'une session
APA, Harvard, Vancouver, ISO, and other styles
23

Napoli, Amedeo Haton Jean-Paul. "Représentations à objets et raisonnement par classification en intelligence artificielle /." [S.l.] : [s.n.], 1992. http://www.scd.uhp/docnum/SCD_T_1992_0012_NAPOLI.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Marquis, Pierre. "Contribution à l'étude des méthodes de construction d'hypothèses en intelligence artificielle." Nancy 1, 1991. http://www.theses.fr/1991NAN10031.

Full text
Abstract:
Les systèmes d'IA n'ont atteint, jusqu'à présent, des niveaux de performances remarquables que dans certains domaines spécifiques et bien délimités. La cause principale de leurs limitations est l'absence de mécanismes leur permettant de compléter et de remettre en question leurs connaissances. Prenant comme référence le modèle humain, nous adhérons dans cette thèse au point de vue du psychologue jean Piaget selon lequel la nature hypothético-déductive du raisonnement est à la base de ses possibilités d'évolution. Plus précisément, ce mémoire est consacre à l'étude d'une facette du raisonnement hypothético-déductif en intelligence artificielle : la construction d'hypothèses. Ce mémoire débute par une présentation du cadre formel dans lequel les concepts utilisés prennent place. Puis la notion du premier implicant, centrale dans notre travail, est présentée. Nous nous intéressons ensuite aux fondements logiques de la construction d'hypothèses et définissons sa problématique. Ce mémoire propose finalement plusieurs méthodes de construction d'hypothèses. Nous présentons d'abord la problématique de l'acquisition de concepts puis ses liens avec la généralisation inductive. Nous nous intéressons ensuite à l'abduction. Nous considérons enfin le diagnostic comme un domaine particulier dans lequel les méthodes abductives du premier ordre peuvent être utilisées et nous mettons surtout en évidence l'intérêt de la coopération entre déduction et abduction dans la résolution d'un même problème
APA, Harvard, Vancouver, ISO, and other styles
25

Vion, Eric. "Un atelier de construction de tuteurs intelligents pour la formation des operateurs en milieu industriel : le projet consol." Nancy 1, 1991. http://www.theses.fr/1991NAN10410.

Full text
Abstract:
Le projet consol poursuit deux objectifs complémentaires. Il s'agit, dans un premier temps, de définir une représentation informatique du savoir-faire des entreprises dans le domaine des modes opératoires. Et, dans un second temps, de permettre l'acquisition de ces connaissances par des individus dans le cadre d'une autoformation assistée par ordinateur. En utilisant les techniques de l'intelligence artificielle, nous avons conçu un système ouvert ou une large place est offerte aux professionnels détenteurs du savoir-faire de l'entreprise afin de leur permettre de constituer une base de connaissances sans le recours à un informaticien. Pour les sessions d'enseignement, nous avons retenu le principe de la mise en situation de l'élève conduisant à l'instauration d'un dialogue ayant pour but l'apprentissage puis l'évaluation et la correction des connaissances acquises
APA, Harvard, Vancouver, ISO, and other styles
26

Farcis, Louis. "Cellule MRAM neuromorphique pour l'Intelligence Artificielle." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT015.

Full text
Abstract:
La constante évolution de la société en termes de besoin computationnel tend vers les applications d'intelligence artificiel qui étaient autrefois réservés exclusivement à l'Homme. Le développement d'algorithme reposant sur l'apprentissage profond a rendu possible le dépassement des capacités du cerveau humain dans ces domaines de prédilections comme la reconnaissance d'images et de paroles, la prise de décision et les problèmes d'optimisation. Pourtant, les réseaux de neurones artificiels capable de résoudre ces problèmes repose de manière intensive sur d'énorme quantité de donnés et requiert de nombreuses opérations en parallèle. Quand ces algorithmes tournent sur des architectures classiques de type Van Neumann où l'unité de calcul est séparée de l'unité mémoire, la latence du réseau et son énergie consommée augmente exponentiellement avec sa taille. De ce constat, la communauté scientifique commença a développé des schémas informatiques inspiré du cerveau afin de surpasser les limitations observées. En particulier, les réseaux de neurones impulsionnels ont été prédit par W. Maass en 1997 comme étant un candidat adapté à la maximisation du dispersement des opérations dans le réseau tout en démontrant des performances égales, sinon meilleures, aux premières générations de réseaux de neurones. Jusqu'à maintenant, des circuits intégrés orienté vers une application donnée (ASICs) ont été développé par des industriels tel que Intel ou IBM pour émuler des réseaux de neurones impulsionnels, se basant sur des technologies courantes CMOS. Le nombre de transistors nécessaire pour accomplir certaines fonctionnalités critique propre aux réseaux de neurones, comme les neurones impulsionnels, sont toujours très important, ce qui n'est pas souhaitable dans une stratégie de réduction de miniaturisation poussées.Dans ce contexte, de nouvelles solutions ont été proposé pour reproduire les caractéristiques synaptiques et neuronales tout essayant de réduire un maximum l'empreinte physique et la consommation énergétique. En outre, différent type de nano-synapses reposant sur des mémoires émergeantes non-volatile ont exploré des poids synaptiques multi-niveaux ainsi que la reproduction des fonctions mémoires court-terme et long-terme. Parmi elles, les solutions basées sur une technologie spintronique sont celle les plus matures d'un point de vue industriel puisque les mémoires à accès direct magnétique (MRAM), pouvant servir de synapses binaires, ont déjà atteint le marché international depuis une dizaine année. Pourtant, l'existence d'un neurone impulsionnel compatible avec une synapses spintroniques est toujours manquant dans la littérature actuelle.Cette thèse prend donc sa place dans ce contexte de développement de nouvelles solutions spintroniques afin d'émuler un neurone impulsionnel. Les jonctions tunnels magnétiques (JTMs) largement utilisées en spintronique pour leur endurance en tant que mémoire tout en démontrant des énergies d'écriture et de lecture très faible ainsi qu'une compatibilité "back-end of line" et CMOS. La solution élaborée dans ce présent manuscrit prends l'avantage des JTMs pour concevoir un neurone impulsionnel basé sur la dynamique "windmill". Le concept de JTM à double couche libre est modélisé, nano fabriqué et caractérisé électriquement pour donner une perspective constructive sur son potentiel utilisation en tant que neurone impulsionnel
The rapid evolution of the society in term computational needs tends to target application that were once human exclusive. Development of deep learning algorithm made possible overpassing some capabilities in the task the human brain were performing the best as for instance image and speech recognition, decision making and optimization problems. However, The Artificial Neural Networks (ANNs) capable of solving these tasks use intensively massive amount of data and requires multiple operations at the same time. When running ANN algorithms in a classical Von Neumann architecture where the computing unit is separated by the memory, latency and high energy consumption starts to rise exponentially with the size of the emulated neural network. From this observation, the scientific community starts looking at brain inspired computing sheme to overcome the current limitation. In particular, spiking neural networks (SNNs) were early predicted by W. Maass in 1997 to be a suitable candidate to leverage the sparsity of the network while showing egal if not better results than the first generations of ANN. Up until now, some Application Specific Integrated Circuits (ASICs) were proposed by company such as Intel and IBM to emulate SNN with CMOS-based based technology. The number of transistors needed to accomplish some critical functionality like spiking neurons in these solution is still very large and not suitable for downscaling strategies. In this context, new hardware solutions were proposed to emulate the synaptic and neuronal features while reducing the footprint and the energy consumption. In particular, various types of nano-synapses based on emerging non-volatile memory (NVM) explored multi-level synaptic weights and short-term/long-term memory. Among them, the spintronic solutions are the most advanced in maturity compared to the other technology because magnetic-random-access-memory technology, which represents a binary synapse, has already reached the market for ten years. However, a spiking neuron compatible with spintronic-based synapse is still missing in the literature.The thesis takes place in this context of developing new solutions with spintronics in order to emulate spiking neurons. Magnetic tunnel Junctions (MTJs) have been widely used in spintronics as memory unit because of their high endurance while demonstrating relatively small energy for writing and reading operation and are BEOL CMOS compatible. The solution elaborate along the manuscript takes all the benefits of the MTJs to design a spiking neurons based on the windmill dynamics.The dual-free layer MTJ concept is modelled, designed, nano-patterned and electrically characterized to give a constructive outlook on how viable is this structure for emulation spiking neuron
APA, Harvard, Vancouver, ISO, and other styles
27

Merabet, Samir. "Vers un droit de l'intelligence artificielle." Electronic Thesis or Diss., Aix-Marseille, 2018. https://buadistant.univ-angers.fr/login?url=https://bibliotheque.lefebvre-dalloz.fr/secure/isbn/9782247201235.

Full text
Abstract:
Récente dans l’histoire des inventions technologiques, l’intelligence artificielle s’est néanmoins rapidement imposée dans la société, bouleversant à cette occasion l’économie comme le marché de l’emploi. Toutes les professions semblent exposées à la concurrence des agents artificiels ; rares sont les domaines d’activités épargnés. Pourtant, il apparaît que ces deux formes d’intelligences ne peuvent pas être tenues pour équivalentes. Si l’intelligence artificielle emprunte certains aspects de l’intelligence humaine, de nombreux autres lui font défaut. La conscience, la raison comme les émotions sont étrangères aux machines, même intelligentes. Dans ces circonstances, l’application à un système informatique intelligent de règles pensées en considération des personnes humaines peut s’avérer inadaptée. En effet, la confrontation entre le droit et l’intelligence artificielle révèle l’existence d’un paradigme sur lequel se fonde le droit positif. Le droit français s’appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. L’objet de cette étude est donc de dissiper les doutes qui entourent la nature de l’intelligence artificielle en vue de la distinguer clairement de l’intelligence humaine. Le constat de l’absence d’identité de ces deux formes d’intelligences induit la reconnaissance d’un ordre public de l’Humanité qui permet la préservation d’un domaine exclusif de l’intelligence humaine. Il est alors utile de formuler des principes généraux du droit de l’intelligence artificielle applicables en toutes circonstances
Even if its appearance is recent among technological inventions history, artificial intelligence has nevertheless quickly established itself, disrupting economy and the job market. Yet, upon assessment, it seems that these two forms of intelligence cannot be regarded as equivalent. Even if artificial intelligence borrows some aspects of human intelligence, many others are missing. Conscience, reason and emotions are unknown to machines, even intelligent ones. Yet, law rests upon such qualities. Hence, applying rules created for human to intelligent computer systems may be inappropriate. Indeed, the confrontation between law and artificial intelligence reveals the existence of a paradigm on which positive law is based. To a large extent, French law relies on the subjectivity proper to humans. All branches of law appear to be concerned, civil law as well as criminal law or intellectual property law. Therefore, the legal regime of artificial intelligence seems very uncertain. Consequently, the purpose of this study is to clear up the doubts surrounding the nature of artificial intelligence in order to neatly distinguish it from human intelligence. Eventually, the acknowledgment of the fundamental difference opposing these two forms of intelligence should lead to the recognition of a new public order of humanity and the preservation of an exclusive field for human intelligence
APA, Harvard, Vancouver, ISO, and other styles
28

Durand, Stéphane. "Représentation des points de vues multiples dans une situation d'urgence : une modélisation par organisations d'agents." Le Havre, 1999. http://www.theses.fr/1999LEHA0005.

Full text
Abstract:
Les systèmes d'information et de communication (SIC) sont des systèmes informatisés qui regroupent et fournissent des renseignements et des informations sur une situation d'urgence en cours de développement aux acteurs décisionnels qui doivent la gérer. L'approche factuelle classique n'est pas suffisante pour gérer correctement les de telles situations. Nous proposons donc une approche basée sur l'interprétation artificielle des messages échanges par ces acteurs grâce à la couche communicationnelle d'un SIC. Cette approche permet non seulement de transmettre fidèlement les informations factuelles des messages, mais aussi la prise en compte d'une partie de leurs informations subjectives. Elle permet aussi de monter les points de vue conflictuels entre les acteurs décisionnels en fonction des messages échangés et la gestion de connaissances contradictoires. Pour cela, nous proposons un modèle de la couche communicationnelle d'un SIC incluant la base d'un système d'interprétation des messages. Ce modèle utilise systématiquement le paradigme agent. Il comprend des organisations d'agents, appelées organisations aspectuelles qui reifient les aspects de la situation exprimés dans leurs messages par les acteurs. Ces messages sont enrichis par le système et replacés dans leur contexte communicationnel.
APA, Harvard, Vancouver, ISO, and other styles
29

Imbert, Jean-Louis. "Simplification des systèmes de contraintes numériques linéaires." Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX22022.

Full text
Abstract:
Presentation d'un algorithme qui, a partir d'un systeme de contraintes numeriques lineaires s et d'un ensemble de variables v, calcule un systeme de contraintes lineaires s' ne faisant intervenir que des variables de v, et dont les solutions sont exactement les projections sur v, des solutions du systeme initial. Cet algorithme est constitue principalement de deux sous algorithmes. Le permier, qui est lineaire, simplifie le sous systeme des equations. Le second, vbase sur l'elimination de fourier-motzkin, simplifie le sous systeme des inequations
APA, Harvard, Vancouver, ISO, and other styles
30

Venturini, Gilles. "Apprentissage adaptatif et apprentissage supervise par algorithme genetique." Paris 11, 1994. http://www.theses.fr/1994PA112016.

Full text
Abstract:
Dans cette these, nous nous sommes interesses d'une part a un probleme de controle en robotique et en automatique caracterise par des variations imprevues dans les modeles du robot et de son environnement, et d'autre part a un probleme d'apprentissage de regles a partir d'une base d'exemples comportant de nombreuses valeurs inconnues. Pour ces deux problemes, nous avons utilise les algorithmes generiques, qui sont des procedures d'optimisation inspirees de la selection naturelle, en essayant de les rendre plus controlables de maniere a traiter des connaissances du domaine. Le premier algorithme elabore (agil) est une extension des systemes de regles genetiques qui apprend des regles de controle et adapte ces regles aux variations du systeme a controler. Il a ete teste sur des problemes simules. Le deuxieme algorithme (sia) s'inspire des principes de l'algorithme aq mais en utilisant un algorithme genetique comme mecanisme de recherche. Il traite les valeurs inconnues sans essayer de les remplacer. Il a ete teste sur plusieurs bases de donnees et a ete applique a l'analyse d'un domaine judiciaire. Ces deux algorithmes utilisent des heuristiques explicites et peuvent traiter differents types de connaissances du domaine
APA, Harvard, Vancouver, ISO, and other styles
31

Merabet, Samir. "Vers un droit de l'intelligence artificielle." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0528.

Full text
Abstract:
Récente dans l’histoire des inventions technologiques, l’intelligence artificielle s’est néanmoins rapidement imposée dans la société, bouleversant à cette occasion l’économie comme le marché de l’emploi. Toutes les professions semblent exposées à la concurrence des agents artificiels ; rares sont les domaines d’activités épargnés. Pourtant, il apparaît que ces deux formes d’intelligences ne peuvent pas être tenues pour équivalentes. Si l’intelligence artificielle emprunte certains aspects de l’intelligence humaine, de nombreux autres lui font défaut. La conscience, la raison comme les émotions sont étrangères aux machines, même intelligentes. Dans ces circonstances, l’application à un système informatique intelligent de règles pensées en considération des personnes humaines peut s’avérer inadaptée. En effet, la confrontation entre le droit et l’intelligence artificielle révèle l’existence d’un paradigme sur lequel se fonde le droit positif. Le droit français s’appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. L’objet de cette étude est donc de dissiper les doutes qui entourent la nature de l’intelligence artificielle en vue de la distinguer clairement de l’intelligence humaine. Le constat de l’absence d’identité de ces deux formes d’intelligences induit la reconnaissance d’un ordre public de l’Humanité qui permet la préservation d’un domaine exclusif de l’intelligence humaine. Il est alors utile de formuler des principes généraux du droit de l’intelligence artificielle applicables en toutes circonstances
Even if its appearance is recent among technological inventions history, artificial intelligence has nevertheless quickly established itself, disrupting economy and the job market. Yet, upon assessment, it seems that these two forms of intelligence cannot be regarded as equivalent. Even if artificial intelligence borrows some aspects of human intelligence, many others are missing. Conscience, reason and emotions are unknown to machines, even intelligent ones. Yet, law rests upon such qualities. Hence, applying rules created for human to intelligent computer systems may be inappropriate. Indeed, the confrontation between law and artificial intelligence reveals the existence of a paradigm on which positive law is based. To a large extent, French law relies on the subjectivity proper to humans. All branches of law appear to be concerned, civil law as well as criminal law or intellectual property law. Therefore, the legal regime of artificial intelligence seems very uncertain. Consequently, the purpose of this study is to clear up the doubts surrounding the nature of artificial intelligence in order to neatly distinguish it from human intelligence. Eventually, the acknowledgment of the fundamental difference opposing these two forms of intelligence should lead to the recognition of a new public order of humanity and the preservation of an exclusive field for human intelligence
APA, Harvard, Vancouver, ISO, and other styles
32

Séguillon, Michel. "Simulation et intelligence artificielle dans le cadre des stratégies financières complexes." Aix-Marseille 3, 1992. http://www.theses.fr/1992AIX32014.

Full text
Abstract:
Dans cette thèse le problème de définition des lois de stratégies financières complexes est étudié. Premièrement une vue d'ensemble des différentes opérations élémentaires classiques est donnée. Des théorèmes mathématiques sont proposes qui permettent de définir les probabilités résultantes. L’aspect numérique des problèmes est considéré et une méthode numérique efficace est proposée et un certain nombre d'exemples intéressants sont donnes qui concernent l'essentiel des différents aspects du problème. Des développements pour des recherches futures sont donnes en perspective de travaux ultérieurs
In this thesis the problem of defining the probabilities laws of complex financial strategies is studied. First an overview of the different classical financial elementary operations is given. Mathematical theorems are proposed which permit to define the resulting probabilities. Then the numerical aspect of the problem is considered and an efficial numerical method is proposed; a number of interesting examples are given which concerned the main different aspects of the problem. Extensions for futures researches are given at the end of the work
APA, Harvard, Vancouver, ISO, and other styles
33

Papineau, Christelle. "Droit et intelligence artificielle : essai pour la reconnaissance du droit computationnel." Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01D049.

Full text
Abstract:
La porosité entre le droit et l’intelligence artificielle a aujourd’hui soixante ans. Cette porosité qui devait, à l’origine, permettre aux informaticiens d’améliorer les performances cognitives de leurs algorithmes, ce, grâce au syllogisme juridique, a très vite suscité, en retour, l’intérêt des juristes pour l’informatique. Ces derniers ont compris qu’ils pouvaient tirer avantage des opportunités offertes par l’automatisation du droit, grâce aux nouvelles technologies. Ainsi, à l’aube de la décennie 2020, le machine learning, l’un des sous champ disciplinaires les plus récents de l’intelligence artificielle, permet autant d’améliorer les modalités d’application des lois et sanctions que de calculer les citoyens (police prédictive, justice prédictive, mais aussi accès au droit et à la justice en ligne). Ce déploiement du machine learning, qui s’opère autant dans les pays common lawyer que dans les pays de tradition civiliste, s’opère surtout dans un contexte d’a-légalité, au préjudice des droits des citoyens calculés. Les juristes nord-américains ont résolu ce défaut d’encadrement législatif en usant de la technique du judge made law. Cette technique, qui présente l’avantage de son adaptabilité, à la fois à chaque situation de vide législatif, mais aussi aux tendances de la société et des époques, sera à nouveau mobilisée, à l’avenir, lorsque les prochains sous champs disciplinaires de l’intelligence artificielle, dont le deep learning, seront déployés. La souplesse du système common lawyer nord américain peut servir de modèle au système français, pour mettre en place un cadre juridique régulant, aujourd’hui, le machine learning et, demain, les prochains sous champs disciplinaires de l’intelligence artificielle. Il convient toutefois d’adapter la dimension casuistique du modèle nord-américain au système français, en proposant d’user des normativités alternatives, et de l’éthique, comme instruments équivalant à la souplesse du judge made law. Cette approche permettrait d’observer les questions de droit qui se posent à chaque progrès technologique et d’envisager des réponses juridiques, dans un contexte enclin à légiférer une fois que l’ensemble des achoppements techniques et des problèmes de droit, que ceux-ci posent, a été saisi. Cette méthode, qui impose d’observer les nouveaux phénomènes technologiques au prisme des normativités alternatives avant de légiférer, devrait permettre d’orienter et d’influencer le travail de légistique du législateur français pour améliorer l’effectivité du droit du numérique quant à la protection des personnes calculées par des algorithmes, déployés autant par les administrations que par les sociétés de type legaltech
The porosity between law and artificial intelligence is now sixty years old. This porosity, which was originally intended to enable computer scientists to improve the cognitive performances of their algorithms, thanks to the legal syllogism, quickly aroused, in return, the interest of jurists in computer science. They understood that they could take advantage of the opportunities offered by the automation of the law, thanks to new technologies. Thus, at the dawn of the 2020s, machine learning, one of the most recent disciplinary subfields of artificial intelligence, allows as much to improve the methods of application of the laws and sanctions than to calculate the citizens (predictive policing, predictive justice, but also access to legal information and justice, online). This deployment of machine learning, which operates as much in the common law countries as in the countries of civil law tradition, takes place mainly in a context of a legality, to the detriment of the rights of the scored citizens. North American lawyers have resolved this lack of legislative framework by using the technique of judge-made law. This technique, which has the advantage of its adaptability, at the same time to each situation of legislative gap, but also to the tendencies of the society and the times, will be mobilized again, in the future, when the next disciplinary subfields of artificial intelligence, including deep learning, will be deployed. The flexibility of the North American common lawyer system can serve as a model for the French system, to set up a legal framework regulating, today, machine learning and, tomorrow, the next disciplinary subfields of artificial intelligence. However, the casuistic dimension of the North American model should be adapted to the French system, proposing the use of alternative normativities and ethics as instruments equivalent to the flexibility of the judge-made law. This approach would make it possible to observe the legal issues that arise with each technological advance and to consider legal responses, in a context inclined to legislate once the whole set of technical and legal issues, such as these pose, has been seized. This method, which requires observing new technological phenomena through the prism of alternative normativities before legislating, should make it possible to guide and influence the legislative work of the French legislator to improve the effectiveness of the digital law in terms of protecting people scored by algorithms, deployed as much by administrations as by legaltech type companies
APA, Harvard, Vancouver, ISO, and other styles
34

Hamburger, Jean. "Intelligence artificielle et geologie : interpretation geo-historique et diagnostic de ceonception." Paris 6, 1990. http://www.theses.fr/1990PA066533.

Full text
Abstract:
De nombreux travaux en intelligence artificielle ont deja aborde le probleme de l'interpretation geologique. Mais, la plupart concernent seulement l'interpretation lithologique. Le probleme d'interpretation que nous nous proposons de resoudre est l'interpretation geo-historique dont l'objectif est la reconstitution de l'histoire du sous-sol. L'interpretation geo-historique a un role primordial puisqu'elle constitue l'essence meme de la geologie. Pour mener a bien cette interpretation, nous proposons deux methodes qui sont complementaires, mais qui peuvent etre utilisees independamment: la reconnaissance d'objets geologiques et le diagnostic de conception. Pour reconnaitre les objets geologiques, nous substituons a la reconnaissance de formes ce que nous appelons la reconnaissance genetique ou les modeles d'objets sont definis non pas par leurs caracteristiques geometriques, mais par leurs caracteristiques historiques, autrement dit par leur genese. Cela permet d'associer a chaque objet reconnu un ou plusieurs scenarios possibles. Mais la validite de cette interpretation geo-historique n'est fondee que sur la confiance que l'on a dans les regles d'expertise qui sont les regles d'association entre objets geologiques et scenarios. Le diagnostic de conception dont l'objet est la construction d'un scenario valide est fonde sur les regles du jugement par contumace. Un scenario incomplet produit une coupe geologique differente de celle que l'on peut observer. Les regles du jugement par contumace incriminent les evenements geologiques dont l'absence est susceptible de causer les differences entre la coupe geologique observee et la coupe synthetique resultant d'un scenario. Le diagnostic de conception qui est derive du diagnostic de pannes n'est pas un diagnostic de dysfonctionnement d'un composant, mais de presence d'un evenement. Pour mener a bien la construction d'un scenario, le diagnostic de conception peut etre utilise seul, mais beneficie avantageusement des ebauches de scenario fournies par la reconnaissance d'objets geologiques. Les principes sur lesquels est fonde le diagnostic de conception sont generaux. Celui est donc applicable a tous domaines ayant trait a la comprehension de processus temporels
APA, Harvard, Vancouver, ISO, and other styles
35

Vanhatalo, Tara. "Simulation en temps réel d'effets audio non-linéaires par intelligence artificielle." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0077.

Full text
Abstract:
Certains produits du domaine de la technologie musicale présentent des caractéristiques sonores uniques et recherchées par les musiciens. Ces caractéristiques sont souvent dues aux non-linéarités de leurs circuits électroniques. Nous cherchons à préserver le son de ces appareils par le biais de simulations numériques et à les rendre largement accessibles à de nombreux musiciens. Ce domaine d’étude a connu une forte augmentation de l’utilisation des réseaux de neurones pour la simulation au cours des dernières années. Dans ce travail, nous proposons d’utiliser les réseaux neuronaux pour cette tâche. En particulier, nous nous concentrons sur les méthodes de boîte noire capables de fonctionner en temps réel pour la modélisation des effets non linéaires, tout en gardant les contraintes du guitariste à l’esprit. Nous couvrons l’état actuel des connaissances et identifions les domaines qui méritent d’être améliorés ou étudiés, avec pour objectif final le développement d’un produit. La première étape, qui consiste à identifier les architectures capables de traiter en temps réel et en continu, est suivie par l’augmentation et l’amélioration de ces architectures et de leur pipeline d’apprentissage grâce à un certain nombre de méthodes. Ces méthodes comprennent l’intégration continue avec des tests unitaires, l’optimisation automatique des hyperparamètres et l’utilisation de l’apprentissage par transfert. Un prototype en temps réel utilisant un backend C++ personnalisé est créé à l’aide de ces méthodes. Une étude sur l’anticrénelage en temps réel pour les modèles boîte noire est présentée, car il a été constaté que ces réseaux présentent de grandes quantités de distorsion d’anticrénelage. Le travail sur l’incorporation du contrôle de l’utilisateur a également commencé pour une simulation complète des systèmes analogiques. Cela permet à l’utilisateur final de disposer d’une gamme complète de possibilités de modification de la tonalité. Les performances des approches présentées sont évaluées de manière objective et subjective. Enfin, un certain nombre d’orientations possibles pour les travaux futurs sont également présentées
Certain products in the realm of music technology have uniquely desirable sonic characteristics that are often sought after by musicians. These characteristics are often due to the nonlinearities of their electronic circuits. We are concerned with preserving the sound of this gear through digital simulations and making them widely available to numerous musicians. This field of study has seen a large rise in the use of neural networks for the simulation in recent years. This work applies neural networks for the task. Particularly, we focus on real-time capable black-box methods for nonlinear effects modelling, with the guitarist in mind. We cover the current state-of-the-art and identify areas warranting improvement or study with a final goal of product development. A first step of identifying architectures capable of real-time processing in a streaming manner is followed by augmenting and improving these architectures and their training pipeline through a number of methods. These methods include continuous integration with unit testing, automatic hyperparameter optimisation, and the use of transfer learning. A real-time prototype utilising a custom C++ backend is created using these methods. A study in real-time anti-aliasing for black-box models is presented as it was found that these networks exhibit high amounts of aliasing distortion. Work on user control incorporation is also started for a comprehensive simulation of the analogue systems. This enables a full range of tone-shaping possibilities for the end user. The performance of the approaches presented is assessed both through objective and subjective evaluation. Finally, a number of possible directions for future work are also presented
APA, Harvard, Vancouver, ISO, and other styles
36

Chutaux, Corina. "Art, littérature et Intelligence Artificielle. Sur le chemin de la dématérialisation." Electronic Thesis or Diss., Sorbonne université, 2025. http://www.theses.fr/2025SORUL021.

Full text
Abstract:
Avec l'émergence des intelligences artificielles génératives de nombreuses craintes ont secoué les terrains de l'art et de la littérature divisant potentiellement le monde en deux catégories diamétralement opposées : les technophobes et les technophiles. Cette thèse vise à réconcilier l'art, la littérature et l'intelligence artificielle en proposant un état de l'art sur ces questions et en esquissant des pistes pour l'interprétation de l'esthétique et de la poétique algorithmiques. Il s'agit notamment de mettre en lumière les différentes sémantiques de la créativité. Face à des réalités nouvelles, les termes doivent être réadaptés, recyclés, voire réinterprétés. L'artiste et l'écrivain sont amenés à revoir leurs acquis et à se réinventer, comme l'histoire de l'art l'a prouvé à maintes reprises, mais de manière moins équivoque lors du paragone avec la photographie. Qu'est-ce qu'être artiste ou écrivain à l'aube de la dématérialisation ? Quel apport peut avoir l'intelligence artificielle dans les secteurs de l'art et de la littérature ? Comment relier ces trois domaines, en apparence disjoints, et faire de ce décloisonnement une force dans l'écosystème créatif ? Quelles sont les limites des intelligences artificielles hic et nunc mais aussi quelles sont les limités des artistes humains face à une crise de la représentation ressentie par les critiques d'art depuis plus d'un siècle ?
With the emergence of generative artificial intelligences, numerous concerns have shaken the fields of art and literature, potentially dividing the world into two diametrically opposed categories: technophobes and technophiles. This thesis aims to reconcile art, literature, and artificial intelligence by providing a state-of-the-art overview on these questions and by outlining avenues for interpreting algorithmic aesthetics and poetics. It specifically seeks to shed light on the different semantics of creativity. In the face of new realities, terms must be readjusted, recycled, or even reinterpreted. The artist and the writer are called to reconsider their achievements and reinvent themselves, as art history has demonstrated repeatedly, albeit in a less ambiguous manner during the paragone with photography. What does it mean to be an artist or a writer at the dawn of dematerialization? What contribution can artificial intelligence make to the fields of art and literature? How can these three seemingly disjointed domains be connected, and how can this breaking down of barriers become a strength within the creative ecosystem? What are the current limits of artificial intelligences hic et nunc but also the limits of human artists in the face of a crisis of representation, felt by art critics for over a century ?representation observed by art critics for over a century
APA, Harvard, Vancouver, ISO, and other styles
37

Voyiatzis, Konstantinos. "Utilisation de l'intelligence artificielle pour les problèmes d'ordonnancement." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090102.

Full text
Abstract:
Le présent travail s'attache à l'ordonnancement des pièces dans un système de fabrication du type "jobshop". Ce problème est un problème combinatoire dont la solution est incompatible avec la contrainte "temps réel". Nous montrons comment une approche "intelligence artificielle" peut conduire à un ordonnancement acceptable en temps réel. Le premier chapitre présente la structure de la mémoire artificielle que nous utilisons. Le second chapitre fournit un exemple d'utilisation de cette approche. L'annexe i rappelle les bases de la gestion de production. L'annexe ii donne les bases de la classification automatique utilisées dans certaines parties de ce travail. Enfin l'annexe iii contient le logiciel de simulation écrit en slam
The present work concerns the scheduling of the products in a production system from "jobshop" type. This problem is a combinatorial problem and has an incompatible solution with the "real time" contraint. We demonstrate in which way this approach "artificial intelligence" can conduct to an acceptable scheduling in real time. The first chapter presents the structure of the artificial memory we use. The second one tells us an example of utilization on this approach. The appendix i remains the basis of production managment. The appendix ii gives us the basis of the automatic classification used in severals parts of this work. And the appendix iii, contains the software of simulation written in slam
APA, Harvard, Vancouver, ISO, and other styles
38

Clampitt, Megan. "Indexation de l'état de santé des coraux par une approche basée sur l'intelligence artificielle." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ6019.

Full text
Abstract:
Les récifs coralliens se détériorent à une vitesse surprenante et le développement de schémas de surveillance rapides et efficaces pouvant évaluer la santé des coraux et ne se concentrant pas uniquement sur l'absence ou la présence de maladies ou de blanchissement est essentiel. La recherche de ma thèse vise à combiner les domaines de la biologie corallienne, de l'informatique et de la conservation marine. La question principale de ma thèse étant : comment les outils d'intelligence artificielle peuvent-ils être utilisés pour évaluer l'état de santé des coraux à partir de photographies de colonies ? Étant donné que l'évaluation de l'état de santé des colonies coralliennes individuelles reste mal définie, notre approche consiste à utiliser des outils d'IA pour évaluer les indices visuels tels que les conditions physiques dommageables (organismes perforateurs et prédateurs), le contact avec d'autres organismes (algues, sédiments) et les changements de couleur qui pourraient être corrélés avec l'état de santé. Ceci a été réalisé en utilisant les données photographiques de l'expédition Tara Pacific pour construire la première version de machines d'IA capable de reconnaître automatiquement ces repères visuels, puis en appliquant cet outil à deux types d'études de terrain i). Une étude mise en place à Moorea, en Polynésie française, visant à étudier la santé des coraux au cours du temps. ii). Une étude comparative entre les sites endommagés, vierges et restaurés à Raja Ampat, en Indonésie. L'objectif de ces études est d'extraire les repères visuels qui distinguent les coraux en bonne santé des coraux présentant un risque de mortalité plus élevé. Ainsi, j'ai pu créer un modèle d'IA capable d'annoter automatiquement les photographies de colonies de coraux avec des repères visuels pertinents pour évaluer l'état de santé de la colonie
Coral reefs are deteriorating at a startling rate and the development of fast and efficient monitoring schemas that attempt to evaluate coral health without only focusing on the absence or presence of disease or bleaching is essential. My Ph.D. research aims to combine the fields of Coral Biology, Computer Science, and Marine Conservation with the main question of my thesis being: how can artificial intelligence tools be used to assess coral health states from colony photographs? Since the assessment of individual coral colony health state remains poorly defined, our approach is to use AI tools to assess visual cues such as physically damaging conditions (boring organisms & predation), contact with other organisms (algae, sediment), and color changes that could correlate with health states. This was achieved by utilizing photographic data from the Tara Pacific Expedition to build the first version of AI machines capable of automatically recognizing these visual cues and then applying this tool to two types of field studies i). A longitudinal study set up in Moorea, French Polynesia aimed to investigate coral health as assessed by mortality/partial mortality events. ii). A comparative study between damaged, pristine, and restoration sites in Raja Ampat, Indonesia. The objective of these studies is to extract the visual cues that distinguish healthy from unhealthy corals. Thus, I was able to create an AI Model capable of automatically annotating coral colony photographs for visual cues relevant to the current health state of the colony
APA, Harvard, Vancouver, ISO, and other styles
39

Levin, François. "L'intelligence artificielle au défi de ses critiques philosophiques." Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAX112.

Full text
Abstract:
Le développement de l'intelligence artificielle a fait naître, dans le champ philosophique, un certain nombre de discours critiques. Ceux-ci sont gouvernés par deux grands paradigmes. Le premier paradigme, héritier de la pensée de Michel Foucault, comprend les systèmes d’intelligence artificielle à partir des notions de surveillance, de contrôle et de sécurité et conçoit leur fonction et leur développement comme relevant primairement des logiques propres aux dispositifs de pouvoir. Le deuxième paradigme s’articule centralement autour de la critique de l’automatisation, des formes de dépossession organisées par le développement de l’IA et plus généralement de la place occupée par le calcul dans les différents domaines de la vie sociale. Ces critiques, qui réactivent les perspectives théoriques développées par Martin Heidegger, relèvent plus généralement d’une remise en cause du rapport calculatoire au monde issu de la modernité. Vis-à-vis de ces paradigmes, l'enjeu de ce travail est tout d'abord de clarification, puisqu'il s'agit de restituer leurs arguments, de dévoiler leurs fondements philosophiques, et de montrer en quoi ils permettent de saisir la nature et les effets propres des systèmes contemporains d'intelligence artificielle et notamment d'apprentissage machine. Mais il s’agit également de montrer leurs limites, en premier lieu sur le plan épistémologique. La nouveauté des systèmes d'IA se situe en effet dans leur capacité à produire des effets d'élargissement et de décentrement épistémique. Loin de réduire la réalité au même comme le suppose la critique, les technologies computationnelles peuvent nous faire accéder à une forme d'altérité et nous permettre d’adopter des perspectives non anthropocentrées sur le monde, notamment celle propre à la planétarité, dans ses dimensions bio-physiques non humaines. Nous nous appuyons en particulier, pour défendre cette idée, sur une relecture des œuvres de Leibniz et de Bacon visant à faire valoir des significations du calcul alternatives à celle envisagée par la tradition heideggerienne. Le dernier moment de la thèse tire les conséquences politiques de ces limites épistémologiques. Il souligne notamment l'impossibilité des deux paradigmes critiques à envisager de nouveaux agencements émancipateurs avec les systèmes intelligents, au profit de logiques purement subversives ou relevant d’une forme de fascination pour l’incalculable ; à cet égard, ils risquent de mener à une forme de repli mélancolique ou esthétique de la pensée politique. Il semble alors nécessaire de défaire l'emprise foucaldo-heideggerienne sur la philosophie de la technologie contemporaine pour envisager, en s'appuyant centralement sur la pensée de Deleuze et Guattari dans les deux tomes de Capitalisme et schizophrénie, de nouvelles formes possibles pour les systèmes d'IA. Celles-ci pourraient prendre pour horizon l'idée d'une écologie des intelligences fondée sur le concept de multiplicité, qui viserait à défaire les logiques identitaires et anthropocentriques qui gouvernent nos rapports aux systèmes d’intelligence artificielle, échappant ainsi aux phénomènes de confrontation, de spécularité ou d’assimilation qui les caractérisent le plus souvent. En ce sens, elles auraient pour objectif de développer des agencements féconds avec les systèmes artificiels, à partir des catégories d’altérité et d’étrangeté et d’ouvrir la voie pour une forme renouvelée de politique de la technologie
The development of artificial intelligence has given rise to a number of critical discourses in the field of philosophy. These are dominated by two major paradigms: the Foucauldian paradigm, oriented towards the notions of "surveillance" and "security", and the Heideggerian paradigm, based on the concept of "calculation". The aim of this paper is first to clarify and restate the arguments of these two paradigms with respect to contemporary AI systems. The next step is to consider their epistemic limitations by showing that the novelty of AI systems lies in their ability to produce epistemic enlargement and decentering effects. Far from reducing reality to the same, computational technologies can give us access to a form of otherness, especially that which characterizes globalism in its non-human dimensions. The final part of the thesis draws the political consequences of these epistemological limits. Given the impossibility of the two critical paradigms to imagine new emancipatory arrangements with intelligent systems, it seems necessary to undo the Foucauldian-Heideggerian hold on the philosophy of contemporary technology in order to imagine, drawing on the thought of Deleuze and Guattari, new possible forms for AI systems. These could be based on the idea of an ecology of intelligences, which aims to undo the identity-based and anthropocentric logic that governs our relationship with AI systems, and to make the categories of otherness and strangeness the central concepts of a renewed politics of technology
APA, Harvard, Vancouver, ISO, and other styles
40

Buche, Cédric Tisseau Jacques. "Un système tutoriel intelligent et adaptatif pour l'apprentissage de compétences en environnement virtuel de formation." [s.l.] : [s.n.], 2005. http://tel.ccsd.cnrs.fr/docs/00/05/23/77/PDF/rapportThese_CedricBuche.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Kyriazopoulos, Constantinos Greussay Patrick. "Une méthodologie cellulaire et multi-agents de conception architecturale évolutionniste An evolutionary supported multi agent system methodology for computer aided cellular architectural design] /." Saint-Denis : Université de Paris 8, 2009. http://www.bu.univ-paris8.fr/consult.php?url_these=theses/KyriazopoulosThese.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Rommel, Yves. "Apport de l'intelligence artificielle à l'aide à la décision multicritère." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090004.

Full text
Abstract:
Cette thèse a pour objet de montrer quel peut être l'apport de l'intelligence artificielle (IA) à l'aide à la décision multicritère. Les techniques d'IA utilisées concernent globalement les modes de représentation des connaissances de type déclaratif, les techniques déductives de résolution des problèmes ainsi que les techniques "inductives" d'apprentissage symbolique des connaissances. Les recherches ont été menées selon deux directions opposées quant à la démarche de modélisation suivie: - la première direction a consisté à définir quel pouvait être l'apport de l'IA dans le cadre de l'analyse multicritère "classique" : à savoir, en se plaçant en aval d'un tableau de performances et selon les approches opérationnelles pour l'agrégation des préférences couramment admises (approche du critère de synthèse, approche du surclassement et approche interactive), comment substituer les algorithmes traditionnels par des techniques relevant de l’IA. Trois méthodes sont ainsi proposées selon les trois approches opérationnelles et permettent, en considérant parallèlement les difficultés rencontrées, de généraliser les résultats de l'apport de telle technique d’IA pour telle approche opérationnelle. - la seconde direction a consisté à considérer l'analyse multicritère dans le cadre de l'architecture et de la modélisation des systèmes- experts. Le pourquoi de cette recherche tient en ce que les systèmes- experts traitent par essence de problèmes de type multicritère. Ont ainsi été redécouvertes les démarches d'agrégation et de désagrégation des préférences, et ont été montrées les perspectives en matière de méthodes interactives
The aim of this thesis is to show the contribution of artificial intelligence technics (AI) to multicriteria decision making. The AI technics which have been used concern knowledge representation technics in a declarative manner, deductive technics of problem resolution and also "inductive" technics of machine learning. Research has been developped into two opposite directions relatively to the modelisation approach as follows: -the first direction consists of defining how much AI contributes to the traditional multicriteria analysis frame i. E. We consider here the multicriteria problems using a scores table and according to the three operational approaches to the aggregation of preferences (synthesis criterion, outranking and interactive procedure); - the second direction consists of considering multicriteria methodology within the expert-system architecture and modelisation framework. This rests on the fact that expert-systems naturally deal with multicriteria problems
APA, Harvard, Vancouver, ISO, and other styles
43

Laumônier, Julien. "Méthodes d'apprentissage de la coordination multiagent : application au transport intelligent." Doctoral thesis, Université Laval, 2008. http://hdl.handle.net/20.500.11794/20000.

Full text
Abstract:
Les problèmes de prise de décisions séquentielles multiagents sont difficiles à résoudre surtout lorsque les agents n'observent pas parfaitement l'état de Y environnement. Les approches existantes pour résoudre ces problèmes utilisent souvent des approximations de la fonction de valeur ou se basent sur la structure pour simplifier la résolution. Dans cette thèse, nous proposons d'approximer un problème de décisions séquentielles multiagent à observation limitée, modélisé par un processus décisionnel markovien décentralisé (DEC-MDP) en utilisant deux hypothèses sur la structure du problème. La première hypothèse porte sur la structure de comportement optimal et suppose qu'il est possible d'approximer la politique optimale d'un agent en connaissant seulement les actions optimales au niveau d'un petit nombre de situations auxquelles l'agent peut faire face dans son environnement. La seconde hypothèse porte, quant à elle, sur la structure organisationnelle des agents et suppose que plus les agents sont éloignés les uns des autres, moins ils ont besoin de se coordonner. Ces deux hypothèses nous amènent à proposer deux approches d'approximation. La première approche, nommée Supervised Policy Reinforcement Learning, combine l'apprentissage par renforcement et l'apprentissage supervisé pour généraliser la politique optimale d'un agent. La second approche se base, quant à elle, sur la structure organisationnelle des agents pour apprendre une politique multiagent dans des problèmes où l'observation est limitée. Pour cela, nous présentons un modèle, le D O F - D E C - M DP (Distance-Observable Factored Decentralized Markov Décision Process) qui définit une distance d'observation pour les agents. A partir de ce modèle, nous proposons des bornes sur le gain de récompense que permet l'augmentation de la distance d'observation. Les résultats empiriques obtenus sur des problèmes classiques d'apprentissage par renforcement monoagents et multiagents montrent que nos approches d'approximation sont capables d'apprendre des politiques proches de l'optimale. Enfin, nous avons testé nos approches sur un problème de coordination de véhicules en proposant une méthode de synchronisation d'agents via la communication dans un cadre à observation limitée.
APA, Harvard, Vancouver, ISO, and other styles
44

Spanoudakis, Nikolaos. "The agent systems engineering methodology (ASEME)." Paris 5, 2009. http://www.theses.fr/2009PA05S015.

Full text
Abstract:
Cette thèse présente d'une part, le langage de modélisation d'agents (AMOLA) pour la modélisation de systèmes multi-agents et, d'autre part, la méthodologie pour l'ingénierie des systèmes d'agents (ASEME) pour le développement de systèmes multi-agents. AMOLA défend une approche de conception modulaire de l'agent et introduit les notions de contrôle intra-et inter-agent. Le premier définit le comportement de l'agent via la coordination des différents modules qu implémentent ses capacités, tandis que le deuxième définit les protocoles qui régissent la coordination de la société des agents. AMOLA traite à la fois l'aspect individuel et social des agents en montrant comment les protocoles et les capacités peuvent être intégrés dans la conception d'agents. Une première originalité de cette thèse, est le fait que le modèle du contrôle inter-agents est défini en utilisant le même formalisme que pour le modèle de contrôle intra-agent permettant ainsi l'intégration des protocoles inter-agents dans les capacités de l'agent. ASEME applique un modèle d'ingénierie dirigée par les modèles pour le développement de systèmes multi-agents. La deuxième originalité de cette thèse est alors le fait que des modèles différents sont créés pour chaque phase de développement et que la transition d'uni phase à l'autre est assistée par un dispositif de transformation automatique de modèles et qui conduisent de la phase des besoins à celle de la programmation. Le modèle indépendant de la plate-forme (PIM) d'ASEME, qui est la sortie de la phase de conception est un diagramme états-transitions qui peut être instancié dans un certain nombre de plates-formes
This thesis presents on one hand the Agent Modeling Language (AMOLA) for modeling multi-agent systems and on the other hand the Agent Systems Engineering Methodology (ASEME) for developing multi-agent systems. AMOLA supports a modular agent design approach and introduces the concepts of intra-and inter-agent control. The first defines the agent's behavior by coordinating the different modules that implement his capabilities, while the latter defines the protocols that govern the coordination of the society of the agents. AMOLA deals with both the individual and societal aspect of the agents showing how protocols and capabilities can be integrated hi agents design. This is the first originality of this thesis, the fact that the inter-agent control model is defined using the same formalism with the intra-agent control model thus allowing the integration of inter-agent protocols in the agent's model as capabilities. ASEME applies a model driven engineering approach to multi-agent systems development, thus the models of a previous development phase are transformed to models of the next phase. This is the second originality of this thesis, the fact that different models are created for each development phase and the transition of one phase to another is assisted by automatic model transformations leading from requirements to computer programs. The ASEME Platform Independent Model (PIM) that is the output of the design phase is a statechart that can be instantiated hi a number of platforms
APA, Harvard, Vancouver, ISO, and other styles
45

Juncker, Thibaud. "Droit de l'intelligence artificielle : essai d'une approche juridique du cognitivisme électronique." Electronic Thesis or Diss., Strasbourg, 2024. https://publication-theses.unistra.fr/restreint/theses_doctorat/2024/JUNCKER_Thibaud_2024_ED101.pdf.

Full text
Abstract:
Le cognitivisme électronique peut être entendu comme le courant de pensée selon lequel la programmation serait d’ores et déjà à même de faire émerger certains processus cognitifs comme l’intelligence. La présente thèse a pour objet d’interroger le cognitivisme électronique qui abonde dans les écrits scientifiques comme dans les écrits doctrinaux. Devant un tel enthousiasme, elle s’attache à démontrer que le droit applicable se saisit déjà sans difficulté de la programmation et de l’ensemble de ses avatars (machines, robots, etc.). Elle démontre ensuite que l’hypothèse de capacités cognitives électroniques devrait et peut être démontrée scientifiquement, au cas par cas. En effet, elle devrait être démontrée scientifiquement car l’existence de processus cognitifs électroniques emporterait d’importants changements de paradigmes en droit. Elle peut être démontrée, ensuite, puisque la biologie s’est déjà saisie, voilà bien longtemps, des phénomènes cognitifs. La thèse appelle donc, de manière générale, à une interdisciplinarité en matière de droit de l’intelligence artificielle, et y recourt abondamment. Ainsi, seule la réunion de disciplines telles que l’éthologie, les sciences cognitives et les sciences informatiques permet aux juristes d’échapper aux fantômes de sa propre imagination
Electronical cognitivism can be understood as the current of thought according to which programming is already capable of generating cognitive processes such as intelligence. The aim of this thesis is to question the electronical cognitivism that is so prevalent in both scientific and doctrinal writings. Confronted with such enthusiasm, it sets out to demonstrate that applicable law already deals with programming and all its avatars (machines, robots, etc.) without difficulty. It then demonstrates that the hypothesis of electronic cognitive capacities should and can be demonstrated scientifically, on a case-by-case basis. Indeed, it should be scientifically demonstrated, as the existence of electronic cognitive processes would entail major paradigm shifts in law. Secondly, it can be demonstrated, since biology has long been dealing with cognitive phenomena. In general terms, the thesis calls for interdisciplinarity in the field of artificial intelligence law, and makes extensive use of it. Only by bringing together disciplines such as ethology, cognitive science and computer science can jurists escape the ghosts of their own imagination
APA, Harvard, Vancouver, ISO, and other styles
46

Guichard, Frédéric. "La réorganisation dynamique dans les systèmes multi-agents." Chambéry, 1998. http://www.theses.fr/1996CHAMS031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Julen, Nathalie. "Eléments pour une université virtuelle en médecine : le projet CARDIOLAB." Rennes 1, 2002. http://www.theses.fr/2002REN1B063.

Full text
Abstract:
Afin de pallier aux limites de l'enseignement traditionnel en médecine,et construire des savoirs et savoir-faire mobilisables,de nombreuses universités ont déjà opté pour une nouvelle approche pédagogique,l'approche par problème, basée sur les concepts de la psychologie cognitive. Cette approche cognitiviste,dont font partie les nouvelles méthodes pédagogisques APP,ARC et ARP,est centrée sur l'étudiant et requiert de ce dernier une participation active. En effet, l'étudiant bénéficie de sessions d'apprentissage contextualisé où il est tenu de résoudre des problèmes dans un contexte proche de celui correspondant à la pratique clinique. Notre objectif est de préciser le rôle que pourra jouer la plate-forme CARDIOLAB dans la formation médicale en ligne, et dans le contexte de l'approche cognitiviste de l'apprentissage. Cette plate-forme,développée par la société BioComputing (IBC) en collaboration avec l'Université de Rennes 1 et le CHU de Rennes,intègre un prototype de système d'aide à la décision et de formation médicale baptisé Medical Advisor, ainsi que des modèles informatiques (simulateurs) en physiologie intégrative cardio-vasculaire. Une fois achevée, la plate-forme poura participer à l'enseignement de stratégies cognitives et donner un rôle actif et motivant à l'apprenant,dans un monde virtuel. Elle lui permettra de comprendre en profondeur les processus physiopathologiques sous-jacents aux pathologies,de se mettre virtuellement en situation réelle,et de ce fait,favorisera son apprentissage dans les sessions d'APP,d'ARC ou d'ARP. S'agissant des modèles informatiques,la Physiologie Intégrative Computationnelle constituera le cadre pour la création des "patients virtuels" du futur. Ces patients virtuels,couplés à un expert/professeur virtuel (Medical Advisor) et intégrés au sein d'universités médicales virtuelles,pourront jouer un rôle central dans la formation et l'expertise de futurs médecins.
APA, Harvard, Vancouver, ISO, and other styles
48

Boucher, Jean-David. "Construction d'ontologie multimodale située." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0129.

Full text
Abstract:
Cette thèse consiste à réaliser un programme qui permet à un robot, via une interaction fluide avec un utilisateur, d'apprendre de nouvelles connaissances qui peuvent être réutilisées. L'approche adoptée intègre le paradigme de l'énaction (autonomie, création de sens, émergence, incarnation, expérience subjective), un savoir intersubjectif (ou connaissance mutuelle), et le formalisme des modèles statistiques d'induction. Par une programmation par démonstration (PbD) et un enseignement kinesthésique, l'utilisateur manie le robot et peut lui apprendre des comportements (mouvements de pattes, de tête etc. ) synchrones ou parallèles, cycliques ou acycliques. Ainsi, avec un minimum d'a priori, le système fait émerger des symboles à partir de la segmentation et la détection de régularités dans des flux de données sensori-motrices continues. Symboles ou comportements que l'utilisateur labellise et peut réutiliser
This thesis consists in realizing a program which allows a robot, via a fluid interaction with a user, to acquire new knowledge which can be reused. The adopted approach integrated the enaculation paradigm (autonomy, sense making, emergence, embodiment, subjective experience), intersubjective knowledge (or mutual knowledge), and the formalism of statistical models of induction. By programming by demonstration (PbD) and a kinaesthetic teaching, the user handles the robot and can teach it behavior (movements of legs, head etc. ) which can be synchronous or parallel, cyclic or acyclic. So, with a minimum of a priori structure, the system allows the emergence of symbols from the segmentation and the detection of regularities in streams of continuous sensori-motor data. Symbols or behaviors which the user labels and can be reused in future interactions
APA, Harvard, Vancouver, ISO, and other styles
49

Benhamou, Philippe. "Contribution au développement du générateur de systèmes experts Alouette : une application en gestion des ressources humaines, MIRIAM." Paris 9, 1988. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1988PA090028.

Full text
Abstract:
Alouette est un générateur de système expert. Il exploite une base de connaissance s'appuyant sur un formalisme qui associe l'usage des réseaux sémantiques à celui des règles de production en logique d'ordre un. Après avoir décrit le langage de représentation de la connaissance et les principaux outils associés, nous présentons les structures de données et les principaux algorithmes mis en oeuvre lors de l'unification. La deuxième partie de ce mémoire est consacrée aux applications les plus importantes qui ont été réalisées avec Alouette. Parmi elles, Miriam est un système expert en gestion des ressources humaines (GRH). Miriam saisit des faits statistiques relatifs à des procédures, dresse un tableau de bord social de l'entreprise considérée, établit un diagnostic, simule des plans de gestion et enfin propose des plans d'actions à mettre en oeuvre pour atteindre une situation souhaitée. Dans la troisième partie de ce mémoire, le premier chapitre situe Miriam dans le contexte actuel de la GRH et définit les objectifs du système. Le deuxième traite de la connaissance experte, de sa modélisation et de son exploitation
Alouette is an expert system building tool. It's working in forward chaining with a knowledge representation based on production rules in first order logic and semantical networks. First, we describe the knowledge representation language and the associed tools. Then, we show the data structures and the main algorithms used for unification. The second part of this report concerns the main expert systems built with Alouette. Amoung them, Miriam, expert system in human ressources management, graps the statitical facts relative to an enterprise and offers diverse services : a diagnostic gives a profile of the management style, a simulation program based on chaining procedures, the outline of a middle term plan
APA, Harvard, Vancouver, ISO, and other styles
50

Rougegrez-Loriette, Sophie. "Prediction de processus a partir de comportements observes : le systeme rebecas." Paris 6, 1994. http://www.theses.fr/1994PA066690.

Full text
Abstract:
Le systeme rebecas predit le comportement de processus complexes grace a un raisonnement a partir de cas (case-based reasoning). Ce comportement depend des interactions de nombreux parametres. Ceux-ci se repartissent en deux categories: les parametres source qui influencent le processus et les parametres cible temoignant de l'influence des parametres source. Dans notre systeme, cette influence est immediate, elle peut etre durable. Rebecas produit des hypotheses sur la valeur future des parametres cible en fonction de l'historique des parametres source. Les phenomenes mis en jeu dans ce type de processus sont continus. Un cas representant le comportement d'un processus termine a donc une representation continue, contrairement aux representations de style frame, tres majoritaires en raisonnement a partir de cas. Un cas dans rebecas est en effet compose d'historiques representant les valeurs successives de parametres. Nous proposons pour l'appariement des cas un algorithme d'appariement approximatif de chaines de caracteres, prenant en compte l'aspect temporel de leur representation. Cet algorithme consiste a rechercher un cas dans lequel est inclus l'historique du cas a predire. Compte-tenu de la complexite de cet appariement, tous les parametres ne peuvent etre consideres simultanement. C'est pourquoi l'appariement propose est realise selon differents points de vue. Ceci a pour consequence la restriction de la description du comportement du processus a un des parametres source. Une partie d'un cas est selectionnee, selon un point de vue donne. Plusieurs cas peuvent ainsi etre choisis. Rebecas selectionne le meilleur en considerant l'ensemble des points de vue, et la synchronisation des differentes parties selectionnees dans ce cas. Rebecas est actuellement utilise pour la prediction du comportement d'incendies de forets. Nous montrons que cette approche peut etre appliquee a d'autres domaines
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography