To see the other types of publications on this topic, follow the link: Systèmes flous – Informatique.

Dissertations / Theses on the topic 'Systèmes flous – Informatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Systèmes flous – Informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hartani, Riad. "Modélisation de systèmes flous : contributions théoriques et applications." Paris 6, 1995. http://www.theses.fr/1995PA066832.

Full text
Abstract:
Cette thèse constitue une investigation de la modélisation de systèmes flous et de l'intégration des techniques floues et neuronales. Elle propose aussi des solutions originales utilisant ces approches pour la résolution de deux problèmes : la régulation de trafic de lignes de métro automatisées et la modélisation d'expressions faciales. Une première partie théorique comporte deux volets. Le premier vise à analyser certains fondements mathématiques relatifs aux systèmes flous. Ainsi, on se situe dans le contexte de l'approximation universelle de fonctions afin d'analyser les capacités des systèmes flous. L'intérêt applicatif des propriétés analysées est mis en évidence. Le second volet propose des solutions à des problèmes liés à la modélisation et l'identification des systèmes flous. Une démarche générale pour leur modélisation y est présentée. Dans ce cadre, différentes contributions sont apportées aussi bien pour l'identification de la structure externe du système flou, que pour l'identification de la structure interne, utilisant les propriétés d'apprentissage des techniques neuronales. Une seconde partie applicative analyse deux problématiques. Le premier aspect rentre dans le cadre de la conception de systèmes d'aide à la décision et concerne le problème de la régulation de lignes de métro automatisées. Un modèle générique et évolutif pour la régulation utilisant les techniques neurofloues est élaboré. Le modèle obtenu est testé et validé sur différentes lignes de métro. Le second aspect se situe dans le contexte de la modélisation de processus de perception humaine et propose l'utilisation de systèmes flous pour la représentation d'expressions faciales humaines et le raisonnement sur la transition entre expressions faciales. Nous présentons les différentes étapes de la modélisation floue proposée et discutons ces performances.
APA, Harvard, Vancouver, ISO, and other styles
2

Kinkielele, Dieudonné. "Vérification de la cohérence des bases de connaissances floues." Chambéry, 1994. http://www.theses.fr/1994CHAMS029.

Full text
Abstract:
La plupart des méthodes et outils, développés pour vérifier la cohérence des bases de connaissances, se sont situées dans des formalismes proches de la logique classique car, cela permettait de disposer d'un cadre formel rigoureux et relativement bien défini. Or, si celle-ci se prête bien à la modélisation des connaissances dans des domaines assez bien formalisés, elle ne permet pas de représenter des connaissances de sens commun. Il est ainsi impossible en logique classique de représenter (et de raisonner avec) des informations imparfaites. C'est ainsi que de nouveaux formalismes de représentation de connaissances sont apparus permettant ainsi de manipuler des informations de sens courant. Nous nous intéressons dans cette thèse au problème de la vérification de la cohérence des bases de connaissances imprécises ou incertaines. Le cadre choisi est le raisonnement approximatif basé sur la théorie des possibilités et celle des sous-ensembles flous. Dans ce cadre, nous définissons un modèle conceptuel de cohérence, c'est-à-dire, un ensemble de propriétés que doivent vérifier les bases de connaissances cohérentes. Notre système permet de vérifier la cohérence statique d'une base de connaissances, c'est-à-dire la cohérence des différentes entités structurelles de la base. Pour la vérification dynamique de la base de connaissances, nous tirons parti des travaux qui ont été menés dans le cadre de la résolution des équations des relations floues et mettons au point un schéma abductif flou. Ce schéma permet de générer les bases de faits initiales qui, confrontées aux contraintes de cohérence définies au moment de l'élaboration de la base de connaissances, permettent de constater l'incohérence de la base de connaissances. A contrario, l'absence d'une telle base de faits permet d'établir la cohérence dynamique de la base de connaissances.
APA, Harvard, Vancouver, ISO, and other styles
3

Szafnicki, Konrad. "Système à base de connaissances pour l'identification des procédés." Grenoble INPG, 1991. http://www.theses.fr/1991INPG0105.

Full text
Abstract:
Le présent travail concerne le développement d'un système à base de connaissances pour l'identification des procédés industriels, appelés OBJET-SEXI, ainsi que de son interface graphique dédiée (GRAFOS), permettant d'exploiter aisément les résultats des «raisonnements» du système expert. Ce système est à situer dans la famille assez récente―et déjà large―des outils de conception assistée par ordinateur des systèmes de commande (CAOSC) en automatique. OBJET-SEXI a été conçu au LAG. Il admet une base de connaissances mixte, comprenant une partie structurée sous forme d'objets, et une autre implémentée par des modules de règles. Les objets structurés représentent la partie statique (ou théorique) de la connaissance. Des bases de règles locales, relativement petites (10 à 15 règles en moyenne) sont attachées aux objets pour permettre l'affectation des facettes de certains attributs des objets. Les bases de règles permettent d'implémenter des connaissances dynamiques (ou empiriques) sur l'identification des procédés. D'autre part, des fonctions d'appartenance floues sont utilisées pour décrire qualitativement les grandeurs quantitatives incertaines et/ou imprécises, issues des calculs numériques liés à l'estimation des coefficients, comme par exemple la proximité des pôles et zéros, l'allure des corrélations, etc. OBJET-SEXI agit en superviseur, alternant le lancement du module algorithmique de calcul (estimations des coefficients, calculées par un progiciel appelé CASTOR) et le raisonnement sur les grandeurs floues. Des multiples facilités d'édition des résultats, dont l'interface graphique GRAFOS, permettent à l'utilisateur d'avoir rapidement et aisément accès à des informations intéressantes. Toute la partie système superviseur (dont l'interface graphique) a été implémentée en Sun Common-Lisp 3. 0. 0. L'ensemble du progiciel (i. E. OBJET-SEXI et CASTOR) a été testé avec succès sur les stations de travail suivantes: Sun 3/60, Sparc 1, Sparc 1+
APA, Harvard, Vancouver, ISO, and other styles
4

Touati, Youcef. "Contribution à la commande des systèmes complexes selon une approche orientée agents neuros-flous." Paris 12, 2002. http://www.theses.fr/2002PA120027.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur la commande adaptative de systèmes robotiques complexes et traite, en particulier, le problème du contrôle en effort. Les difficultés liées à la modélisation de ce type de systèmes et le nombre de paramètres qui peuvent être mis en oeuvre limitent le champ d'application des approches conventionnelles, et justifient la nécessité de nouvelles approches de commande telles que les réseaux de neurones (RN) et les systèmes d'inférence flous (SIF). Bien que l'approche par RN donne souvent lieu à de bons! résultats de simulation ou d'expérimentation, elle présente certaines limites, liées, en particulier, à la nécessité de disposer d'un ensemble de couples d'entrée/sortie de référence ou à l'ininterprétabilité des paramètres à l'issue de l'apprentissage. Les SIF, contrairement aux RN, permettent directement d'exploiter la connaissance disponible, et de l'interpréter sous forme de règles linguistiques. Dans ce cadre, deux contributions sont présentées. La première, consiste à proposer une méthodologie de conception de SIF pour l'identification et la commande. La deuxième s'articule autour de la génération et de l'optimisation de contrôleurs flous en utilisant une méthode de classification basée sur la notion d'indice d'inclusion ayant pour but la réduction du nombre de règles et le maintien de l'interprétabilité. La notion d'indice d'inclusion permet de construire des bases de connaissance de taille raisonnable, avec des règles lisibles et interprétables, sans perte de précision. La démarche proposée est. Validée en simulation sur un robot à deux mobilités exécutant une tâche de suivi de contour. Selon une commande adaptative en effort externe. L'efficacité de la méthode, est bien mise en évidence, au niveau des temps et de l'erreur de convergence<br>The work presented in this thesis deals with adaptive control of complex robotics systems and treats, particularly, the problem of force control. The complex modeling of such systems along with the large number of control parameters, limit the application field of a conventional approaches and lead us to prospect new control approaches such as Neural Networks (NN) and Fuzzy Inference Systems (FIS). Although, NN often gives good simulation or experimentation results, however, this approach requires an input/output reference set and suffers from the absence of interpretability of system dynamics behavior. At the opposite to NN, the FIS approach permits, on one hand, to exploit the available knowledge without requiring an analytical model, which is difficult to obtain, and on the other hand, to translate the dynamics behavior into an expert valuation rules expressed in a simple language. In this framework, two contributions are presented. The first one consists in proposing a FIS conception methodology for identification and control. The second one consists in the generation and optimization of fuzzy controllers using clustering method based on an inclusion concept. This concept permits to build a knowledge base exhibiting a reasonable size and legible and interpretable rules, without loss of accuracy. The proposed approach has been validated in simulation on 2-DOF planar robot executing a following contour task according to an adaptive external force control. The efficiency of the proposed approach has been proved from time and error convergence point of view
APA, Harvard, Vancouver, ISO, and other styles
5

Rondeau, Laurent. "Identification des systèmes par modèles flous linguistiques : prise en compte des aspects numériques et symboliques." Nancy 1, 1997. http://www.theses.fr/1997NAN10278.

Full text
Abstract:
L'élaboration de modèles à partir d'informations numériques et symboliques relatives au comportement du système constitue la problématique de ce mémoire. Dans le premier chapitre, nous confrontons l'approche suivie dans le domaine de l'identification, qui s'appuie principalement sur la prise en compte d'informations numériques, à l'approche système expert qui se fonde sur des informations symboliques. Nous proposons alors une stratégie de prise en compte de l'ensemble de ces informations reposant sur l'utilisation d'un modèle flou linguistique. L'estimation des paramètres de ce type de modèles à partir d'informations numériques conduit à deux approches possibles, classique ou floue. La seconde, que nous choisissons, possède l'avantage de faire apparaître des critères très précis quant au choix du modèle et de la méthode d'estimation paramétrique. Le deuxième chapitre est consacré à l'analyse des différentes modèles flous linguistiques et méthodes d'estimation paramétrique par rapport aux critères définis au chapitre 1. On constate que le seul modèle vérifiant ces critères est le modèle à règles graduelles mono-entrée mono-sortie. Parallèlement, on vérifie qu'aucune méthode d'estimation paramétrique ne répond aux conditions spécifiées. Au cours du troisième chapitre, le modèle à règles graduelles est étendu au cas multi-entrées mono-sortie. Une réécriture sous forme symbolique de ce modèle est proposée afin de définir une stratégie d'estimation paramétrique adaptée à notre contexte et fondée sur la résolution d'équations de relation floue. Une méthodologie d'identification permettant la prise en compte des informations numériques et symboliques est ensuite proposée. Elle est appliquée à la modélisation d'un système statique non linéaire, cette application mettant en évidence les caractéristiques essentielles de la méthode<br>Building models from numeric and symbolic information relating to system behavior is the subject of this thesis. In the first chapter, the approach used in the domain of identification which is mainly based upon numeric information is compared with the expert system approach which is based on symbolic information. Then, we propose a strategy which takes into account both types of information by using a linguistic fuzzy model. Parametric estimation of these kinds of models from numeric information leads to two possible methods, classical or fuzzy. The second, which is chosen for our development, has the advantage of highlighting two particular criteria for the choice of the model and the parametric estimation method. The second chapter presents the analysis of linguistic fuzzy models and parametric estimation methods, with respect to the criteria defined in chapter 1. We demonstrate that only one model verifies all criteria, the single-input single-output gradual rules model. We also emphasize that no parametric estimation method satisfies the specified conditions. In the third chapter, the gradual rules model is extended to the multi-inputs single-output case. A symbolic form of this model is then proposed in order to define a parametric estimation strategy which fulfills our criteria and is based on the resolution of fuzzy relational equations. A methodology of identification which takes into account numeric and symbolic information is proposed. This is applied to the modelling of a static non-linear system which showcases the main characteristics of the method
APA, Harvard, Vancouver, ISO, and other styles
6

Gonzales-Gomez, Marielle. "Représentation de connaissances approximatives et classification approchée d'instances dans un langage de schémas : le système CAIN." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX30001.

Full text
Abstract:
Notre travail s'interesse a la representation et au traitement des connaissances approximatives - les connaissances floues, incertaines et par defaut - dans une approche objet. Il repose sur une approche pluridisciplinaire, qui recouvre les themes suivants: langage de schemas, classification dans ces langages, elements de la theorie des ensembles flous et de la theorie des possibilites, elements de psychologie cognitive, concernant le domaine de la categorisation. Notre objectif consiste, d'une part, a proposer une approche souple et rigoureuse pour representer les connaissances en rendant possible l'introduction de connaissance approximatives dans une base de connaissances objets, et d'autre part, a definir une methode de classification d'instances qui s'inspire de travaux en psychologie cognitive. Nous proposons un modele objet pour representer les notions d'imprecision, d'incertitude et de typicalite, dans le langage support, objlog+, qui est un langage de schemas extensible. Nous decrivons de nouveaux schemas, et en particulier, de nouveaux aspects pour introduire ces notions dans une base de connaissances. Les mecanismes d'heritage ont ete etendus afin de prendre en compte la semantique particuliere des connaissances approximatives. La methode de classification approchee d'instances s'appuie, entre autre, sur l'introduction dans le modele objet, de connaissances de domaine qui orientent et ameliorent la classification. Des mecanismes d'appariement approche sont egalement definis (appariement flou, appariement semantique). Tous ces elements sont exploites par la methode de classification, qui repose sur le calcul de trois mesures: une mesure de comptabilite, une mesure d'incompatibilite et une mesure de typicalite entre l'instance a classer et un schema generique existant dans la hierarchie. Des inferences d'informations sont egalement realisees lorsque l'instance a classer a ete effectivement rattachee a un ou plusieurs schemas generiques solutions
APA, Harvard, Vancouver, ISO, and other styles
7

Ragot, Nicolas. "MÉLIDIS : Reconnaissance de formes par modélisation mixte intrinsèque/discriminante à base de systèmes d'inférence floue hiérarchisés." Phd thesis, Rennes 1, 2003. http://www.theses.fr/2003REN10078.

Full text
Abstract:
Pour faciliter la mise au point de systèmes de reconnaissance de formes, nous proposons une méthodologie de classification visant à réunir un ensemble de propriétés rarement satisfaites dans une même approche : performances, généricité, fiabilité, robustesse, compacité et interprétabilité. Ce dernier point permet au concepteur d'adapter, de maintenir et d'optimiser le système plus facilement. L&rsquo;approche proposée, centrée sur la notion de connaissances dans un classifieur, est entièrement guidée par les données. L&rsquo;originalité réside notamment dans l&rsquo;exploitation conjointe de connaissances intrinsèques et discriminantes extraites automatiquement et organisées sur deux niveaux pour bénéficier au mieux de leur complémentarité : le premier modélise les classes par des prototypes flous et le second effectue une discrimination des formes similaires par des arbres de décision flous. L&rsquo;ensemble est formalisé par des systèmes d'inférence floue qui sont combinés pour la classification.
APA, Harvard, Vancouver, ISO, and other styles
8

Fiol, Jean-Charles. "Logique floue dans un système expert de diagnostic d'entreprise." Paris 1, 1997. http://www.theses.fr/1997PA010041.

Full text
Abstract:
Delf2 est un système expert conçu pour établir le diagnostic à moyen terme d'une entreprise. Une étude préalable a montré qu'il était nécessaire de sortir de l'obligation de conclure toute proposition par vrai ou faux. L'aspect original de ce travail a impliqué une approche particulière du raisonnement artificiel dans le domaine de la gestion d'entreprise, qui se traduit par l'utilisation de la théorie des sous-ensembles flous et de la théorie des possibilités pour la représentation des connaissances et la conduite du raisonnement graduel. Les règles, qui contiennent les connaissances déductives, sont écrites afin de pouvoir utiliser des appréciations linguistiques, et traiter des informations imprécises et incertaines. Les métarègles, contiennent les connaissances procédurales, et assurent le pilotage du système ,en contrôlant la comparaison des valeurs floues ; l'utilisation optimale de toutes les règles regroupées en modules spécifiques ,est réalisée par itération<br>Defl2 is an expert system designed for the medium term analysis of a company. A preliminary study has demonstrated that it is necessary to put aside the obligation to settle all propositions on the basis of true or false. The original aspect of this work consists in a particular approach of artificial reasoning in the area of company management. This involves the use of the theory of fuzzy sub-groups and the theory of the possibilities concerning the representation of knowledge and the application of gradual reasoning. The rules, which include deductive knowledge, are written to make use of linguistic analysis, and process imprecise and uncertain information. The meta-rules include procedural knowledge and ensure the piloting of the system, by controlling the comparison of fuzzy data; the optimal use of all the rules regrouped into specific modules is achieved by means of repetition
APA, Harvard, Vancouver, ISO, and other styles
9

Verley, Gilles. "Contribution à la validation des réseaux connexionnistes en reconnaissance des formes." Tours, 1994. http://www.theses.fr/1994TOUR4024.

Full text
Abstract:
L'objet de cette thèse est de déterminer les justifications qui peuvent ou pourraient rendre les réseaux de neurones artificiels essentiels pour résoudre les problèmes complexes que l'on rencontre en reconnaissance des formes avec apprentissage supervisé. Pour ce faire, nous nous sommes placés successivement selon quatre points de vue : analogique ou neuromimétique, statistique, informatique et pragmatique. Par rapport aux trois premiers points de vue qui constituent un ensemble de justifications a priori, aucun des principaux modèles connexionnistes n'est apparu complètement satisfaisant. En ce qui a concerne le point de vue pragmatique, nous avons été amené à développer une méthode et des outils permettant d'effectuer des mesures de performances sur des problèmes construits dont on contrôle la complexité. En particulier, nous avons développé un générateur probabiliste pouvant produire des échantillons théoriquement quelconques et dont, en pratique, on peut régler la complexité en termes de non-linéarité des frontières optimales de décision et d'empiètement des différentes classes de décision. On a pu alors étudier expérimentalement l'épineux problème théorique de la généralisation dans les systèmes de reconnaissance de formes connexionnistes tel que le MLP ceci autrement que sur des cas particuliers. Les expériences réalisées ont mis en évidence certaines relations entre la complexité intrinsèque du problème de reconnaissance des formes d'où est issu l'échantillon, la taille de cet échantillon, la capacité intrinsèque d'adaptation du système connexionniste étudié et la stratégie d'apprentissage. L'ensemble des résultats expérimentaux obtenus comblent partiellement le manque de résultats en théorie statistique de l'apprentissage tout en restant cohérents avec ceux qui sont connus. Ils montrent la nécessité d'une théorie de l'apprentissage moins mathématique et statistique et plus cognitive.
APA, Harvard, Vancouver, ISO, and other styles
10

Zehana, Mustapha. "Connaissances structurelles et interprétation d'images satellitaires." Toulouse 3, 1995. http://www.theses.fr/1995TOU30035.

Full text
Abstract:
Notre recherche se situe dans le cadre d'un systeme expert specialise dans l'interpretation des images satellite et la resolution de problemes de teledetection. Notre travail se situe essentiellement dans la partie du systeme expert permettant l'evaluation et le calcul automatique du contexte topographique au niveau de chaque point. Dans une premiere partie, nous avons developpe une nouvelle methode permettant l'evaluation de la distance reelle entre chaque pixel de l'image et un objet quelconque defini par sa position geographique. L'avantage de la nouvelle mesure de distance reside dans le fait que les effets topographiques modelises par un modele numerique de terrain sont pris en compte. Nous avons ensuite defini une nouvelle methode d'extraction automatique du reseau hydrographique multi-niveau a partir d'un modele numerique de terrain. La seconde partie de notre etude a ete consacree au developpement de nouvelles techniques pour l'evaluation des premisses de regles modelisant des connaissances structurelles. Nous avons defini en premiere etape une methode de segmentation floue, permettant la description de chaque image de coefficients d'appartenance par un ensemble de regions floues. Chaque region floue ainsi extraite sera transformee en un ensemble aleatoire constitue par un ensemble fini de regions ordinaires representant les differentes possibilites de representation de la region floue de depart (region inconnue). Nous avons ensuite developpe un nouvel algorithme permettant a partir d'une connaissance structurelle de transformer un ensemble aleatoire en un autre, en s'assurant que la region floue representee par l'ensemble aleatoire final verifie plus ce contexte topologique. L'application de ces nouvelles techniques a la classification des images satellite par notre systeme expert et qui fusionne donnees numeriques et symboliques est un pas important vers la classification automatique des images satellite
APA, Harvard, Vancouver, ISO, and other styles
11

Guerra, Thierry-Marie. "Analyse de données objectivo-subjectives : Approche par la théorie des sous-ensembles flous." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/a3f55508-7363-49a4-a531-9d723ff55359.

Full text
Abstract:
L'objet de cette thèse est, dans le cadre de systèmes à composante humaine, d'établir un lien entre les sous-ensembles flous et l'analyse des données multidimensionnelles. Les sous-ensembles flous ont pris une part de plus en plus importante pour traiter le problème de l'imprécis et de l'incertain. Il semble alors important, dans le cadre de données subjectives, d'inclure des outils propres aux mathématiques floues permettant le traitement de telles données. En conséquence, une première méthode fondée sur la théorie des sous-ensembles aléatoires flous a été mise au point permettant de traiter des questionnaires laissant une liberté importante au répondeur. Dans le domaine complexe des systèmes à composante humaine, les données recueillies sont très souvent de deux types : données subjectives et objectives. Il est alors nécessaire de vérifier l'adéquation entre ces deux types de données recueillies et, dans ce contexte, d'établir s'il existe des relations stables entre ces deux groupes de données. Le formalisme flou utilise pour mettre au point la méthode de traitement de données subjectives a permis le développement d'une méthode multidimensionnelle répondant a ce problème. Cette méthode s'appuie sur les outils classiques des mathématiques floues, l'inférence déductive et le modus ponens généralisé. Ces deux méthodes ont été appliquées à une étude ergonomique d'un poste de travail bureautique et ont permis de mettre en évidence l'efficacité de cette nouvelle approche. Enfin, les perspectives liées aux méthodologies développées sont discutées ainsi que le problème général de l'extraction des connaissances.
APA, Harvard, Vancouver, ISO, and other styles
12

Jaulent, Marie-Christine. "Un système souple pour identifier des objets géométriques plans décrits par un opérateur humain." Toulouse, INPT, 1986. http://www.theses.fr/1986INPT019H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Jones, Hazaël. "Raisonnement à base de règles implicatives floues." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/113/.

Full text
Abstract:
Cette thèse considère la modélisation de connaissances expertes par des règles implicatives floues. Elle étudie les avantages de ces règles par rapport aux règles les plus utilisées parmi les règles floues : les règles conjonctives. Cependant, l'inférence à partir de règles implicatives et d'entrées floues n'est pas simple et a longtemps été un frein à leur utilisation, les principales difficultés étant la complexité de l'inférence avec plusieurs règles et des entrées floues, la conception de partitions adaptées, et l'interprétation sémantique pour des utilisateurs habitués au raisonnement avec des règles floues conjonctives. Nos travaux portent sur ces points. Nous présentons une méthode d'inférence à partir de règles implicatives floues et d'entrées floues, qui permet d'implémenter facilement le raisonnement implicatif dans les cas mono et bidimensionnels. Nous donnons aussi des éléments de comparaison entre règles conjonctives et implicatives, et nous étudions la sémantique de ces différentes règles, d'un point de vue logique et pratique. Une illustration à un cas réel dans le domaine de l'agroalimentaire est présentée. Il s'agit de prévoir les défauts éventuels du fromage de Comté après affinage à partir des informations avant affinage, les informations disponibles étant composées des connaissances expertes du CTFC (Centre Technique des Fromages Comtois), et des données sur le procédé. Les méthodes développées étant génériques, les outils proposés sont utilisables pour une classe d'applications large : celle où les connaissances expertes s'expriment sous forme d'un modèle. Ils offrent des pistes de modélisation qui respectent à la fois l'imprécision des données et les caractéristiques du raisonnement expert<br>This thesis considers expert knowledge modelling by implicative fuzzy rules. It explores the benefits of these rules compared to the most frequently used fuzzy rules: conjunctive rules. However, inference from implicative rules and fuzzy inputs is not easy and has long been an impediment to their use. The main difficulties are the complexity of the inference with several implicative rules and fuzzy inputs, the partition design, and the semantic interpretation for users familiar with the reasoning with conjunctive fuzzy rules. Our work focuses on these points. We present an inference method using implicative fuzzy rules and fuzzy inputs, which can easily implement the implicative reasoning in the one and two-dimensional case. We also give a comparison between conjunctive rules and implicative rules, and we study the semantics of these rules, in terms of logic and practical use. A real world illustration in the food industry is presented. The goal of this work is the prediction of post maturing cheese defects with information available before the maturing process. Available information comes from CTFC (Technical Center on Comtois Cheese) expert knowledge and process data. Since the developed methods are generic, they can be used for a wide class of applications: those in which the expert knowledge is expressed in the form of a model. They provide modeling perspectives that respect both imprecise data and expert reasoning characteristics
APA, Harvard, Vancouver, ISO, and other styles
14

Gassara, Hamdi. "Analyse, commande et observation des modèles flous de type Takagi-Sugeno à état retardé." Amiens, 2011. http://www.theses.fr/2011AMIE0124.

Full text
Abstract:
Cette thèse concerne l'analyse de la stabilité et la stabilisation des systèmes non linéaires à retard décrit par les modèles flous de type Takagi Sugeno à état retardé (TSR). L'étude que nous avons menée consiste à trouver une solution acceptable entre la réduction du conservatisme et la complexité de calcul. Afin d'atteindre cet objectif, nous avons organisé notre travail comme suit : une première partie a traité la stabilité et la stabilisation des modèles TSR. Au début, nous avons développé des nouvelles conditions suffisantes de stabilité en utilisant la méthode polyquadratique pour le cas incertain des modèles TSR. Ce résultat a été étendu au problème de stabilisation par commande PDC sans critères de robustesse ou notions de performances. Nous avons remarqué à partir ce résultat que l'approche polyquadratique est non appropriée au problème de stabilisation du modèle TSR incertain à perturbations extérieures. Pour cette raison, nous avons utilisé l'approche quadratique avec des nouvelles techniques de relaxation pour l'étude des modèles TSR incertains et/ou perturbés. Une deuxième partie est consacrée à l'élaboration des lois de commande tolérante aux défauts actionneurs en utilisant les approches passives et actives. Pour l'approche passive, nous avons présenté une technique qui nous a permis d'utiliser une FLK dépendante de paramètre de défauts. Pour l'approche active, nous avons utilisé un observateur adaptatif pour l'estimation des défauts et la méthode de pseudo inverse pour l'accommodation de la loi de commande. La synthèse d'une loi de commande PDC basée sur observateur à variables de prémisses mesurables est établie dans une dernière partie de la thèse. Nous avons considéré dans cette partie le cas incertain et nominal du modèle TSR en présence d'un ensemble admissible de défauts actionneurs. Les différents résultats sont présentés sous forme d'Inégalités Matricielles Linéaires (LMI) facilement résolues en utilisant l'outil LMI Toolbox du logiciel Matlab
APA, Harvard, Vancouver, ISO, and other styles
15

Bouayad, Mohammed. "Prétopologie et reconnaissances des formes." Lyon, INSA, 1998. http://theses.insa-lyon.fr/publication/1998ISAL0120/these.pdf.

Full text
Abstract:
La prétopologie a été introduite comme un outil de modélisation pour la Reconnaissance des Formes (RF) et l'analyse d'images (AI) dans les années 80 et depuis, un certain nombre de compléments ont été apportés dans des thèses et des articles. La première partie de la thèse consiste, après une présentation concise et pragmatique de ce modèle, à dresser un bilan de ses apports dans les grands chapitres de la RF et de l'AI, notamment dans la classification automatique, en apprentissage supervisé (et adaptatif), en perception multi-échelle, dans les techniques de rejet. . . La prétopologie présente un double aspect : c'est en même temps un outil de modélisation (traduisant de façon souple les notions de proximité, de ressemblance et/ou de voisinage) et un moyen simple de construction d'algorithmes, par l'intermédiaire de non idempotence de la fonction adhérence. Une double étude comparative est élaborée, d'une part entre la prétopologie et les outils de modélisation arrivés simultanément dans les mêmes domaines (théorie des possibilités, morphologie mathématique, les ensembles rugueux. . ), d'autre part entre les méthodes prétopologiques de RF et les méthodes statistiques, structurelles et syntaxiques ; on montre que ces méthodes ne sont pas de même nature. La seconde partie est consacrée à une contribution plus technique concernant des développements du modèle prétopologique. Nous montrons une insuffisance du modèle en ce qui concerne la notion de continuité ; cette notion est sous-jacente de façon permanente en reconnaissance des formes ; nous proposons une série de traduction possible de la notion de continuité ; ces traductions sont très cohérentes avec la théorie générale car elles sont à la fois modèle et outils pour les algorithmes<br>Pretopology has been introduced as a modelisation tool for the pattern recognition and image processing in the early 80’ and since some related works has been achieved. The first chapter describe the model and show the advantage of that model for the main topics of Pattern Recognition and image processing, in particular in automatic classification, supervised learning (and adaptation methods), in multi-scale perception and rejection techniques. Pretopology show two aspect : it’s a modelisation tool (which traduce the notion of proximity, resemblance and/or neighborhood) and a simple way to build algorithm by using the non idempotence of the adherence mapping. A double comparative study has been performed, first between Petropology and other modelisation theories which appear simultaneously in the same domain (fussy theory, mathematical morphology, rough set) and secondly between the pretopological methods in Pattern Recognition and the common approach used in this domain (statistical, structural or syntactical methods) ; we show that these methods are not from the same type. The second bring a more technical contribution concerning the extension of the pretopological model. We show a lack of description for the continuity concept which is omnipresent in Pattern Recognition ; we propose some possible translation of this continuity concept which are coherent with the general theory because they are at the same time models and tools for algorithms
APA, Harvard, Vancouver, ISO, and other styles
16

Passaquay, Dominique. "Modélisation et commande de processus multivariables à base de logique floue : application à la commande de moteurs thermiques." Toulouse, INSA, 2000. http://www.theses.fr/2000ISAT0022.

Full text
Abstract:
Face à une réglementation de plus en plus stricte vis à vis des émissions de polluants, les constructeurs automobiles développent une nouvelle génération de moteurs essence : les moteurs 4 temps à injection directe. Dans ce mémoire de thèse, une loi de commande globale pour ce type de moteur est proposée. La gestion des deux modes de combustion propre à ce type de moteur est assurée par une structure de commande hiérarchique incluant un niveau de supervision et plusieurs contrôleurs bas niveau. La démarche de conception des lois de commandes bas niveau repose sur l'identification de modèles linéaires par morceaux de sous parties du moteur. Ces modèles sont définis par des règles floues de type Takagi-Sugeno déterminées à partir d'un jeu de données entrée/sortie suivant un algorithme de modélisation floue. Les modèles flous ainsi obtenus sont alors utilisés pour définir des contrôleurs flous non linéaires en utilisant les techniques de commande classique de l'automatique.
APA, Harvard, Vancouver, ISO, and other styles
17

Dong, Min. "Development of an intelligent recommendation system to garment designers for designing new personalized products." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10025/document.

Full text
Abstract:
Durant mes travaux en thèse, nous avons imaginé et poser les briques d'un système de recommandation intelligent (DIRS) orienté vers les créateurs de vêtements afin de les aider à créer des nouveaux produits personnalisés. Pour développer ce système, nous avons dans un premier temps identifié les composants clés du processus de création, puis nous avons créé un ensemble de bases de données pour collecter les données pertinentes. Dans un deuxième temps, nous avons acquis des données anthropométriques, recueilli la perception du concepteur à partir de ces mêmes morphotypes en utilisant un body scanner 3D et une procédure d'évaluation sensorielle. A la suite, une expérience instrumentale est conduite pour capturer les paramètres techniques des matières, nécessaires à leur représentation virtuelle en lien avec les morphotypes. Enfin, cinq expériences sensorielles sont réalisées pour capitaliser les connaissances des créateurs. Les données acquises servent à classer les morphotypes, à modéliser les relations entre morphotypes et facteurs de la création. A partir de ces modèles, nous avons mis en place une base de connaissances de la création mettant en œuvre une ontologie. Cette base de connaissances est mise à jour par un apprentissage dynamique au travers de nouveaux cas présentés en création. Ce système est utilisé au sein d’un nouveau processus de création. Ce processus peut s’effectuer autant de fois que nécessaire jusqu'à la satisfaction du créateur. Le système de recommandation proposé a été validé à l'aide de plusieurs cas réels<br>In my PhD research project, we originally propose a Designer-oriented Intelligent Recommendation System (DIRS) for supporting the design of new personalized garment products. For developing this system, we first identify the key components of a garment design process, and then set up a number of relevant databases, from which each design scheme can be formed. Second, we acquire the anthropometric data and designer’s perception on body shapes by using a 3D body scanning system and a sensory evaluation procedure. Third, an instrumental experiment is conducted for measuring the technical parameters of fabrics, and five sensory experiments are carried out in order to acquire designers’ knowledge. The acquired data are used to classify body shapes and model the relations between human bodies and the design factors. From these models, we set up an ontology-based design knowledge base. This knowledge base can be updated by dynamically learning from new design cases. On this basis, we put forward the knowledge-based recommendation system. This system is used with a newly developed design process. This process can be performed repeatedly until the designer’s satisfaction. The proposed recommendation system has been validated through a number of successful real design cases
APA, Harvard, Vancouver, ISO, and other styles
18

Bisgambiglia, Paul-Antoine. "Approche de modélisation approximative pour des systèmes à événements discrets : Application à l'étude de propagation de feux de forêt." Phd thesis, Université Pascal Paoli, 2008. http://tel.archives-ouvertes.fr/tel-00480555.

Full text
Abstract:
Ce rapport présente les différentes étapes suivies afin de définir une nouvelle approche de modélisation et de simulation à évènements discrets pour les systèmes à paramètres imprécis. Cette étude a débuté avec des travaux sur la formalisation d'un système de production de fromage Corse. Suite à ces recherches, et en particulier, suite à la phase de modélisation du processus, nous avons pu constater l'influence de paramètres imparfaitement définis. Ces paramètres entrent en compte au cours des différentes phases de conception, et sont difficiles à représenter et surtout à manipuler. Dans le but de les prendre en compte de manière générique, nous nous sommes naturellement tournés vers l'utilisation de la Logique Floue. En effet, elle permet de représenter des informations imprécises (théorie des sous ensembles flous), incertaines (théorie des possibilités), et inexacte (raisonnement approximatif). Son avantage principal est de fournir un grand nombre d'outils mathématiques afin de manipuler de telles informations sous forme numérique ou linguistique, c'est-à-dire de manière relativement proche du mode de représentation, et surtout d'expression utilisé par l'homme. A partir des théories du flou, nous pouvons donc user de concepts mathématiques complexes tout en conservant un rapport privilégié (lien) entre représentation numérique et mode de description humain. Nous avons choisi d'intégrer ces différents outils dans un multi formalisme de modélisation et de simulation afin de pouvoir spécifier de manière générique n'importe quel type de système à paramètres imprécis. Le formalisme employé est nommé DEVS (Discrete EVents system Specification). Ses principaux avantages sont : sa capacité à être étendu à de nouveaux domaines d'étude, dans notre cas les systèmes flous ; la séparation des phases de modélisation et de simulation, de ce fait, lors de la conception d'un modèle DEVS les algorithmes de simulation sont automatiquement générés en fonction du modèle ; enfin, il permet de représenter un système sous sa forme fonctionnelle et structurelle. Notre but est d'associer le formalisme DEVS et une partie des théories du flou afin de définir une nouvelle approche de modélisation approximative.
APA, Harvard, Vancouver, ISO, and other styles
19

Zhang, Junjie. "Development of a consumer-oriented intelligent garment recommendation system." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10026/document.

Full text
Abstract:
Maintenant, l’achat de vêtements sur l’Internet est devenu une tendance importante pour les consommateurs du monde entier. Pourtant, dans les différents systèmes de vente en ligne, il manque systématiquement de recommandations personnalisées, comme celles fournies par les vendeurs d’une boutique physique, afin de proposer les produits les mieux adaptés à des différents consommateurs selon leurs morphotypes et leurs attentes émotionnelles. Dans cette thèse doctorale, nous proposons un système de recommandation orienté vers les consommateurs, qui peut être utilisé, comme un vendeur virtuel, à l’intérieur d’un système de vente de vêtements en ligne. Ce système a été développé par intégration de connaissance professionnelle des créateurs et des vendeurs et la perception des consommateurs sur les produits. En s’appuyant sur la connaissance de vente de vêtements, ce système propose des produits aux consommateurs spécifiques par exécuter successivement les trois modules de recommandation suivants, comprenant 1) le Module de Base de Données pour les Cas de Succès ; 2) le Module de Prévision du Marché ; 3) le Module de Recommandation utilisant la Connaissance. De plus, un autre module, appelé le Module de Mise à Jour de la Connaissance. Cette thèse présente une méthode originale de prévision d’un ou plusieurs profils de produits bien adaptés à un consommateur spécifique. Elle peut aider effectivement les consommateurs à effectuer des achats de vêtements sur l’Internet. En comparant avec les autres méthodes de prévision, la méthode proposée est plus robuste et plus interprétable en raison de sa capacité de traitement de l’incertitude<br>Garment purchasing through the Internet has become an important trend for consumers of all parts of the world. However, in various garment e-shopping systems, it systematically lacks personalized recommendations, like sales advisors in classical shops, in order to propose the most relevant products to different consumers according to their body shapes and fashion requirements. In this thesis, we propose a consumer-oriented recommendation system, which can be used inside a garment online shopping system like a virtual sales advisor. This system has been developed by integrating the professional knowledge of designers and shoppers and taking into account consumers’ perception on products. Following the shopping knowledge on garments, the proposed system recommends garment products to specific consumers by successively executing three modules, namely 1) the Successful Cases Database Module; 2) the Market Forecasting Module; 3) the Knowledge-based Recommendation Module. Also, another module, called the Knowledge Updating Module.This thesis presents an original method for predicting one or several relevant product profiles from a specific consumer profile. It can effectively help consumers to choose garments from the Internet. Compared with other prediction methods, the proposed method is more robust and interpretable owing to its capacity of treating uncertainty
APA, Harvard, Vancouver, ISO, and other styles
20

Moreau, Aurélien. "How fuzzy set theory can help make database systems more cooperative." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S043/document.

Full text
Abstract:
Dans ces travaux de thèse nous proposons de tirer parti de la théorie des ensembles flous afin d'améliorer les interactions entre les systèmes de bases de données et les utilisateurs. Les mécanismes coopératifs visent à aider les utilisateurs à mieux interagir avec les SGBD. Ces mécanismes doivent faire preuve de robustesse : ils doivent toujours pouvoir proposer des réponses à l'utilisateur. Empty set (0,00 sec) est un exemple typique de réponse qu'il serait désirable d'éradiquer. Le caractère informatif des explications de réponses est parfois plus important que les réponses elles-mêmes : ce peut être le cas avec les réponses vides et pléthoriques par exemple, d'où l'intérêt de mécanismes coopératifs robustes, capables à la fois de contribuer à l'explication ainsi qu'à l'amélioration des résultats. Par ailleurs, l'utilisation de termes de la langue naturelle pour décrire les données permet de garantir l'interprétabilité des explications fournies. Permettre à l'utilisateur d'utiliser des mots de son propre vocabulaire contribue à la personnalisation des explications et améliore l'interprétabilité. Nous proposons de nous intéresser aux explications dans le contexte des réponses coopératives sous trois angles : 1) dans le cas d'un ensemble pléthorique de résultats ; 2) dans le contexte des systèmes de recommandation ; 3) dans le cas d'une recherche à partir d'exemples. Ces axes définissent des approches coopératives où l'intérêt des explications est de permettre à l'utilisateur de comprendre comment sont calculés les résultats proposés dans un effort de transparence. Le caractère informatif des explications apporte une valeur ajoutée aux résultats bruts, et forme une réponse coopérative<br>In this thesis, we are interested in how we can leverage fuzzy logic to improve the interactions between relational database systems and humans. Cooperative answering techniques aim to help users harness the potential of DBMSs. These techniques are expected to be robust and always provide answer to users. Empty set (0,00 sec) is a typical example of answer that one may wish to never obtain. The informative nature of explanations is higher than that of actual answers in several cases, e.g. empty answer sets and plethoric answer sets, hence the interest of robust cooperative answering techniques capable of both explaining and improving an answer set. Using terms from natural language to describe data --- with labels from fuzzy vocabularies --- contributes to the interpretability of explanations. Offering to define and refine vocabulary terms increases the personalization experience and improves the interpretability by using the user's own words. We propose to investigate the use of explanations in a cooperative answering setting using three research axes: 1) in the presence of a plethoric set of answers; 2) in the context of recommendations; 3) in the context of a query/answering problem. These axes define cooperative techniques where the interest of explanations is to enable users to understand how results are computed in an effort of transparency. The informativeness of the explanations brings an added value to the direct results, and that in itself represents a cooperative answer
APA, Harvard, Vancouver, ISO, and other styles
21

Moreau, Alain. "Contribution au traitement des informations subjectives dans les systemes experts." Valenciennes, 1987. https://ged.uphf.fr/nuxeo/site/esupversions/78bf2889-467a-43cb-81db-54626699a4c5.

Full text
Abstract:
Etude des problèmes de représentation et de traitement des connaissances subjectives, en particulier imprécises et incertaines, principalement dans le but d'applications aux systèmes experts. A partir des méthodes de prise en compte de données purement imprécises basées sur la théorie des sous-ensembles flous et des méthodes de représentation de données purement incertaines à l'aide de la théorie des possibilités ou des logiques multivalentes, il est défini des modes d'utilisation de connaissances simultanément imprécises et incertaines dont les avantages et limites sont comparés et discutés.
APA, Harvard, Vancouver, ISO, and other styles
22

Peltier, Marie-Agnès. "Un système adaptatif de diagnostic d'évolution basé sur la reconnaissance des formes floues : application au diagnostic du comportement d'un conducteur automobile." Compiègne, 1993. http://www.theses.fr/1993COMPD634.

Full text
Abstract:
L'objet de la thèse est le développement d'un algorithme de détection d'évolution des caractéristiques d'un système dynamique sur lequel on ne dispose d'aucune connaissance a priori. Le diagnostic d'évolution doit s'adapter à la spécificité du système et à son environnement. Pour cela, on considère l'état initial du système comme un état de référence, à partir duquel tout écart est interprété comme une évolution vers un état inconnu. Chaque état ainsi détecté fait l'objet d'un apprentissage. Pour mettre en œuvre cette idée, nous proposons dans ce mémoire une méthode adaptative de diagnostic d'évolution basée sur la reconnaissance des formes floues. Elle repose sur une modélisation des états du système à l'aide d'ensembles flous. L'approximation des fonctions d'appartenance associées est réalisée à l'aide de réseaux de neurones à fonction d'activation gaussienne. La constitution des ensembles d'apprentissage des états détectés s'effectue selon des critères combinés de proximité dans l'espace et le temps. La notion de "plus proche voisin dans le temps" est introduite. Cette méthode a été appliquée à la surveillance du comportement du conducteur d'un véhicule automobile. L'instrumentation d'un véhicule expérimental et la définition d'un protocole de mesures ont conduit au recueil, sur route réelle, de données pertinentes pour la description de l'activité de conduite. Ces données ont été utilisees pour valider l'algorithme proposé, d'abord pour la détection d'évolution du comportement de conduite, puis dans le cadre plus spécifique de la détection d'hypovigilance. Les résultats obtenus confirment l'intérêt de la méthode proposée.
APA, Harvard, Vancouver, ISO, and other styles
23

Alilaouar, Abdeslame. "Contribution à l'interrogation flexible de données semi-structurées." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/90/.

Full text
Abstract:
Pour manipuler les Données Semi-Structurées (DSS) et en extraire les informations pertinentes en termes de structure et/ou de contenu pour l'utilisateur, de nombreux langages de requêtes ont été proposés. Ces langages de requêtes devraient donc prendre en compte non seulement le contenu mais aussi la structure sous-jacente car cette dernière peut changer complètement leur pertinence et leur adéquation vis à vis des besoins exprimés par l'utilisateur. Cependant, la non connaissance a priori et l'hétérogénéité de structure de DSS rendent les langages d'interrogation de BD classiques incompatibles avec l'interrogation de telles collections semi-structurées. Les techniques standards d'interrogations basées sur l'appariement exact sont donc inadaptées pour interroger des sources de DSS : une requête peut aboutir à un ensemble vide ou incomplet de réponses lors de l'interrogation même s'il existe des réponses pertinentes dans la(les) source(s) à interroger. Un autre problème relève de la prise en compte de l'information "manquante". En effet, puisque la structure de l'instance de document est par essence incomplète, il est possible que l'information ne soit pas explicitement signifiée ou encore qu'elle n'ait pas été correctement élicitée. Ceci implique de ne pas considérer cette absence d'information comme une information négative, mais de traiter ces cas avec l'incertitude qui convient, dans un algorithme général de "ranking". Pour résoudre ces problèmes le recours aux techniques d'appariement flexible (approximatif) et la réponse sous forme des listes ordonnées de réponses selon les préférences de l'utilisateur, représentent un choix presque inévitable. Les travaux menés jusqu'ici dans le cadre de l'interrogation flexible de BD ont révélé que la logique floue constitue un cadre particulièrement bien adapté pour modéliser la notion de flexibilité et de préférences selon le raisonnement humain. Dans ce sens, nous proposons un modèle d'interrogation flexible pour les DSS en général et pour les documents XML en particulier, en prenant en compte le contenu et la structure sous-jacente des DSS. La logique floue sera utilisée pour représenter les préférences de l'utilisateur sur le contenu et la structure des DSS. D'autre part, à la fin du processus d'interrogation, chaque réponse est associée à un degré compris dans l'intervalle ]0,1]. Plus ce degré est faible, moins la réponse semble pertinente. Ce degré est calculé en utilisant le degré d'appartenance (m) et des mesures de similarité connues dans les systèmes de recherche d'informations (SRI) pour le contenu, et l'arbre recouvrant minimal pour la structure. Le modèle proposé a été évalué et validé dans le cadre de plateforme PRETI et d'INEX, grâce au prototype que nous avons développé<br>Many querying languages have been proposed to manipulate Semi-Structured Data (SSD) and to extract relevant information (in terms of structure and/or content) to the user. Such querying languages should take into account not only the content but also the underlying structure since it can completely change their relevance and adequacy with respect to the needs expressed by the user. However, not having prior knowledge and the heterogeneity of SSD structure makes classical database languages inadequate. The work undertaken on database flexible querying revealed that fuzzy logic is particularly well-suited for modelling the notion of flexibility and preferences according to human reasoning. In this sense, we propose a model of flexible query for SSD in general and XML documents, taking into account the content and the underlying structure of SSD. Fuzzy logic is used to represent the user's preferences on the content and structure of SSD. At the end of the evaluation process, every response is associated with a degree in the interval ]0. 1]. The more this degree is low, the answer seems less relevant. This degree is calculated using the degree of ownership and measures known similarity in information retrieval systems for content, and the minimum spanning tree for the structure. The proposed model has been reviewed and validated using PRETI Platform and INEX benchmark, thanks to the prototype that we've developped
APA, Harvard, Vancouver, ISO, and other styles
24

Xu, Wenyi. "Modélisation et exploitation de base de connaissances dans le cadre du web des objets." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066009/document.

Full text
Abstract:
Le concept du web des objets (WOT - web of things) est devenu une réalité avec le développement d’internet, des réseaux, des technologies matérielles et des objets communicants. De nos jours, il existe un nombre croissant d’objets susceptibles d’être utilisés dans des applications spécifiques. Le Monde est ainsi plus étroitement connecté, différents objets pouvant maintenant partager leurs informations et être ainsi utilisés à travers une structure similaire à celle du Web classique. Cependant, même si des objets hétérogènes ont la possibilité de se connecter au Web, ils ne peuvent pas être utilisés dans différentes applications à moins de posséder un modèle de représentation et d’interrogation commun capable de prendre en compte leur hétérogénéité. Dans cette thèse, notre objectif est d’offrir un modèle commun pour décrire les objets hétérogènes et pouvoir ensuite les utiliser pour accéder aux requêtes des utilisateurs. Ceux-ci peuvent avoir différentes demandes, que ce soit pour trouver un objet particulier ou pour réaliser certaines tâches. Nous mettons en évidence deux directions de recherche. La première consiste à trouver une bonne modélisation de ces objets hétérogènes et des concepts liés au WOT. La seconde est d’utiliser un tel modèle pour répondre efficacement aux requêtes des utilisateurs. Dans un premier temps, nous étudions d’abord les technologies, les applications et les domaines existants où le WOT peut être appliqué. Nous comparons les modèles de description existants dans ce domaine et nous mettons en évidence leurs insuffisances lors d’applications relatives au WOT. Nous proposons alors un nouveau modèle sémantique pour la description d’objets dans le cadre du WOT. Ce modèle est construit sur une ontologie qui comporte trois composantes principales: le Core model, le Space model et l’Agent model. Ce modèle peut alors permettre la description à la fois des informations statiques mais aussi des changements dynamiques associés au WOT<br>The concept Web of things (WOT) is gradually becoming a reality as the result of development of network and hardware technologies. Nowadays, there is an increasing number of objects that can be used in predesigned applications. The world is thus more tightly connected, various objects can share their information as well as being triggered through a Web-like structure. However, even if the heterogeneous objects have the ability to be connected to the Web, they cannot be used in different applications unless there is a common model so that their heterogeneity can be described and understood. In this thesis, we want to provide a common model to describe those heterogeneous objects and use them to solve user’s problems. Users can have various requests, either to find a particular object, or to fulfill some tasks. We highlight thus two research directions. The first step is to model those heterogeneous objects and related concepts in WOT, and the next step is to use this model to fulfill user’s requests. Thus, we first study the existing technologies, applications and domains where the WOT can be applied. We compare the existing description models in this domain and find their insufficiency to be applied in the WOT
APA, Harvard, Vancouver, ISO, and other styles
25

Berrah, Lamia. "Une approche d'évaluation de la performance industrielle : modèle d'indicateurs et techniques floues pour un pilotage réactif." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0099.

Full text
Abstract:
Le travail présenté dans cette thèse s'inscrit dans le cadre de l'évaluation de la performance et du pilotage des processus manufacturiers au moyen d'indicateurs. Un modèle pour l'indicateur est proposé, dont le fondement est l'expression d'une performance, à partir de la comparaison de l'objectif assigné et de la réalité mesurée. Le formalisme retenu est celui de la théorie des sous-ensembles flous, qui permet d'élargir le traitement à toute sorte de donnée ou contrainte - quantitative ou qualitative, précise ou imprécise, flexible ou catégorique - typique du contexte industriel. Par ailleurs, l'exploitation de l'indicateur pour le pilotage est vue à travers la mise en place d'un système d'indicateurs, en cohérence avec les objectifs ainsi que les variables d'action du système analysé. Le principe conducteur de la procédure présentée est la nécessité d'un déploiement de la stratégie et des objectifs globaux de l'entreprise sur ses processus, ce qui garantit d'une part une vision globale et décloisonnée, d'autre part une traçabilité de la performance
APA, Harvard, Vancouver, ISO, and other styles
26

Gonzalez-Mendoza, Miguel. "Surveillance temps-réel des systèmes Homme-Machine. Application à l'assistance à la conduite automobile." Phd thesis, INSA de Toulouse, 2004. http://tel.archives-ouvertes.fr/tel-00336732.

Full text
Abstract:
Ce travail se situe dans le cadre de la surveillance de systèmes homme-machine, où l'opérateur humain est un élément de décision dans la boucle. Ce type de systèmes nécessite une surveillance automatisée globale temps-réel, incluant la détection d'incidents techniques et de défaillances humaines. Partant de l'hypothèse que la partie technologique travaille " correctement " et/ou qu'elle est surveillée par un système de diagnostic, nous nous centrons sur la partie opérateur humain, la plus critique à surveiller. Nous présentons un système de diagnostic appliqué à la surveillance du conducteur automobile à partir d'informations fournies par des capteurs embarqués dans le véhicule. Les travaux ont été développés dans le cadre du projet Européen AWAKE et le projet national " facteurs de dégradation de la vigilance et de la sécurité dans les transports " de PREDIT.<br />Nous proposons une stratégie générale de système temps-réel pour la surveillance du niveau de vigilance du conducteur (dynamique lente) et la surveillance du niveau de risque lié à la situation actuelle de conduite (dynamique instantanée), à travers :<br />* L'analyse temporelle et fréquentielle des signaux mécaniques (mesures de performance) par ondelettes et filtres, pour en extraire des caractéristiques dynamiques, statistiques et fréquentielles sur la dégradation de la conduite,<br />* L'apprentissage par SVM, méthode pour laquelle nous avons développé des stratégies d'implémentation adaptées pour un apprentissage en ligne et pour des problèmes de grande taille,<br />* La fusion par FIS, afin de profiter de l'expertise humaine et produire un diagnostic sur le niveau de risque lié à la sortie de la voie de circulation.<br />* La validation d'une telle approche à travers des EEG et EOG (mesures physiologiques) et des autoévaluations (mesures subjectives).<br />Nous appliquons cette méthodologie à diverses expériences des programmes AWAKE et PREDIT réalisées sur des simulateurs ou des démonstrateurs.
APA, Harvard, Vancouver, ISO, and other styles
27

Moretti, Eric. "Conception et mise en oeuvre d'un système informatique de compréhension de code exécutable." Paris 11, 2005. http://www.theses.fr/2005PA112018.

Full text
Abstract:
L'objectif de cette étude est la compréhension de codes exécutables de machines à l'aide d'un système informatique essentiellement automatique. La " compréhension " signifie ici la description des codes exécutables dans un langage plus intelligible pour l'opérateur humain : si le langage cible est un tangage de programmation, on parle alors de décompilation. L'obtention du code source des programmes à partir de leur code exécutable accroît l'expressivité des programmes, ce qui rend plus facile la vérification des propriétés qu'ils sont supposés posséder. Par la décompilation il ne s'agît pas exclusivement de retrouver les informations perdues lors de la compilation, mais il s'agit aussi d'extraire d'autres informations qui ne sont accessibles qu'au niveau machine. Fondamentalement, le principal aboutissement de cette étude est une avancée dans la théorie de la décompilation : Pour l'interprétation de programmes machines nous présentons un langage assembleur générique, potentiellement capable de décrire les programmes de n'importe quel microprocesseur classique. De plus, nous avons généralisé les algorithmes d'analyse de flots de contrôle pour ne plus effectuer la structuration des graphes par des méthodes empiriques, jusque-là basées sur la recherche de formes connues. Nous avons aussi affiné les techniques d'analyse de flots de données, en adaptant des méthodes d'inférence de types afférentes au domaine de la compilation et en les exploitant dans les algorithmes de propagation des données. La théorie que nous avons développé a fait continuellement l'objet d'un déploiement sur un décompilateur prototype dédié à l'analyse de logiciels temps-réel embarqués industriels<br>The purpose of this study is the understanding of machine codes, using a computer system able to work automatically to a large extent. Here, "comprehension" means description of machine codes in another language which is more comprehensible for a human operator : When the choosed target language is a programming language, this transformation is named decompilation. Production of source code from machine code improves the expressiveness of the programs, giving representations that are suited during the verification process of the expected program properties. Decompilation is not only assumed to permit the recovery of information lost during the program compilation process, but it is also intended to extract a kind of information that is exclusively available at the machine level. Fundamentally, the main outcome of this study is a progress in the field of decompilation theory : Concerning the interpretation of machine codes, we present a generic assembly language, potentially suited for the description of machine programs on any target microprocessor or microcontroller. We also present a generalization of the control-flow analysis algorithms, to avoid graph structuring with the usual empirical methods that rely on pattern-matching of specific cases. Furthermore, we have extended the capabilities of the data-flow analysis techniques, by adapting type inference methods derived from the compilation theory and exploiting them within data propagation algorithms. At all significant stage of this study, our theory has been deployed and tested on a decompiler prototype dedicated to the analysis of industrial embedded real-time software
APA, Harvard, Vancouver, ISO, and other styles
28

Schmitt, Emmanuel. "Contribution au Système d’Information d’un Produit « Bois » : appariement automatique de pièces de bois selon des critères de couleur et de texture." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10079/document.

Full text
Abstract:
Nos travaux portent sur l’étude d’un capteur flou adapté à l’identification couleur d’avivés. La méthode proposée a pour objectif notamment de prendre en compte la subjectivité de la perception des couleurs par l’être humain et de délivrer ses résultats dans le vocabulaire de l’utilisateur. Le domaine d’applications (industrie du bois) impose certaines contraintes. En effet, les classes de couleurs ne sont pas disjointes (frontières non strictes) et sont représentées par peu d’échantillons. Il en résulte alors des imprécisions et incertitudes dans la définition des classes de sortie. Après un état de l’art sur les techniques de traitement d’images, de reconnaissance de formes et sur la structure des capteurs intelligents, nos travaux sont exposés suivant deux axes : du capteur aux mesures, et des mesures à la décision. Tout d’abord, nous avons évalué et corrigé les perturbations lié à l’environnement ambiant du capteur (température, vieillissement, …). Ensuite, nous avons déterminé l’espace colorimétrique le plus discriminant,et élaboré le vecteur caractéristique composé d’attributs interprétables permettant d’identifier les couleurs. A partir de ces données, nous avons développé le Fuzzy Reasoning Classifier basé sur un mécanisme de règles linguistiques floues agrégeant des règles conjonctives suivant le modèle de Larsen. Enfin, un opérateur flou de fusion de données est utilisé pour des systèmes multi-capteurs. L’exploitation de ce capteur flou a montré le bon comportement du système face aux contraintes temps-réel industrielles ainsi qu’une amélioration des taux de reconnaissance d’environ 10%<br>Our works concern the study of a fuzzy sensor adapted to the color identification on wooden boards. The proposed method aims particularly to take into account the human subjectivity concerning the color perception and to provide results in the user vocabulary. The application field (timber industry) imposes certain constraints. Indeed, the color classes are not separated (non-strict boundaries) and are represented with few samples. Then, it results from it, imprecisions and uncertainties in the output class definition. After a state of the art on the techniques of image processing, of pattern recognition, and on the structure of intelligent sensors, our works are exposed along two axes: from the sensors to the measurements, and from the measurements to the decision. Firstly, we have evaluated and corrected the perturbations linked to the environment of the sensor (temperature, ageing, …). Then, we have determined the most discriminating colorimetric space, and generated the characteristic vector composed of interpretable attributes allowing to identify the colors. From these data, we have developed the Fuzzy Reasoning Classifier based on a fuzzy linguistic rule mechanism aggregating conjunctive rules according to the Larsen model. Finally, for the multi-sensor systems, a fuzzy operator of data merging is used. The use of this fuzzy sensor has shown the good behaviour of the system compared to the real-time industrial constraints, and an improvement of 10% of the recognition rates
APA, Harvard, Vancouver, ISO, and other styles
29

Almousa, Almaksour Abdullah. "Apprentissage incrémental de systèmes d'inférence floue : Application à la reconnaissance de gestes manuscrits." Rennes, INSA, 2011. http://www.theses.fr/2011ISAR0015.

Full text
Abstract:
Nous présentons une nouvelle méthode pour la conception de moteurs de reconnaissance personnalisables et auto-évolutifs. Nous proposons une approche incrémental pour l’apprentissage des systèmes d’inférence floue de type Takagi-Sugeno. Cette approche comprend d’une part, une adaptation des paramètres linéaires associés aux conclusions des règles par méthode des moindres carrés récursive, et d’autre part, un apprentissage incrémental des prémisses de ces règles afin de modifier les fonctions d’appartenance suivant l’évolution de la densité des données dans l’espace de classification. La méthode proposée résout les problèmes d’instabilité d’apprentissage incrémental de ce type de systèmes grâce à un paradigme global d’apprentissage où les prémisses et les conclusions sont apprises en synergie et non de façon indépendante. La performance de ce système a été démontrée sur des benchmarks connus, en mettant en évidence sa capacité d’apprentissage à la volée de nouvelles classes<br>We present in a new method for the conception of evolving and customizable classification systems. We propose an incremental approach for the learning of classification models based on first-order Takagi-Sugeno (TS) fuzzy inference systems. This approach includes, on the one hand, the adaptation of linear consequences of the fuzzy rules using the recursive least-squares method, and, on the other hand, an incremental learning of the antecedent of these rules in order to modify the membership functions according to the evolution of data density in the input space. The proposed method resolves the instability problems in the incremental learning of TS models thanks to a global learning paradigm in which antecedent and consequents are learned in synergy, contrary to the existing approaches where they are learned separately. The performance of our system had been demonstrated on different well-known benchmarks, with a special focus on its capacity of learning new classes
APA, Harvard, Vancouver, ISO, and other styles
30

Gherari, Zineddine. "Stratégie de commandes neurofloues pour un système continu non linéaire." Paris 12, 1998. http://www.theses.fr/1998PA120062.

Full text
Abstract:
Dans ce memoire les outils developpes dans le cadre de la commande neurofloue ont permis de resoudre, en simulation, les problemes de la classe des systemes non lineaires continus qu'ils soient mono-dimensionels ou multidimensionels. Apres une phase bibliographique sur les reseaux de neurones artificiels ou nous avons analyses en details les algorithmes d'apprentissage par renforcement et leurs applications et apres un bref apercu sur la theorie de la logique floue, nous avons mis au point une architecture de commande neurofloue bnfc basee sur l'algorithme de la retro propagation pour l'apprentissage pouvant etre interpretee et appliquee suivant un triple cas d'utilisation : d'une maniere numerique, linguistique et lineaire. Nous introduisons egalement le concept d'apprentissage par renforcement pour la commande neurofloue des systemes non lineaires continus, domaine qui a ce jour, a notre connaissance, n'a jamais ete aborde avec succes. En proposant une methodologie generale d'apprentissage basee sur la technique des differences temporelles et l'algorithme de la retro propagation, nous avons mis en evidence une architecture de commande neurofloue bac-nfc qui de la meme maniere peut avoir une triple interpretation. L'application en simulation des deux architectures de commande proposees sur une fonction non lineaire, puis sur un prototype de chaudiere a gaz, demontre ainsi avec les resultats obtenus l'interet de la demarche.
APA, Harvard, Vancouver, ISO, and other styles
31

Mokhtari, Amine. "Système personnalisé de planification d'itinéraire unimodal : une approche basée sur la théorie des ensembles flous." Rennes 1, 2011. http://www.theses.fr/2011REN1E004.

Full text
Abstract:
Dans cette thèse, nous présentons un ensemble de contributions destinées à la définition d’une nouvelle génération de systèmes de planification d’itinéraire unimodal, capable de prendre en charge des préférences utilisateur complexes. La théorie des ensembles flous a été utilisée comme socle formel pour nos contributions. La première est une typologie des préférences utilisateur ayant du sens dans le cadre d’un déplacement unimodal. La nature bipolaire des préférences utilisateur dans un tel contexte est aussi discutée et prise en considération. Notre seconde contribution porte sur un langage fondé sur le calcul relationnel de tuples, RPQL, permettant la formulation de requêtes bipolaires de planification d’itinéraire avec préférences. Une approche permettant d’augmenter une requête avec de nouvelles préférences, déduites du contexte de l’utilisateur, constitue notre troisième contribution. Par ailleurs, l’architecture d’un système personnalisé de planification d’itinéraire a été proposée, ainsi qu’une approche efficace pour l’évaluation de requêtes de planification avec préférences. Enfin, des résultats expérimentaux, issus d’une plateforme de test mettant en œuvre notre système, sont présentés et discutés.
APA, Harvard, Vancouver, ISO, and other styles
32

Grabot, Bernard. "Modélisation situationnelle et thérorie des possibilités : application à l'aide à la décision d'exploitation des processus complexes." Bordeaux 1, 1988. http://www.theses.fr/1988BOR10550.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Capella, Laurent. "Conception de systèmes sur composant par partitionnement de graphes de flots conditionnels de données." Nice, 2003. http://www.theses.fr/2003NICE4065.

Full text
Abstract:
L'explosion de la complexité des systèmes embarqués sur un composant rend très difficile la prise de décisions et la recherche de compromis. En effet, les concepteurs de systèmes doivent faire face à un nombre croissant de choix techniques pour implémenter et optimiser ces systèmes dans des temps impartis de plus en plus réduits. On assiste à un accroissement des coûts de conception directement liés à l'écart qui se creuse entre les besoins grandissants en matière d'aide à la conception, et l'évolution trop lente des outils commerciaux. La définition de cycles de conception efficaces implique la mise en oeuvre de méthodes de conception pour simplifier la prise de décisions au niveau système. Ainsi, le choix des différents composants architecturaux et le partitionnement des fonctions du système sur ces composants est un problème majeur. Il y a classiquement deux grandes classes de méthodes pour aborder ce problème suivant que l'on considère des applications orientées contrôle ou des applications orientées flots de données. Ce mémoire de thèse présente une méthode qui opère sur un graphe de flots conditionnels de données. Celui-ci est bien adapté pour représenter les applications de traitement du signal sans toutefois faire entièrement abstraction de la partie contrôle qui gère le séquencement de ces traitements. La méthode proposée opère en deux étapes. Elle effectue tout d'abord l'analyse logique et l'extraction des états de l'application afin d'identifier des états critiques particuliers, nommés états premiers. Puis, en fonction du nombre et de la complexité de ces états, la méthode les partitionne en les analysant, soit de manière incrémentale, soit de manière globale<br>The increasing complexity of system-on-chips makes very difficult to make decisions and to find tradeoffs. Indeed, system designers have to face a growing number of technical implementation choices and have to optimize those systems in an ever-shorter time. Design costs are increasing rapidly and are directly linked to the ever-widening gap, between the growing needs for computer-aided design, and the too slowly evolving performances of commercial tools. The definition of efficient design cycles is becoming a crucial industrial issue. It implies to handle high-level design methods in order to make easier and/or more automated the decision-making at system level. Consequently, the choices of the architectural components and the partitioning of the system functions on those components constitute a major problem as soon as the first design phases start. This PhD thesis presents a method, which operates on a conditional data flow graph. This method is well suited to represent signal processing applications, without entirely neglecting the control part, which manages the scheduling of the application. It carries out the logic analysis and the application states extraction, in order to identify the specific critical states called prime states. Then, regarding the number and the complexity of those states, the method partitions them by analyzing each one, either in an incremental order, or in a global way
APA, Harvard, Vancouver, ISO, and other styles
34

Ughetto, Laurent. "Les systèmes à base de règles floues : vérification de la cohérence et méthodes d'inférence." Toulouse 3, 1998. http://www.theses.fr/1998TOU30080.

Full text
Abstract:
Cette thèse traite de l'utilisation des règles floues de la forme "si X est A, alors Y est B", dans le cadre du raisonnement approché, du point de vue de la validation et des méthodes d'inférence. Il existe deux catégories principales de règles floues. Les règles implicatives, réelle extension des règles classiques, sont préférées en IA pour les applications dédiées au raisonnement approché. Les regles conjonctives, comme celles dites de Mamdani, sont plus utilisées en contrôle flou, pour la représentation approchée de fonctions numériques. En pratique, le choix des règles est souvent empirique. Basée sur une étude de la sémantique des règles floues, proposée par Dubois et Prade dans le cadre de la théorie de possibilités, cette thèse poursuit une étude systématique visant à permettre le choix et l'utilisation rationnelle d'un ou plusieurs types de règles pour une application donnée, en fonction du sens des connaissances à représenter. La première partie présente une classification des règles floues, qui comporte quatre types principaux : les règles à certitude, à possibilité, graduelles et antigraduelles. Elle insiste sur les différences entre les règles implicatives et conjonctives. Ensuite, une étude de la validation des ensembles de règles est proposée. En particulier, les notions de cohérence et de redondance d'une base de règles floues sont introduites et des méthodes pratiques de vérification sont proposées. Cette vérification de la cohérence n'a de sens que pour les règles implicatives, qui prennent là tout leur intérêt. La partie suivante étudie les algorithmes d'inférence, notamment dans le cas complexe des règles implicatives et des entrées floues. L'utilisation conjointe des règles implicatives et conjonctives, intéressante pour la représentation et de validation des connaissances, est étudiée. Le raisonnement interpolatif à base de règles graduelles est aussi abordé. Enfin, un logiciel de validation des bases de règles est présenté.
APA, Harvard, Vancouver, ISO, and other styles
35

Dkhil, Amira. "Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30014/document.

Full text
Abstract:
Les systèmes embarqués sont de plus en plus présents dans l'industrie comme dans la vie quotidienne. Une grande partie de ces systèmes comprend des applications effectuant du traitement intensif des données: elles utilisent de nombreux filtres numériques, où les opérations sur les données sont répétitives et ont un contrôle limité. Les graphes "flots de données", grâce à leur déterminisme fonctionnel inhérent, sont très répandus pour modéliser les systèmes embarqués connus sous le nom de "data-driven". L'ordonnancement statique et périodique des graphes flot de données a été largement étudié, surtout pour deux modèles particuliers: SDF et CSDF. Dans cette thèse, on s'intéresse plus particulièrement à l'ordonnancement périodique des graphes CSDF. Le problème consiste à identifier des séquences périodiques infinies d'actionnement des acteurs qui aboutissent à des exécutions complètes à buffers bornés. L'objectif est de pouvoir aborder ce problème sous des angles différents : maximisation de débit, minimisation de la latence et minimisation de la capacité des buffers. La plupart des travaux existants proposent des solutions pour l'optimisation du débit et négligent le problème d'optimisation de la latence et propose même dans certains cas des ordonnancements qui ont un impact négatif sur elle afin de conserver les propriétés de périodicité. On propose dans cette thèse un ordonnancement hybride, nommé Self-Timed Périodique (STP), qui peut conserver les propriétés d'un ordonnancement périodique et à la fois améliorer considérablement sa performance en terme de latence<br>One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics
APA, Harvard, Vancouver, ISO, and other styles
36

Chuquimia, Orlando. "Smart Vision Chip pour l’exploration du côlon." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS192.pdf.

Full text
Abstract:
Le Cancer Colorectal (Cancer Colorectal (CCR)) est le deuxième le plus fréquent en terme de mortalité avec un taux de 47% (880 792 décès en 2018). 96% des CCR débutent par l’apparition d’une tumeur (un polype adénomateux) dans la paroi du côlon. La Capsule Endoscopique (CE), a été inventée par Paul Swain en 1990. Il s’agit d’une pilule intégrant une caméra et un système de radio communication, que le patient avale. Pendant cette procédure, la capsule transmet les images du tube digestif vers un boîtier externe via une communication par radiofréquence. Une fois toutes les images transmises, un médecin gastro-entérologue les télécharge pour réaliser une analyse visuelle et détecter les anomalies et les tumeurs. À l’aide de ce dispositif les médecins peuvent détecter des polypes, d’au moins 5 mm, avec une sensibilité et une spécificité respectivement de 68,8% et de 81,3%. Cette CE présente quelques limites et faiblesses liées à la résolution spatiale et temporelle des images, à son autonomie énergétique et au grand nombre d’images transmises que le gastro-entérologue doit analyser. Nous avons étudié la conception d’un système embarqué contenant une chaine de traitement capable de détecter des polypes et intégrée dans une capsule, créant un nouveau dispositif médical : une capsule endoscopique intelligente. Pour réaliser ce dispositif, nous avons pris en compte toutes les contraintes non fonctionnelles liées à l’intégration dans une capsule endoscopique. Ce dispositif pourrait ainsi être un nouvel outil de dépistage précoce des lésions pré-cancéreuses colorectales : les polypes<br>CCR is the second highest cause of death by cancer worldwide with 880,792 deaths in 2018 and a mortality rate of 47.6%. 95% of CCR cases begin with the presence of a growth on the inner lining of the colon or the rectum, called a polyp. The endoscopic capsule was invented by Paul Swain in 1990. It is a pill incorpo- rating a camera and a radio communication system that the patient swallows and transmit images from the gastrointestinal tract through the body in a workstation. Once all images are transmitted, a gastroenterologist downloads them to perform a visual analysis and detect abnormalities and tumors. Using this device doctors can detect polyps, at least 5 mm, with sensitivity and specificity respectively of 68.8% and 81.3%. This endoscopic capsule presents some limitations and weaknesses re- lated to the spatial and temporal resolution of images, its energy autonomy and the number of images transmitted to be analyzed by the gastroenterologist. We studied the design of an embedded system containing a processing chain capable of detecting polyps to be integrated into an endoscopic capsule, creating a new medical device: an intelligent endoscopic capsule. To realize this device, we took into account all the non-functional constraints related to the integration into an endoscopic capsule. This device must be a new tool for early detection of precancerous colorectal lesions : polyps
APA, Harvard, Vancouver, ISO, and other styles
37

Ngo, Khanh Hieu. "Aide au développement de systèmes temps réel à l'aide d'un langage graphique flots de données." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Ngo-Khanh/2008-Ngo-Khanh-These.pdf.

Full text
Abstract:
Le développement d’un logiciel embarqué ou d’un système temps réel nécessite plusieurs étapes qui peuvent être échelonnées dans des intervalles de temps différents, et qui sont souvent itératives. De nos jours, il existe de nombreuses méthodes et outils de développement que l’on peut énumérer tels SA-RT, SD, DARTS, CODARTS, JSD, State-Charts, UML-RT, etc. L’objectif de la thèse est de proposer un environnement de conception, développement et validation d’applications temps réel basé sur la méthode DARTS, et sur le cycle de développement logiciel en W (une extension du cycle de développement classique en V). Cela se traduit par la création d’une bibliothèque logicielle pour un langage graphique flots de données, nommée DARTSVIEW, qui comporte des outils graphiques implémentés en langage G. Grâce à la palette DARTSVIEW, un concepteur pourra non seulement représenter une conception DARTS de façon aisée et intuitive, mais également simuler et tester sur place le modèle pour vérifier le respect de l’aspect fonctionnel du système. Les systèmes temps réel sont des systèmes dont le respect des contraintes temporelles est aussi important que l’exactitude du résultat, autrement dit il faut valider leur aspect temporel. Donc concernant cette pour aider dans cette tâche, la palette DARTSVIEW propose aux utilisateurs la possibilité de générer du code spécifique à une norme temps réel ou un langage cible d’un exécutif temps réel afin de pouvoir tester le système sur cible, et de pouvoir vérifier les paramètres temporels. Il s’agit de deuxième V du cycle de développement en W<br>The development of an embedded or a real-time system requires several steps which would be staggered in different time interval, and in such a way that they are frequently iterative. DARTS (Design Approach for Real-Time Systems) is a software design method for real-time systems. LabVIEW (Laboratory Virtual Instrument Engineering Workbench) is a graphical application development environment based on the dataflow representation of the “G” language. The objective of this thesis focuses on the DARTS method, and on the software life-cycle in W (an extension of the classical software life-cycle in V). DARTSVIEW Toolkit is a helpful tool for the DARTS development of control-command applications which allows the designer to represent a DARTS diagrams directly in LabVIEW in order to test the functional aspect of the system in the first V of the life-cycle in W, and to generate a part of the code for different specific programming languages or real-time scheduling analysis tools for the validation of the timing requirements in the second V of the software life-cycle in W
APA, Harvard, Vancouver, ISO, and other styles
38

Benouhiba, Toufik. "Approche génétique et floue pour les systèmes d'agents adaptatifs : application à la reconnaissance des scenarii." Troyes, 2005. http://www.theses.fr/2005TROY0014.

Full text
Abstract:
L’objectif de la thèse est l’utilisation minimale de connaissances a priori pour engendrer des règles incertaines manipulant des données imprécises. Cet objectif a été testé via une structure multi-agents et appliqué à la reconnaissance de scénarii. Les travaux réalisés sont répartis sur trois axes : - Le premier concerne le raisonnement incertain en utilisant des données imprécises. La théorie de l’évidence et la logique bi-floue ont été utilisées pour modéliser ce raisonnement. – Le deuxième axe correspond aux systèmes classifieurs et à la programmation génétique utilisés dans le but d’engendrer les règles de reconnaissance. L’approche développée utilise la puissance offerte par la programmation génétique et la combine aux systèmes classifieurs. Un nouveau mécanisme d’apprentissage par renforcement a été proposé assurant l’utilisation de la théorie de l’évidence comme outil de raisonnement. – Le troisième axe concerne la coopération dans les systèmes multi-agents adaptatifs. Le rendement des systèmes classifieurs a été amélioré en introduisant une coopération explicite entre des agents classifieurs. Nous proposons également un nouvel opérateur de fusion de données basé sur la théorie de l’évidence et adapté aux types de données manipulées. L’approche développée a été appliquée à la reconnaissance des manœuvres automobiles. Dans ce sens, nous proposons une architecture multi-agents pour la reconnaissance et un découpage des manœuvres en plusieurs couches assurant leur reconnaissance avec un certain niveau de granularité<br>The objective of this thesis is to use minimal a priori knowledge in order to generate uncertain rules which manipulate imprecise data. The proposed architecture has been tested on a multi-agent system to recognize scenarios. The realized works are distributed into three axis: - The first one concerns uncertain reasoning with imprecise data. The evidence theory and intuitionistic fuzzy logic have been used to model such reasoning. – The second axis corresponds to classifier systems and genetic programming. The proposed approach use the power of genetic programming and combine it to classifier systems. A new learning mechanism based on evidence theory is introduced in order to use this theory as a support of reasoning. – The third axis concerns cooperation in adaptive multi-agents systems. Classifier systems have been improved by using an explicit cooperation between a number of classifier agents. We also propose a new data fusion operator based on evidence theory and adapted to the manipulated data. The developed system has been used to recognize car’s maneuvers. In fact, we have proposed a multi-agent architecture to make recognition. Maneuvers are decomposed into several layers in order to recognize them with a given granularity level
APA, Harvard, Vancouver, ISO, and other styles
39

Demaya, Bernard. "Commande floue de systèmes à dynamiques complexes : application à la commande d'un moteur thermique." Toulouse, INSA, 1994. http://www.theses.fr/1994ISAT0043.

Full text
Abstract:
Cette thèse s'inscrit dans la mouvance des nombreux travaux actuels sur la commande floue avec un souci d'application à la conception des systèmes automobiles embarqués, notamment pour le contrôle-moteur. La commande floue consiste à utiliser la connaissance de l'opérateur humain et à la synthétiser sous la forme de règles d'expertise ; cette technique permet donc de s'affranchir de l'utilisation de modèles mathématiques et d'intégrer des critères qualitatifs ou subjectifs dans la synthèse d'un système de commande. Dans une première étape, des généralités sur la commande floue et sur la conception des contrôleurs flous sont exposées. Puis, quelques points particuliers sont développées, notamment la commande des processus à dynamiques complexes. La justification et les performances de ces approches sont validées sur un «benchmark» issu du domaine de la commande adaptative. La faisabilité économique de ces structures de commande est ensuite illustrée expérimentalement sur deux applications bien différentes mais relatives au contrôle-moteur. La première application, qui est entièrement basée sur un jeu de règles d'expertise, consiste à supprimer le cliquetis. Les corrections apportées à la commande du système sont adaptées aux caractéristiques du phénomène, ce qui permet de limiter au mieux les dégradations des performances du moteur. La deuxième application concerne la régulation du ralenti. Après une première étude en simulation, un contrôleur flou est spécifié. Des essais sur véhicule permettent ensuite d'améliorer cette première solution et de proposer une nouvelle structure de commande floue. La configuration retenue autorise un réglage du confort acoustique et de conduite dans les différentes phases de fonctionnement. Et grâce à une diminution du régime de ralenti, elle devrait permettre une réduction de la consommation de carburant et de la pollution, surtout en cycle urbain où la régulation du ralenti est fortement sollicitée.
APA, Harvard, Vancouver, ISO, and other styles
40

Jovanovic, Petar. "Requirement-driven design and optimization of data-intensive flows." Doctoral thesis, Universitat Politècnica de Catalunya, 2016. http://hdl.handle.net/10803/400139.

Full text
Abstract:
Data have become number one assets of today's business world. Thus, its exploitation and analysis attracted the attention of people from different fields and having different technical backgrounds. Data-intensive flows are central processes in today's business intelligence (BI) systems, deploying different technologies to deliver data, from a multitude of data sources, in user-preferred and analysis-ready formats. However, designing and optimizing such data flows, to satisfy both users' information needs and agreed quality standards, have been known as a burdensome task, typically left to the manual efforts of a BI system designer. These tasks have become even more challenging for next generation BI systems, where data flows typically need to combine data from in-house transactional storages, and data coming from external sources, in a variety of formats (e.g., social media, governmental data, news feeds). Moreover, for making an impact to business outcomes, data flows are expected to answer unanticipated analytical needs of a broader set of business users' and deliver valuable information in near real-time (i.e., at the right time). These challenges largely indicate a need for boosting the automation of the design and optimization of data-intensive flows. This PhD thesis aims at providing automatable means for managing the lifecycle of data-intensive flows. The study primarily analyzes the remaining challenges to be solved in the field of data-intensive flows, by performing a survey of current literature, and envisioning an architecture for managing the lifecycle of data-intensive flows. Following the proposed architecture, we further focus on providing automatic techniques for covering different phases of the data-intensive flows' lifecycle. In particular, the thesis first proposes an approach (CoAl) for incremental design of data-intensive flows, by means of multi-flow consolidation. CoAl not only facilitates the maintenance of data flow designs in front of changing information needs, but also supports the multi-flow optimization of data-intensive flows, by maximizing their reuse. Next, in the data warehousing (DW) context, we propose a complementary method (ORE) for incremental design of the target DW schema, along with systematically tracing the evolution metadata, which can further facilitate the design of back-end data-intensive flows (i.e., ETL processes). The thesis then studies the problem of implementing data-intensive flows into deployable formats of different execution engines, and proposes the BabbleFlow system for translating logical data-intensive flows into executable formats, spanning single or multiple execution engines. Lastly, the thesis focuses on managing the execution of data-intensive flows on distributed data processing platforms, and to this end, proposes an algorithm (H-WorD) for supporting the scheduling of data-intensive flows by workload-driven redistribution of data in computing clusters. The overall outcome of this thesis an end-to-end platform for managing the lifecycle of data-intensive flows, called Quarry. The techniques proposed in this thesis, plugged to the Quarry platform, largely facilitate the manual efforts, and assist users of different technical skills in their analytical tasks. Finally, the results of this thesis largely contribute to the field of data-intensive flows in today's BI systems, and advocate for further attention by both academia and industry to the problems of design and optimization of data-intensive flows.<br>Actualment, les dades han esdevingut el principal actiu del món empresarial. En conseqüència, la seva explotació i anàlisi ha atret l'atenció de gent provinent de diferents camps i experiència tècnica. Els fluxes de dades intensius són processos centrals en els actuals sistemes d'inteligència de negoci (BI), desplegant diferents tecnologies per a proporcionar dades, provinents de diferents fonts i centrant-se en formats orientats a l'usuari. Tantmateix, el disseny i l'optimització de tals fluxes, per tal de satisfer ambdós usuaris de la informació i els estàndars de qualitat, resulta una tasca tediosa, normalment dirigida als esforços manuals del dissenyador del sistema BI. Aquestes tasques han esdevingut encara més complexes en el context dels sistemes BI de nova generació, on els fluxes de dades típicament combinen dades internes de fonts transaccionals, amb dades externes representades amb diferents formats (xarxes socials, dades governamentals, notícies). A més a més, per tal de tenir un impacte en el negoci, s'espera que els fluxes de dades responguin a necessitats analítiques no anticipades en un marge de temps proper a temps real. Aquests reptes clarament indiquen la necessitat de millora en l'automatització del disseny i optimització dels fluxes de dades intensius. L'objectiu d'aquesta tesi doctoral és el de proporcionar mitjans automàtics per tal de manegar el cicle de vida de fluxes de dades intensius. L'estudi primerament analitza els reptes pendents de resoldre en l'àrea de fluxes intensius de dades, mitjançant l'anàlisi de la literatura recent, i concebent una arquitectura per a la gestió del cicle de vida dels fluxes de dades intensius. A partir de l'arquitectura proposada, ens centrem en la proposta de tècniques automàtiques per tal de cobrir cadascuna de les fases del cicle de vida dels fluxes intensius de dades. Particularment, aquesta tesi inicialment proposa una tècnica (CoAl) per el disseny incremental dels fluxes de dades intensius, mitjançant la consolidació de multiples fluxes. CoAl no només facilita el manteniment dels flux de dades davant de noves necessitats d'informació, sinó que també permet la optimització de múltiples fluxes mitjançant la maximització de la reusabilitat. Posteriorment, en un contexte de magatzems de dades (DW), proposem un mètode complementari (ORE) per el disseny incremental d'un esquema de DW objectiu, acompanyat per la traça sistemàtica de metadades d'evolució, les quals poden facilitar el disseny dels fluxes intensius de dades (processos ETL). A continuació, la tesi estudia el problema d'implementació de fluxes de dades intensius a diferents sistemes d'execució, i proposa el sistema BabbleFlow per la traducció de fluxes de dades intensius lògics a formats executables, a un o múltiples sistemes d'execució. Finalment, la tesi es centra en la gestió dels fluxes de dades intensius en plataformes distribuïdes de processament de dades, amb aquest objectiu es proposa un algorisme (H-WorD) per donar suport a la planificació de l'execució de fluxes intensius de dades mitjançant la redistribució de dades dirigides per la carga de treball. El resultat general d'aquesta tesi és una plataforma d'inici a fi per tal de gestionar el cicle de vida dels fluxes intensius de dades, anomenada Quarry. Les tècniques propostes en aquesta tesi, incorporades a la plataforma Quarry, en gran part simplifiquen els esforços manuals i assisteixen usuaris amb diferent experiència tècnica a les seves tasques analítiques. Finalment, els resultats d'aquesta tesi contribueixen a l'àrea de fluxes intensius de dades en els sistemes de BI actuals. A més a més, reflecteixen la necessitat de més atenció per part dels mons acadèmic i industrial als problemes de disseny i optimització de fluxes de dades intensius.
APA, Harvard, Vancouver, ISO, and other styles
41

Kurtuluş, Bedri. "Modeling of groundwater flow and quality in karstic system using "soft computing" methods (neural networks, fuzzy logic)." Poitiers, 2008. http://www.theses.fr/2008POIT2304.

Full text
Abstract:
Karstic aquifers present a great extension throughout the world (12 % of the emerged grounds) and in particular in countries around the Mediterranean sea (from 20 to 90 % of the surface of the Mediterranean countries). These aquifers represent important groundwater potentialities. In both countries (France and Turkey), these karstic aquifers are exploited for drinking water supply and other economic activities (agriculture, pisciculture,. . . ) and constitute the single water resource in certain areas of these countries. The role of these karstic hydrosystems in the social and economical context of some areas is extremely crucial. These aquifers are very vulnerable to contaminations and are overexploited, taking into account the increase in water requirements. Karstic aquifers are very complex and show very particular characteristics (strong heterogeneity, anisotropy, discontinuity of the medium, hierarchization of the flows), which make difficult any classical approach of identification of these systems and management of their water resources. The difficulty of modeling comes owing to the fact that these karstic systems are highly non-linear and are little adapted to the classical methods of identification (flow and transport modeling based on Darcy law). Soft computing methods (Artificial neural networks and fuzzy logic) are playing a key role in the modelling of complex and nonlinear problems. The uncertainty associated with the data, the immense size of the data to deal with, the diversity of the data type and the associated scales are important factors to rely on unconventional mathematical tools such as soft computing. In this thesis, the three pilot experimental sites are: the karst of La Rochefoucauld in France which is used in particular for the supply of the regional capital Angouleme; Orbe karstic spring which supplies the rural city of Arette (Southwestern France) and the karst of Safranbolu in Turkey which supplies the town of Safranbolu. The principal objective of this work is to test the ability of soft computing methods for modeling of complex karstic systems and predicting the discharge rates and quality of water at the outlets of these systems. The results show the ability of Soft computing method to model these highly non linear systems. All the modelling work was carried out using the Matlab programming environment<br>Les aquifères karstiques présentent une grande extension à travers le monde (12 % des terres émergées) et notamment dans les pays du pourtour méditerranéen (de 20 à 90 % de la surface des pays méditerranéens). Ces aquifères représentent d’importantes potentialités en eau souterraine. Dans les deux pays concernés (France et Turquie), ces aquifères karstiques sont exploités pour l’alimentation en eau potable et pour d’autres activités économiques (agriculture, pisciculture, …) et constituent parfois l’unique ressource en eau dans certaines régions de ces pays. Le rôle des hydrosystèmes karstiques dans le développement social et économique de telles régions est de ce fait extrêmement crucial. Ces aquifères sont cependant très vulnérables aux contaminations et font l’objet de surexploitation, compte tenu de l’accroissement des besoins en eau. Les aquifères karstiques sont très complexes et présentent des caractéristiques très particulières (forte hétérogénéité, anisotropie, discontinuité du milieu, hiérarchisation des écoulements) qui rendent difficile toute approche classique d’identification de ces milieux et de gestion de leurs ressources en eau. La difficulté de modélisation provient du fait que ces systèmes karstiques sont hautement non-linéaires et sont peu adaptés aux méthodes d’identification classiques (modélisation des flux d’eau et de matière basée sur la loi de Darcy). L’objectif principal de cette thèse est la modélisation de ces systèmes à l’aide d’approches nouvelles (méthodes de ‘soft computing’) dans le but de prédire les flux et la qualité des eaux dans ces systèmes. Les systèmes retenus sont : le karst de La Rochefoucauld en France qui est utilisé notamment pour l’alimentation de la capitale régionale Angoulême ; Le karst de l’Orbe qui est utilisé pour la ville d’Arrete et le karst de Safranbolu en Turquie qui alimente la ville de Safranbolu. Dans cette thèse, les points suivants sont étudiés :Installation, calibrage des systèmes d'enregistrement des données (data logger) et contrôle des sondes, Recherche sur les différents types de systèmes karstiques (La Rochefoucauld et Orbe en France et Safranbolu en Turquie, Détermination de la pluie efficace sur le karst de Safranbolu en utilisant des données hydrométéorologiques (y compris la neige). Interprétation des données des enregistreurs automatiques et des analyses chimiques effectuées en laboratoire pour mieux comprendre le fonctionnement du karst, Développement des modèles ‘soft computing’ (réseaux de neurone et neuro-floue) concernant les 3 systèmes karstiques étudiés. Discussion sur les méthodes (réseaux de neurone et neuro–flou) et les calibrages des modèles. Comparaison des modèles avec entrée simple et entrées multiples. Détermination des propriétés faibles et fortes de ces modèles. Les conclusions obtenues sont les suivantes :Les corrélations entre débits simulés et débits observés sont élevées pour le karst de La Rochefoucauld. Le coefficient de détermination pour la phase d’apprentissage est élevé (R2=0. 90). Les hydrogrammes permettent de se rendre compte que l’apprentissage et la validation des modèles sont tout à fait opérationnels, puisqu’on remarque que les parties montantes des hydrogrammes simulés correspondent bien à de fortes pluies. De plus la forme des hydrogrammes simulés (montée rapide, suivie d’une décrue assez lente) est semblable à celle des hydrogrammes réels de sources d’aquifères karstiques (Voir Figure 4. 8). Les données de pluie utilisées concernent la pluie brute, sans transformation en pluie efficace, ce qui permet de s’affranchir de certaines hypothèses simplificatrices non vérifiables pour l’aquifère de La Rochefoucauld. Par contre nous avons retenu la pluie efficace comme entrée des modèles du karst de Safranbolu. L’effet de la fonte de neige et une correction de certaines données par rapport à l’altitude ont été intégrées dans l’évaluation de la pluie efficace. Les modèles ‘soft computing’ pluie - qualité de l’eau (Turbidité, Conductivité électrique) ont été développés. Pour les modèles neuro-flous la phase d’apprentissage est beaucoup plus lente et nécessite un moyen de calcul puissant. Les modèles hybrides (neuro-flous) sont plus efficaces que les modèles de réseaux de neurones. Les modèles neuro-flous ont un coefficient de détermination plus élevé que les modèles de réseaux de neurones (Voir Table 4. 5). Les variables d’entrée ont une très grande importance dans le développement des méthodes ‘soft computing’. En augmentant les données d’entrée, les modèles peuvent calculer de meilleurs résultats. Ainsi, les modèles avec deux variables d’entrées sont caractérisés par un coefficient de détermination plus élevé que les modèles à une variable d’entrée. En outre, pour la prédiction des valeurs extrêmes, les modèles avec entrées multiples sont plus efficaces que les modèles à entrée simple (Voir Table 4. 9). Pour les aquifères karstiques d’Orbe et de Safranbolu, la prédiction des paramètres hydrochimiques (conductivité électrique et turbidité) à été egalement modelisée à l’aide des méthodes ‘soft computing’. Les résultats montrent que la forme des chemogrammes simulés est semblable à celle des chemogrammes réels (Voir Figures 5. 19, 5. 22, 5. 25, 5. 27, 5. 28, 5. 29, 5. 30). Par contre, on constate aussi que pour obtenir des prédictions plus longues, le modèle aura besoin de séries de données plus longues. Ainsi, les résultats obtenus sont très encourageants et permettent d’envisager des perspectives intéressantes et nouvelles de modélisation des aquifères karstiques, qui sont des systèmes hautement non-linéaires
APA, Harvard, Vancouver, ISO, and other styles
42

Chauvel, Franck. "Méthodes et outils pour la conception de systèmes logiciels auto-adaptatifs." Phd thesis, Université de Bretagne Sud, 2008. http://tel.archives-ouvertes.fr/tel-00512189.

Full text
Abstract:
Because of the increasing need of mobiles devices, most of software systems need to take into account a highly dynamic environment including hardware and software resources. This need for self-adaptation arises in both large-scale systems such as peer-to-peer systems and small-scale systems such as embedded systems. Those systems, so called ``self-adaptive systems'', have to observe the changes which occur in their environment in order to maximize the quality of the services they provide. ``Observation, Decision, Action'' have thus become the three basic capabilities of self-adaptive systems. They observe the environment in order to decide on what and when the system's architecture must be modified. The design and the development of such systems is a crossroad between three research fields in Computer Science: Software Engineering, Artificial Intelligence, and Distributed Systems. First, Software Engineering and especially Dynamic Architectures enable the definition of software systems as assemblies of well-defined software components. Then, Artificial Intelligence enables the automation of the decision process. Finally, the Distributed Systems and specially Context-Aware Systems focus on the collection and the aggregation of environmental information. However, the design and the development of self-adaptive systems are still hand-written and error prone tasks because of a lack of devoted tools and methodologies. Although most recent middleware platforms enable the dynamic updating of component-based systems, the underlying adaptation mechanisms are still too technical to fit the abstraction level needed by the system architect. Most platforms keep providing API or, at best, some low-level and platform dependant scripts. Good practices in software engineering (such as, design methods, validation tools, etc) are thus not applied to the self-adaptation concerns. The contribution of this thesis is to help the system architect by providing the tools and the methods he needs to describe self-adaptation concerns at the appropriate abstraction level. Self-adaptation behaviours are described as rules expressed in a pseudo natural language which avoid the quantification of environment properties. The system architect can define his own terminologies to portray the environment. The semantics of those rules are based on fuzzy logic and enable a direct interpretation and, therefore, the simulation, at design-time, of self-adaptive systems. Such a simulation at design time is a first validation which reduces the risk of conflicts between the architectural choices and the adaptation requirements. Such conflicts lead to expensive roll-backs in the design process. The TanGraM tool supports the definition of self-adaptive architectures, including the structure, the behaviour, and the manipulated data. It supports as well the integration and the simulation of qualitative adaptation policies at design time. An extension of the Fractal platform has also been released and enables the direct reuse of those adaptation policies in a real Fractal system. We use those tools to design and deploy a self-adaptive HTTP server which has been used as a case study. It adapts its architecture according to the average load and density of HTTP requests. However, the description of qualitative adaptation policies is a first step towards a reliable design process for self-adaptive systems.
APA, Harvard, Vancouver, ISO, and other styles
43

Khatib, Jad. "Modélisation et ordonnancement des systèmes temps réel embarqués utilisant des graphes de flots de données synchrones." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS425.

Full text
Abstract:
Les systèmes embarqués temps réel impactent nos vies au quotidien. Leur complexité s’intensifie avec la diversité des applications et l’évolution des architectures des plates-formes de calcul. En effet, les systèmes temps réel peuvent se retrouver dans des systèmes autonomes, comme dans les métros, avions et voitures autonomes. Ils sont donc souvent d’une importance décisive pour la vie humaine, et leur dysfonctionnement peut avoir des conséquences catastrophiques. Ces systèmes sont généralement multi-périodiques car leurs composants interagissent entre eux à des rythmes différents, ce qui rajoute de la complexité. Par conséquent, l’un des principaux défis auxquels sont confrontés les chercheurs et industriels est l’utilisation de matériel de plus en plus complexe, dans le but d’exécuter des applications temps réel avec une performance optimale et en satisfaisant les contraintes temporelles. Dans ce contexte, notre étude se focalise sur la modélisation et l’ordonnancement des systèmes temps réel en utilisant un formalisme de flot de données. Notre contribution a porté sur trois axes: Premièrement, nous définissons un mode de communication général et intuitif au sein de systèmes multi-périodiques. Nous montrons que les communications entre les tâches multi-périodiques peuvent s’exprimer directement sous la forme d’une classe spécifique du “Synchronous Data Flow Graph” (SDFG). La taille de ce graphe est égale à la taille du graphe de communication. De plus, le modèle SDFG est un outil d’analyse qui repose sur de solides bases mathématiques, fournissant ainsi un bon compromis entre l’expressivité et l’analyse des applications. Deuxièmement, le modèle SDFG nous a permis d’obtenir une définition précise de la latence. Par conséquent, nous exprimons la latence entre deux tâches communicantes à l’aide d’une formule close. Dans le cas général, nous développons une méthode d’évaluation exacte qui permet de calculer la latence du système dans le pire des cas. Ensuite, nous bornons la valeur de la latence en utilisant deux algorithmes pour calculer les bornes inférieure et supérieure. Enfin, nous démontrons que les bornes de la latence peuvent être calculées en temps polynomial, alors que le temps nécessaire pour évaluer sa valeur exacte augmente linéairement en fonction du facteur de répétition moyen. Finalement, nous abordons le problème d’ordonnancement mono-processeur des systèmes strictement périodiques non-préemptifs, soumis à des contraintes de communication. En se basant sur les résultats théoriques du SDFG, nous proposons un algorithme optimal en utilisant un programme linéaire en nombre entier (PLNE). Le problème d’ordonnancement est connu pour être NP-complet au sens fort. Afin de résoudre ce problème, nous proposons trois heuristiques: relaxation linéaire, simple et ACAP. Pour les deux dernières heuristiques, et dans le cas où aucune solution faisable n’est trouvée, une solution partielle est calculée<br>Real-time embedded systems change our lives on a daily basis. Their complexity is increasing with the diversity of their applications and the improvements in processor architectures. These systems are usually multi-periodic, since their components communicate with each other at different rates. Real-time systems are often critical to human lives, their malfunctioning could lead to catastrophic consequences. Therefore, one of the major challenges faced by academic and industrial communities is the efficient use of powerful and complex platforms, to provide optimal performance and meet the time constraints. Real-time system can be found in autonomous systems, such as air-planes, self-driving cars and drones. In this context, our study focuses on modeling and scheduling critical real-time systems using data flow formalisms. The contributions of this thesis are threefold: First, we define a general and intuitive communication model within multi-periodic systems. We demonstrate that the communications between multi-periodic tasks can be directly expressed as a particular class of “Synchronous Data Flow Graph” (SDFG). The size of this latter is equal to the communication graph size. Moreover, the SDFG model has strong mathematical background and software analysis tools which provide a compromise between the application expressiveness and analyses. Then, the SDFG model allows precise definition of the latency. Accordingly, we express the latency between two communicating tasks using a closed formula. In the general case, we develop an exact evaluation method to calculate the worst case system latency from a given input to a connected outcome. Then, we frame this value using two algorithms that compute its upper and lower bounds. Finally, we show that these bounds can be computed using a polynomial amount of computation time, while the time required to compute the exact value increases linearly according to the average repetition factor. Finally, we address the mono-processor scheduling problem of non-preemtive strictly periodic systems subject to communication constraints. Based on the SDFG theoretical results, we propose an optimal algorithm using MILP formulations. The scheduling problem is known to be NP-complete in the strong sense. In order to solve this issue, we proposed three heuristics: linear programming relaxation, simple and ACAP heuristics. For the second and the third heuristic if no feasible solution is found, a partial solution is computed
APA, Harvard, Vancouver, ISO, and other styles
44

Saint-Joan, Denis. "Données géographiques et raisonnement : le système GEODES." Toulouse 3, 1995. http://www.theses.fr/1995TOU30179.

Full text
Abstract:
Les utilisateurs de systemes d'information geographique (sig) sont de plus en plus demandeurs de systemes d'analyses et/ou d'aide a la decision spatiale pour la resolution de problemes complexes qui ne s'apparentent pas a une simple superposition de cartes. Nous avons donc concu et realise le systeme geodes (geographic decision expert system) qui permet a un utilisateur d'exprimer de maniere aisee les connaissances symboliques specifiant un probleme a travers une interface graphique tout en tenant compte, d'une part, du caractere spatial des donnees et des connaissances, et d'autre part, du caractere flou de cette connaissance. Le systeme utilise cette specification du probleme et les donnees geographiques pour fournir une carte de solutions du probleme pose montrant les zones favorables au probleme et celles qui le sont moins. Il peut etre utilise dans des domaines tels que la geographie, l'ecologie, l'agriculture, la gestion des ressources naturelles, l'industrie c'est un systeme expert flou utilisant plusieurs types de donnees (rasteur ou vecteur) et manipulant deux types de regles: des regles non spatiales basees sur l'union et l'intersection des connaissances et des donnees, et des regles spatiales basees sur les caracteristiques (surface, orientation,) et les relations spatiales (a droite, proche, inclus,) des donnees. Le moteur d'inferences utilise une strategie en chainage avant et en largeur d'abord avec une resolution geometrique des inferences floues a partir de la representation trapezoidale des sous-ensembles flous pour accelerer les temps de calculs et en evaluant par paquet les regles traitant des memes connaissances
APA, Harvard, Vancouver, ISO, and other styles
45

Voglozin, W. Amenel Abraham. "Le résumé linguistique de données structurées comme support pour l'interrogation." Nantes, 2007. http://www.theses.fr/2007NANT2040.

Full text
Abstract:
Le travail présenté dans cette thèse traite de l'utilisation des résumés de données dans l'interrogation. Dans le contexte des résumés linguistiques du modèle SaintEtiQ sur lequel se focalise cette thèse, un résumé est une description du contenu d'une table relationnelle. Grâce à la définition de variables linguistiques, il est possible d'tiliser des termes du langage pour caractériser les données structurées de la table. En outre, l'organisation des résumés en hiérarchie offre divers niveaux de granularité. Nous nous intéressons à fournir une application concrète aux résumés déjà construits. D'une part, nous étudions les possibilités d'utilisation des résumés dans une interrogation à but descriptif. L'objectif est de décrire entièrement des données dont certaines caractéristiques sont bien connues. Nous proposons une démarche de recherche de concepts et une instanciation de cette démarche. Ensuite, une étude des systèmes d'interrogation flexible, dont certains ont, ainsi que le SaintEtiQ, la théorie des sous-ensembles flous comme base, nous permet d'enrichir la démarche proposée par des fonctionnalités plus avancées. D'autre part, nous avons intégré les résumés linguistiques de SaintEtiq au SGBD PostgreSQL. L'objectif est d'aider le SGBd à identifier des enregistrements. Nous présentons un état de l'art des techniques d'indexation, ainsi que le détail de l'implémentation des résumés en tant que méthode d'accès dans PostgreSQL.
APA, Harvard, Vancouver, ISO, and other styles
46

Do, Xuan Khanh. "Modèle de calcul et d'exécution pour des applications flots de données dynamiques avec contraintes temps réel." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066522/document.

Full text
Abstract:
Il y a un intérêt croissant pour le développement d'applications sur les plates-formes multiprocesseurs homo- et hétérogènes en raison de l'extension de leur champ d'application et de l'apparition des puces many-core, telles que Kalray MPPA-256 (256 cœurs) ou TEGRA X1 de NVIDIA (256 GPU et 8 cœurs 64 bits CPU). Étant donné l'ampleur de ces nouveaux systèmes massivement parallèles, la mise en œuvre des applications sur ces plates-formes est difficile à cause de leur complexité, qui tend à augmenter, et de leurs exigences strictes à la fois qualitatives (robustesse, fiabilité) et quantitatives (débit, consommation d’énergie). Dans ce contexte, les Modèles de Calcul (MdC) flot de données ont été développés pour faciliter la conception de ces applications. Ces MdC sont par définition composées de filtres qui échangent des flux de données via des liens de communication. Ces modèles fournissent une représentation intuitive des applications flot de données, tout en exposant le parallélisme de tâches de l’application. En outre, ils fournissent des capacités d'analyse statique pour la vivacité et l’exécution en mémoire bornée. Cependant, de nouvelles applications de signalisation et de traitement des médias complexes présentent souvent plusieurs défis majeurs qui ne correspondent pas aux restrictions des modèles flot de données statiques classiques: 1) Comment fournir des services garantis contre des interférences inévitables qui peuvent affecter des performances temps réel ?, et 2) Comment ces langages flot de données qui sont souvent trop statiques pourraient répondre aux besoins des applications embarquées émergentes, qui nécessitent une exécution plus dynamique et plus dépendante du contexte ? Pour faire face au premier défi, nous proposons un ordonnancement hybride, nommé Self-Timed Periodic (STP), qui relie des MdC flot de données classiques et des modèles de tâches temps réel. Cet ordonnancement peut aussi être considéré comme un modèle d'exécution combinant l'ordonnancement classique dirigé seulement par les contraintes de dépendance d'exécution appelé Self-Timed Scheduling (STS), évalué comme le plus approprié pour des applications modélisées sous forme de graphes flot de données, avec l'ordonnancement périodique: STS améliore les indicateurs de performance des programmes, tandis que le modèle périodique capture les aspects de synchronisation. Nous avons évalué la performance de notre ordonnancement sur un ensemble de 10 applications et nous avons constaté que dans la plupart des cas, notre approche donne une amélioration significative de la latence par rapport à un ordonnancement purement périodique ou Strictly Periodic Scheduling (SPS), et rivalise bien avec STS. Les expériences montrent également que, pour presque tous les cas de test, STP donne un débit optimal. Sur la base de ces résultats, nous avons évalué la latence entre le temps d'initiation de tous les deux acteurs dépendants, et nous avons introduit une approche basée sur la latence pour le traitement des flux à tolérance de pannes modélisée comme un graphe Cyclo-Static Dataflow (CSDF), dans le but d'aborder des problèmes de défaillance de nœud ou de réseau…<br>There is an increasing interest in developing applications on homo- and heterogeneous multiprocessor platforms due to their broad availability and the appearance of many-core chips, such as the MPPA-256 chip from Kalray (256 cores) or TEGRA X1 from NVIDIA (256 GPU and 8 64-bit CPU cores). Given the scale of these new massively parallel systems, programming languages based on the dataflow model of computation have strong assets in the race for productivity and scalability, meeting the requirements in terms of parallelism, functional determinism, temporal and spatial data reuse in these systems. However, new complex signal and media processing applications often display several major challenges that do not fit the classical static restrictions: 1) How to provide guaranteed services against unavoidable interferences which can affect real-time performance?, and 2) How these streaming languages which are often too static could meet the needs of emerging embedded applications, such as context- and data-dependent dynamic adaptation? To tackle the first challenge, we propose and evaluate an analytical scheduling framework that bridges classical dataflow MoCs and real-time task models. In this framework, we introduce a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed scheduling (STS), considered as the most appropriate for streaming applications modeled as data-flow graphs, with periodic scheduling: STS improves the performance metrics of the programs, while the periodic model captures the timing aspects. We evaluate the performance of our scheduling policy for a set of 10 real-life streaming applications and find that in most of the cases, our approach gives a significant improvement in latency compared to the Strictly Periodic Schedule (SPS), and competes well with STS. The experiments also show that, for more than 90% of the benchmarks, STP scheduling results in optimal throughput. Based on these results, we evaluate the latency between initiation times of any two dependent actors, and we introduce a latency-based approach for fault-tolerant stream processing modeled as a Cyclo-Static Dataflow (CSDF) graph, addressing the problem of node or network failures. For the second challenge, we introduce a new dynamic Model of Computation (MoC), called Transaction Parameterized Dataflow (TPDF), extending CSDF with parametric rates and a new type of control actor, channel and port to express dynamic changes of the graph topology and time-triggered semantics. TPDF is designed to be statically analyzable regarding the essential deadlock and boundedness properties, while avoiding the aforementioned restrictions of decidable dataflow models. Moreover, we demonstrate that TPDF can be used to accurately model task timing requirements in a great variety of situations and introduce a static scheduling heuristic to map TPDF to massively parallel embedded platforms. We validate the model and associated methods using a set of realistic applications and random graphs, demonstrating significant buffer size and performance improvements (e.g., throughput) compared to state of the art models including Cyclo-Static Dataflow (CSDF) and Scenario-Aware Dataflow (SADF)
APA, Harvard, Vancouver, ISO, and other styles
47

Oliveira, Castro Herrero Pablo de. "Expression et optimisation des réorganisations de données dans du parallélisme de flots." Versailles-St Quentin en Yvelines, 2010. https://tel.archives-ouvertes.fr/tel-00580170.

Full text
Abstract:
Pour permettre une plus grande capacité de calcul, les concepteurs de systèmes embarqués se tournent aujourd'hui vers les multicœurs. Malheureusement, ces systèmes sont difficiles à programmer. Un des problèmes durs est l'expression et l'optimisation des réorganisations de données. Dans cette thèse nous souhaitons proposer une chaîne de compilation qui: 1) utilise une syntaxe simple et haut-niveau pour exprimer le découpage et la réorganisation des données d'un programme parallèle; 2) garantisse une exécution déterministe du programme (critique dans le cadre des systèmes embarqués); 3) optimise et adapte les programmes aux contraintes de l'architecture. Pour répondre au point 1) nous proposons un langage haut-niveau, SLICES, qui décrit les réorganisation de données à travers des découpages multidimensionnels. Pour répondre au point 2) nous montrons qu'il est possible de compiler SLICES vers un langage de flots de données, SJD, qui s'inscrit dans le modèle Cyclostatic Data-Flow et donc admet une exécution déterministe. Pour répondre au point 3) nous définissons un ensemble de transformations qui préservent la sémantique des programmes SJD. Nous montrons qu'il existe un sous-ensemble de ces transformations qui génère un espace de programmes équivalents fini. Nous proposons une heuristique pour explorer cet espace de manière à choisir la variante la plus adaptée à notre architecture. Enfin nous évaluons cette méthode sur deux problèmes classiques: la réduction de la mémoire consommée et la réduction du coût des communications d'une application parallèle<br>Embedded systems designers are moving to multi-cores to increase the performance of their applications. Yet multi-core systems are difficult to program. One hard problem is expressing and optimizing data reorganizations. In this thesis we would like to propose a compilation chain that: 1) uses a simple high-level syntax to express the data reorganization in a parallel application; 2) ensures the deterministic execution of the program (critical in an embedded context); 3) optimizes and adapts the programs to the target's constraints. To address point 1) we propose a high-level language, SLICES, describing data reorganizations through multidimensional slicings. To address point 2) we show that it is possible to compile SLICES to a data-flow language, SJD, that is built upon the Cyclostatic Data-Flow formalism and therefore ensures determinism. To address point 3) we define a set of transformations that preserve the semantics of SJD programs. We show that a subset of these transformations generates a finite space of equivalent programs. We show that this space can be efficiently explored with an heuristic to select the program variant more fit to the target's constraints. Finally we evaluate this method on two classic problems: reducing memory and reducing communication costs in a parallel application
APA, Harvard, Vancouver, ISO, and other styles
48

Simon, Gaële. "Modèles et méthodes pour la conception des mémoires d'entreprise : le système DOLMEN : une application en métallurgie." Nancy 1, 1997. http://www.theses.fr/1997NAN10142.

Full text
Abstract:
A l'heure actuelle, la compétitivité d'une entreprise est de plus en plus liée à sa capacité à gérer ses connaissances. En particulier, il lui faut gérer la connaissance qu'elle a d'elle-même ce qui peut être réalisé par l'intermédiaire d'une mémoire d'entreprise. L'objectif de notre travail est de proposer des modèles et des méthodes pour réaliser des systèmes informatiques permettant de concrétiser et d'exploiter ces mémoires. Nous les appelons des «systèmes de capitalisation de connaissances ». L'ensemble de nos propositions, implantées dans le prototype DOLMEN, sont issues d'une étude de cas réel menée, durant 3 ans, dans le cadre d'un projet réalisé en collaboration avec une entreprise du domaine métallurgique. [. . . ]
APA, Harvard, Vancouver, ISO, and other styles
49

Ktari, Salma. "Interconnexion et routage dans les systèmes pair à pair." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005737.

Full text
Abstract:
Les systèmes pair-à-pair sont l'outil de choix pour réaliser un système informatique autonome tout en assurant sa haute disponibilité au coût relativement faible. Ces systèmes sont toutefois complexes à concevoir et posent divers problèmes liés à la gestion de l'espace virtuel (overlay) crée. Nous nous concentrons principalement sur deux aspects de ces environnements : l'organisation des noeuds dans l'overlay dynamique et l'organisation des données dans ce dernier. Concernant l'organisation des noeuds dans l'overlay, nous proposons Power DHT, une nouvelle structure d'interconnexion et de routage. Partant de l'hétérogénéité observée dans les tables de hachage (DHTs) déployées, nous transformons dynamiquement la DHT vers une structure décentralisée, exhibant les propriétés d'un graphe sans échelle (distribution des degrés, faible diamètre). Nous exploitons les propriétés de cette nouvelle structure et implémentons à la fois le routage KBR (Key Based Routing), offrant un diamètre plus court à un coût de signalisation moindre, et le support de la diffusion efficace, réalisant ainsi des recherches floues. Quant à l'organisation des données dans l'espace virtuel, nous employons la réplication pour améliorer la disponibilité et l'accessibilité des objets de l'overlay potentiellement instable. Nous avons implémenté et évalué différentes méthodes de réplication. Nous choisissons d'intégrer à notre structure la réplication symétrique. A partir de ces résultats, nous avons conçu un mécanisme d'inondation efficace pour les systèmes P2P structurés. Ce mécanisme, évalué sur notre plate-forme, exploite la structure de la DHT et les propriétés de la réplication symétrique pour permettre les recherches floues dans les DHTs, tout en limitant le coût de signalisation.
APA, Harvard, Vancouver, ISO, and other styles
50

Le, Berre Tanguy. "Spécification formelle de systèmes temps réel répartis par une approche flots de données à contraintes temporelles." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2010. http://tel.archives-ouvertes.fr/tel-00472469.

Full text
Abstract:
Une définition des systèmes temps réel est que leur correction dépend de la correction fonctionnelle mais aussi du temps d'exécution des différentes opérations. Les propriétés temps réels sont alors exprimées comme des contraintes temporelles sur les opérations du système. Nous proposons dans cette thèse un autre point de vue où la correction est définie relativement à la validité temporelle des valeurs prises par les variables du système et aux flots de données qui parcourent le système. Pour définir ces conditions de validité, nous nous intéressons au rythme de mise à jour des variables mais aussi aux liens entre les valeurs des différentes variables du système. Une relation dite d'observation est utilisée pour modéliser les communications et les calculs du système qui définissent les liens entre les variables. Un ensemble de relations d'observation modélise l'architecture et les flots de données du système en décrivant les chemins de propagation des valeurs dans le système. Les propriétés temps réels sont alors exprimées comme des contraintes sur ces chemins de propagation permettant d'assurer la validité temporelle des valeurs prises par les variables. La validité temporelle d'une valeur est définie selon la validité temporelle des valeurs des autres variables dont elle dépend et selon le décalage temporel logique ou événementiel introduit par les communications ou les calculs le long des chemins de propagation. Afin de prouver la satisfiabilité d'une spécification définie par une telle architecture et de telles propriétés, nous construisons un système de transitions à état fini bisimilaire à la spécification. L'existence de ce système fini est justifiée par des bornes sur le décalage temporel entre les variables du système. Il est alors possible d'explorer les exécutions définies par ce système de transitions afin de prouver l'existence d'exécutions infinies satisfaisant la spécification.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!