Дисертації з теми "Classification basée sur des règles"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Classification basée sur des règles.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-48 дисертацій для дослідження на тему "Classification basée sur des règles".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Wang, Zhiqiang. "Aide à la décision en usinage basée sur des règles métier et apprentissages non supervisés." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte général de l'industrie 4.0, une entreprise de fabrication moderne dispose de nombreuses données numériques qui pourraient être utilisées pour rendre les machines-outils plus intelligentes et faciliter la prise de décision en matière de gestion opérationnelle. Cette thèse vise à proposer un système d'aide à la décision pour les machines-outils intelligentes et connectées par l'exploration des données. L'une des premières étapes de l'approche d'exploration de données est la sélection précise de données pertinentes. Pour ce faire, les données brutes doivent être classées dans différents groupes de contexte. Cette thèse propose un algorithme d'apprentissage automatique non-supervisé, par mélanges gaussiens (GMM), pour la classification contextuelle. Basé sur les informations contextuelles, différents incidents d'usinage peuvent être détectés en temps réel. Il s'agit notamment de broutement, de bris d'outil et de sur-vibration. Cette thèse présente un ensemble de règles métiers pour la détection du broutement, de bris d’outil et de sur-vibration. Le contexte opérationnel a été décrypté lorsque des incidents se produisent, sur la base de la classification contextuelle qui explique les types d'usinage et d'engagement des outils. Ensuite, les nouveaux indicateurs clés de performance (KPIs) pertinents et appropriés peuvent être proposés sur la base de ces informations contextuelles combinés avec les incidents détectés afin de soutenir la prise de décision pour la gestion opérationnelle. Cette thèse propose de nouveaux opérateurs d'agrégation et de nouveaux KPIs pertinents pour les différents besoins des départements
In the general context of Industry 4.0, large volumes of manufacturing data are available on instrumented machine-tools. They are interesting to exploit not only to improve machine-tool performances but also to support the decision making for the operational management. This thesis aims at proposing a decision-aid system for intelligent and connected machine-tools through Data mining. The first step in a data mining approach is the selection of relevant data. Raw data must, therefore, be classified into different groups of contexts. This thesis proposes a contextual classification procedure in machining based on unsupervised machine learning by Gaussian mixture model. Based on this contextual classification information, different machining incidents can be detected in real-time. They include chatter, tool breakage and excessive vibration. This thesis introduces a set of business rules for incidents detection. The operational context has been deciphering when incidents occur, based on the contextual classification that explains the types of machining and tool engagement. Then, the nouveaux relevant and appropriate Key Performance Indicators (KPIs) can be proposed based on these contextual information and the incidents detected to support decision making for the operational management
2

Polat, Songül. "Combined use of 3D and hyperspectral data for environmental applications." Thesis, Lyon, 2021. http://www.theses.fr/2021LYSES049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La demande sans cesse croissante de solutions permettant de décrire notre environnement et les ressources qu'il contient nécessite des technologies qui permettent une description efficace et complète, conduisant à une meilleure compréhension du contenu. Les technologies optiques, la combinaison de ces technologies et un traitement efficace sont cruciaux dans ce contexte. Cette thèse se concentre sur les technologies 3D et les technologies hyper-spectrales (HSI). Tandis que les technologies 3D aident à comprendre les scènes de manière plus détaillée en utilisant des informations géométriques, topologiques et de profondeur, les développements rapides de l'imagerie hyper-spectrale ouvrent de nouvelles possibilités pour mieux comprendre les aspects physiques des matériaux et des scènes dans un large éventail d'applications grâce à leurs hautes résolutions spatiales et spectrales. Les travaux de recherches de cette thèse visent à l'utilisation combinée des données 3D et hyper-spectrales. Ils visent également à démontrer le potentiel et la valeur ajoutée d'une approche combinée dans le contexte de différentes applications. Une attention particulière est accordée à l'identification et à l'extraction de caractéristiques dans les deux domaines et à l'utilisation de ces caractéristiques pour détecter des objets d'intérêt.Plus spécifiquement, nous proposons différentes approches pour combiner les données 3D et hyper-spectrales en fonction des technologies 3D et d’imagerie hyper-spectrale (HSI) utilisées et montrons comment chaque capteur peut compenser les faiblesses de l'autre. De plus, une nouvelle méthode basée sur des critères de forme dédiés à la classification de signatures spectrales et des règles de décision liés à l'analyse des signatures spectrales a été développée et présentée. Les forces et les faiblesses de cette méthode par rapport aux approches existantes sont discutées. Les expérimentations réalisées, dans le domaine du patrimoine culturel et du tri de déchets plastiques et électroniques, démontrent que la performance et l’efficacité de la méthode proposée sont supérieures à celles des méthodes de machines à vecteurs de support (SVM).En outre, une nouvelle méthode d'analyse basée sur les caractéristiques 3D et hyper-spectrales est présentée. L'évaluation de cette méthode est basée sur un exemple pratique du domaine des déchet d'équipements électriques et électroniques (WEEE) et se concentre sur la séparation de matériaux comme les plastiques, les carte à circuit imprimé (PCB) et les composants électroniques sur PCB. Les résultats obtenus confirment qu'une amélioration des ré-sultats de classification a pu être obtenue par rapport aux méthodes proposées précédemment.L’avantage des méthodes et processus individuels développés dans cette thèse est qu’ils peuvent être transposé directement à tout autre domaine d'application que ceux investigué, et généralisé à d’autres cas d’étude sans adaptation préalable
Ever-increasing demands for solutions that describe our environment and the resources it contains, require technologies that support efficient and comprehensive description, leading to a better content-understanding. Optical technologies, the combination of these technologies and effective processing are crucial in this context. The focus of this thesis lies on 3D scanning and hyperspectral technologies. Rapid developments in hyperspectral imaging are opening up new possibilities for better understanding the physical aspects of materials and scenes in a wide range of applications due to their high spatial and spectral resolutions, while 3D technologies help to understand scenes in a more detailed way by using geometrical, topological and depth information. The investigations of this thesis aim at the combined use of 3D and hyperspectral data and demonstrates the potential and added value of a combined approach by means of different applications. Special focus is given to the identification and extraction of features in both domains and the use of these features to detect objects of interest. More specifically, we propose different approaches to combine 3D and hyperspectral data depending on the HSI/3D technologies used and show how each sensor could compensate the weaknesses of the other. Furthermore, a new shape and rule-based method for the analysis of spectral signatures was developed and presented. The strengths and weaknesses compared to existing approach-es are discussed and the outperformance compared to SVM methods are demonstrated on the basis of practical findings from the field of cultural heritage and waste management.Additionally, a newly developed analytical method based on 3D and hyperspectral characteristics is presented. The evaluation of this methodology is based on a practical exam-ple from the field of WEEE and focuses on the separation of materials like plastics, PCBs and electronic components on PCBs. The results obtained confirms that an improvement of classification results could be achieved compared to previously proposed methods.The claim of the individual methods and processes developed in this thesis is general validity and simple transferability to any field of application
3

Bouker, Slim. "Contribution à l'extraction des règles d'association basée sur des préférences." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22585/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Mebarki, Nasser. "Une approche d'ordonnancement temps réel basée sur la sélection dynamique de règles de priorité." Lyon 1, 1995. http://www.theses.fr/1995LYO10043.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La gestion des files d'attente par des regles de priorite constitue une des approches les plus simples et les plus utilisees pour ordonnancer dynamiquement les taches dans l'atelier. De tres nombreuses regles de priorite ont ete proposees et etudiees par de tres nombreux chercheurs. Malheureusement, un des problemes les plus importants concernant l'utilisation des regles de priorite est constitue par le fait qu'aucune regle n'apparait comme globalement meilleure que les autres. L'efficacite et la pertinence des regles de priorite depend etroitement des criteres de performance evalues et des conditions operatoires effectives dans l'atelier et surtout de l'etat de l'atelier. Pour remedier a ces inconvenients, nous proposons dans cette these une approche d'ordonnancement temps reel basee sur une selection dynamique des regles de priorite. Cette selection est realisee en fonction des conditions operatoires, des objectifs de production et de l'etat de l'atelier. Puisque l'etat de l'atelier change au cours du temps, nous proposons d'analyser l'etat du systeme chaque fois qu'une decision d'ordonnancement doit etre prise, afin de prendre en compte l'etat reel de l'atelier. Cette analyse de l'etat de l'atelier permet d'etablir un diagnostic de l'etat de l'atelier, qui indique les dysfonctionnements et les deviations du systeme par rapport aux objectifs a atteindre. Ce diagnostic est etabli a partir de sympomes predetermines (presence de goulots d'etranglement, trop de retard), qui peuvent etre purement locaux lorsqu'ils concernent un objet precis du systeme (un ordre de fabrication particulier, une ressource particuliere, une file d'attente) ou globaux lorsqu'ils font reference a une deviation globale des objectifs de l'atelier (trop de retard). Cette approche a ete implementee dans un logiciel de simulation orientee objet. Sur un modele d'atelier job-shop, les tests conduits ont montre que cette approche comparee a de nombreuses regles de priorite, donnait de meilleurs resultats sur certains criteres de performance, tels que le retard conditionnel. De plus, l'avantage de cette nouvelle approche est particulierement sensible lorsqu'il s'agit de combiner differents criteres de performance
5

Couchot, Alain. "Analyse statique de la terminaison des règles actives basée sur la notion de chemin maximal." Paris 12, 2001. http://www.theses.fr/2001PA120042.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les règles actives sont destinées à doter les bases de données d'un comportement réactif. Une règle active se compose de trois éléments principaux: l'événement, la condition, l'action. Il est souhaitable de garantir a priori la terminaison d'un ensemble de règles actives. Le but de cette thèse est d'augmenter le nombre de situations de terminaison détectées par l'analyse statique. Nous cernons tout d'abord un certain nombre de limitations des méthodes d'analyse statique de la terminaison des règles actives proposées par le passé. Nous développons ensuite un algorithme d'analyse statique de la terminaison basé sur la notion de chemin maximal d'un noeud. La notion de chemin maximal est destinée à remplacer la notion de cycle, employée par les algorithmes de terminaison antérieurs. Nous présentons un certain nombre d'applications et d'extensions de notre algorithme de terminaison. Ces extensions et applications concernent les règles non incluses dans un cycle, les conditions composites, les événements composites, les priorités entre règles, ainsi que la conception modulaire de règles actives. Nous présentons également présenté une extension significative de la méthode RTG, permettant d'inclure dans une formule de déclenchement des atomes dépendants de la base de données
The active rules are intended to enrich the databases with a reactive behaviour. An active rule is composed of three main components: the event, the condition, the action. It is desired to guarantee a priori the termination of a set of active rules. The aim of this thesis is to increase the number of termination situations detected by the static analysis. We first determine some restrictions of the previous static analysis methods. We develop then an algorithm for static analysis of termination based on the notion of maximal path of a node. The notion of maximal path is intended to replace the notion of cycle, used by the previous termination algorithms. We present some applications and extensions of our termination algorithm. These extensions and applications concern the active rules flot included in a cycle, the composite conditions, the composite events, the priorities between ailes, and the modular design of rules. .
6

Duda, Dorota. "Classification d’images médicales basée sur l’analyse de texture." Rennes 1, 2009. http://www.theses.fr/2009REN1S172.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le premier objectif de cette thèse est de proposer des méthodes de caractérisation des tissus, à partir d’un ensemble d’images, représentant, chacune, une propriété particulière du tissu. Ces méthodes consistent en une analyse simultanée des textures, représentées sur des images différentes, mais correspondant toutes à une même partie de l’organe. Elles permettent de caractériser les changements des propriétés de tissus, résultant de modifications déterminées des conditions d’acquisition des images. Le deuxième objectif est l’implémentation des méthodes proposées. L’application créée permet, à l’utilisateur, de définir lui-même les relations qu’il souhaite mettre en évidence entre les propriétés variables de la texture, dynamique. La méthode proposée a été appliquée pour la reconnaissance des tissus hépatiques sur des images TDM. Trois moments d’acquisition ont été considérés : sans injection de produit de contraste et, après son injection, à deux phases de sa propagation (artérielle, portale). Cette méthode a permis de caractériser les changements de propriétés de tissu hépatique, résultant des changements de concentration de produit de contraste dans les vaisseaux de foie. Les résultats présentés concernent la classification de quatre types de tissu hépatique (parmi eux – deux types tumeurs) caractérisés, soit par des paramètres de texture, correspondant à une seule image et à un seul moment d’acquisition, soit par des paramètres obtenus par la méthode proposée (vecteurs multiphasiques). La qualité de la classification augmente considérablement, si les tissus sont caractérisés à partir de trois images, correspondant aux trois moments d’acquisition
The first objective of this thesis is to propose methods of tissue characterization, based on a set of images, each of them representing a particular property of the tissue. These methods consist in a simultaneous analysis of several textures displayed on different images and corresponding to the same part of the organ. They allow to characterize the changes in properties of tissue, resulting from determined modifications of the images acquisition conditions. The second objective is the implementation of the proposed methods. The developed software allows the user to define relations between variable properties of the dynamic texture, that he wants to highlight. The proposed method has been applied to hepatic tissue characterization in Computed Tomography images. Three acquisition moments have been considered: before and after (arterial and portal phases) injection of contrast product. The method enabled to characterize the changes in the tissue properties, resulting from time evolution of the contrast product concentration in the liver vessels. The presented results concern the classification of four types of liver tissue (including two kinds of tumors). These tissues were characterized either by textural features corresponding to a single acquisition moment, or by features obtained by the dynamic texture analysis (grouped into multiphasic vectors). The quality of the liver tissue classification increases significantly when the tissue is characterized on the basis of the three images corresponding to three phases of acquisition
7

Ghemmogne, Fossi Leopold. "Gestion des règles basée sur l'indice de puissance pour la détection de fraude : Approches supervisées et semi-supervisées." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI079.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de la détection de fraude par carte de crédit. Selon la Banque Centrale Européenne, la valeur des fraudes utilisant des cartes en 2016 s'élevait à 1,8 milliard d'euros. Le défis pour les institutions est de réduire ces fraudes. En règle générale, les systèmes de détection de la fraude sont consistués d'un système automatique construit à base de règles "si-alors" qui contrôlent toutes les transactions en entrée et déclenchent une alerte si la transaction est considérée suspecte. Un groupe expert vérifie l'alerte et décide si cette dernière est vrai ou pas. Les critères utilisés dans la sélection des règles maintenues opérationnelles sont principalement basés sur la performance individuelle des règles. Cette approche ignore en effet la non-additivité des règles. Nous proposons une nouvelle approche utilisant des indices de puissance. Cette approche attribue aux règles un score normalisé qui quantifie l'influence de la règle sur les performances globales du groupe de règles. Les indice utilisés sont le "Shapley Value" et le "Banzhaf Value". Leurs applications sont: 1) Aide à la décision de conserver ou supprimer une règle; 2) Sélection du nombre k de règles les mieux classées, afin de travailler avec un ensemble plus compact. En utilisant des données réelles de fraude par carte de crédit, nous montrons que: 1) Cette approche permet de mieux évaluer les performances du groupe plutot que de les évaluer isolément. 2) La performance de l'ensemble des règles peut être atteinte en conservant le dixième des règles. Nous observons que cette application peut être comsidérée comme une tâche de sélection de caractéristiques:ainsi nous montrons que notre approche est comparable aux algorithmes courants de sélection des caractéristiques. Il présente un avantage dans la gestion des règles, car attribue un score normalisé à chaque règle. Ce qui n'est pas le cas pour la plupart des algorithmes, qui se concentrent uniquement sur une solution d'ensemble. Nous proposons une nouvelle version du Banzhaf Value, à savoir le k-Banzhaf; qui surclasse la précedente en terme de temps de calcul et possède des performances comparables. Enfin, nous mettons en œuvre un processus d’auto-apprentissage afin de renforcer l’apprentissage dans un algorithme. Nous comparons ces derniers avec nos trois indices de puissance pour effectuer une classification sur les données de fraude par carte de crédit. En conclusion, nous observons que la sélection de caractéristiques basée sur les indices de puissance a des résultats comparables avec les autres algorithmes dans le processus d'auto-apprentissage
This thesis deals with the detection of credit card fraud. According to the European Central Bank, the value of frauds using cards in 2016 amounted to 1.8 billion euros. The challenge for institutions is to reduce these frauds. In general, fraud detection systems consist of an automatic system built with "if-then" rules that control all incoming transactions and trigger an alert if the transaction is considered suspicious. An expert group checks the alert and decides whether it is true or not. The criteria used in the selection of the rules that are kept operational are mainly based on the individual performance of the rules. This approach ignores the non-additivity of the rules. We propose a new approach using power indices. This approach assigns to the rules a normalized score that quantifies the influence of the rule on the overall performance of the group. The indexes we use are the Shapley Value and Banzhaf Value. Their applications are 1) Decision support to keep or delete a rule; 2) Selection of the number k of best-ranked rules, in order to work with a more compact set. Using real credit card fraud data, we show that: 1) This approach performs better than the one that evaluates the rules in isolation. 2) The performance of the set of rules can be achieved by keeping one-tenth of the rules. We observe that this application can be considered as a task of selection of characteristics: We show that our approach is comparable to the current algorithms of the selection of characteristics. It has an advantage in rule management because it assigns a standard score to each rule. This is not the case for most algorithms, which focus only on an overall solution. We propose a new version of Banzhaf Value, namely k-Banzhaf; which outperforms the previous in terms of computing time and has comparable performance. Finally, we implement a self-learning process to reinforce the learning in an automatic learning algorithm. We compare these with our power indices to rank credit card fraud data. In conclusion, we observe that the selection of characteristics based on the power indices has comparable results with the other algorithms in the self-learning process
8

Bouadjio, Victor. "CAO des circuits intégrés MOS : vérification des règles de dessin par une méthode basée sur les traitements combinatoires locaux." Paris 11, 1987. http://www.theses.fr/1987PA112202.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail présente une méthode de Vérification des Règles de Dessin des Circuits Intégrés MOS, basée sur les Traitements Combinatoires Locaux. Les Règles de Dessin, ainsi que les méthodes de leur vérification sont décrites. Nous rappelons l'incidence des variations de la longueur (L) et de la largeur (W) des dispositifs sur le fonctionnement des circuits. Nous situons les traitements Combinatoires Locaux dans les traitements d'images, et montrons ensuite leur application dans les vérifications de règles de dessin. Des machines fonctionnant sur le principe de la méthode sont évoquées. Notre logiciel a été appliqué sur un circuit-test (un synchroniseur d'horloge), et les résultats sont fournis
This work presents a method for MOS IC Design Rule Verification, based on Local Combinatory Processings. Design rules, as well as their verification methods, are described. We recall the effects of the length (L) and the width (W) of devices on the working of circuits. We show some applications of the Local Combinatory Processings in Image Processings, and we then show their use in Design Rule Checkings. Some machines working on the basis of the method are descrybed. Our software has been applied on a test-circuit (a clock synchronizer), and the results of the processings are available in the thesis
9

Mokhtari, Amine. "Système personnalisé de planification d'itinéraire unimodal : une approche basée sur la théorie des ensembles flous." Rennes 1, 2011. http://www.theses.fr/2011REN1E004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous présentons un ensemble de contributions destinées à la définition d’une nouvelle génération de systèmes de planification d’itinéraire unimodal, capable de prendre en charge des préférences utilisateur complexes. La théorie des ensembles flous a été utilisée comme socle formel pour nos contributions. La première est une typologie des préférences utilisateur ayant du sens dans le cadre d’un déplacement unimodal. La nature bipolaire des préférences utilisateur dans un tel contexte est aussi discutée et prise en considération. Notre seconde contribution porte sur un langage fondé sur le calcul relationnel de tuples, RPQL, permettant la formulation de requêtes bipolaires de planification d’itinéraire avec préférences. Une approche permettant d’augmenter une requête avec de nouvelles préférences, déduites du contexte de l’utilisateur, constitue notre troisième contribution. Par ailleurs, l’architecture d’un système personnalisé de planification d’itinéraire a été proposée, ainsi qu’une approche efficace pour l’évaluation de requêtes de planification avec préférences. Enfin, des résultats expérimentaux, issus d’une plateforme de test mettant en œuvre notre système, sont présentés et discutés.
10

Allani, Atig Olfa. "Une approche de recherche d'images basée sur la sémantique et les descripteurs visuels." Thesis, Paris 8, 2017. http://www.theses.fr/2017PA080032.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La recherche d’image est une thématique de recherche très active. Plusieurs approches permettant d'établir un lien entre les descripteurs de bas niveau et la sémantique ont été proposées. Parmi celles-là, nous citons la reconnaissance d'objets, les ontologies et le bouclage de pertinence. Cependant, leur limitation majeure est la haute dépendance d’une ressource externe et l'incapacité à combiner efficacement l'information visuelle et sémantique. Cette thèse propose un système basé sur un graphe de patrons, la sélection ciblée des descripteurs pour la phase en ligne et l'amélioration de la visualisation des résultats. L'idée est de (1) construire un graphe de patrons composé d'une ontologie modulaire et d'un modèle basé graphe pour l'organisation de l'information sémantique, (2) de construire un ensemble de collections de descripteurs pour guider la sélection des descripteurs à appliquer durant la recherche et (3) améliorer la visualisation des résultats en intégrant les relations sémantiques déduite du graphe de patrons.Durant la construction de graphe de patrons, les modules ontologiques associés à chaque domaine sont automatiquement construits. Le graphe de régions résume l'information visuelle en un format plus condensé et la classifie selon son domaine. Le graphe de patrons est déduit par composition de modules ontologiques. Notre système a été testé sur trois bases d’images. Les résultats obtenus montrent une amélioration au niveau du processus de recherche, une meilleure adaptation des descripteurs visuels utilisés aux domaines couverts et une meilleure visualisation des résultats qui diminue le niveau d’abstraction par rapport à leur logique de génération
Image retrieval is a very active search area. Several image retrieval approaches that allow mapping between low-level features and high-level semantics have been proposed. Among these, one can cite object recognition, ontologies, and relevance feedback. However, their main limitation concern their high dependence on reliable external resources and lack of capacity to combine semantic and visual information.This thesis proposes a system based on a pattern graph combining semantic and visual features, relevant visual feature selection for image retrieval and improvement of results visualization. The idea is (1) build a pattern graph composed of a modular ontology and a graph-based model, (2) to build visual feature collections to guide feature selection during online retrieval phase and (3) improve the retrieval results visualization with the integration of semantic relations.During the pattern graph building, ontology modules associated to each domain are automatically built using textual corpuses and external resources. The region's graphs summarize the visual information in a condensed form and classify it given its semantics. The pattern graph is obtained using modules composition. In visual features collections building, association rules are used to deduce the best practices on visual features use for image retrieval. Finally, results visualization uses the rich information on images to improve the results presentation.Our system has been tested on three image databases. The results show an improvement in the research process, a better adaptation of the visual features to the domains and a richer visualization of the results
11

Siddour, Abdelkader. "Classification automatique des diatomées : une approche basée sur le contour et la géométrie." Thèse, Université du Québec à Trois-Rivières, 2007. http://depot-e.uqtr.ca/1243/1/030004296.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Sadaoui, Lazhar. "Évaluation de la cohésion des classes : une nouvelle approche basée sur la classification." Thèse, Université du Québec à Trois-Rivières, 2010. http://depot-e.uqtr.ca/1436/1/030168333.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Jabbour, Tony. "Classification de l'inflammabilité des fluides frigorigènes basée sur la vitesse fondamentale de flamme." Paris, ENMP, 2004. http://www.theses.fr/2004ENMP1221.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La classification actuelle des fluides frigorigenes inflammables n’adresse pas le risque d’inflammabilite de maniere suffisamment adequate, et une re-evaluation de l’inflammabilite est indispensable. La vitesse fondamentale de flamme est une propriete fondamentale de la combustion, liee aux risques d’inflammabilite, sur laquelle peut etre basee la classification de l’inflammabilite. L’ensemble des formulations derivees montre bien que la vitesse fondamentale de flamme est un parametre principal a prendre en compte dans la classification de l’inflammabilite. La vitesse fondamentale de flamme est mesuree a l’aide de la methode du tube. Les resultats montrent que la vitesse fondamentale de flamme permet de distinguer plusieurs niveaux d’inflammabilite. Outre les limites d’inflammabilite et le pouvoir calorifique, la vitesse fondamentale de flamme est un critere additionnel pour la classification des frigorigenes inflammables
The current flammability classifications do not address adequately the flammability hazard, and better assessment should be provided. The burning velocity is shown to be an appropriate parameter related to flammability hazard and can be used as an additional criterion for flammability classification of refrigerants. The burning velocity is related to the parameters of combustion initiation and the main consequences of flammability hazard. The derived formulations demonstrate that the burning velocity is a main parameter to be considered in the flammability classification. The vertical tube method is used to measure the burning velocity. The results show that the burning velocity allows to differentiate flammability levels. The maximum burning velocity is taken as additional criterion to the lower flammability limit and heat of combustion in the flammability classification of refrigerants
14

Hospital, Fabien. "Conception préliminaire des actionneurs électromagnétiques basée sur les modèles : lois d'estimations et règles de conception pour la transmission de puissance mécanique." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0036/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la continuité des travaux de recherches sur les systèmes de transmission mécanique embarqués, l’objectif de cette thèse est double : approfondir les modèles d’estimations des pièces d’un Actionneur Electromécanique (EMA) et étendre la vision transversale de la conception préliminaire aux aspects dynamiques. En effet, cette recherche permet, lors de la conception préliminaire basée sur les modèles, d’adapter les choix d’architectures et de technologies vis-à-vis des performances statiques et dynamiques à atteindre. Les modèles développés à partir des lois d’échelles sont étendus et exploités afin de modéliser les pièces élémentaires de l’EMA et de faire ressortir les règles de « bonnes pratiques » en conception préliminaire. On s’intéresse en particulier au dimensionnement des EMAs dans le domaine aéronautique. Dans un premier temps, nous avons donc créé des modèles d’estimation et des métamodèles des pièces de l’EMA. A cet effet, il est décomposé en carter et pièces élémentaires qu’il intègre.Dans un second temps, nous avons établis des règles de bonne conception et des pistes de dimensionnement de l’actionneur asservi en position. Contrairement aux recherches antérieures, qui se centraient sur le dimensionnement en puissance, nous avons pris en compte la synthèse de la commande pour établir ces règles. A partir de modèles de simulations, nous qualifions et quantifions l’influence des défauts (inertie et saturations, élasticité/jeu, frottement) sur les performances limites de l’EMA. En effet, les structures de commande usuelles et le choix des éléments de contrôle-commande sont intimement liés aux performances dynamiques et à ces défauts. Enfin, afin de se doter de moyens d’essais pour identifier finement un modèle de frottement dans des conditions aéronautiques de température, un banc d'essai sur le réducteur Harmonic Drive a été conçu et mis en œuvre. Il permet également d’amorcer la validation des règles de bonne conception
In the continuity of work of research on embedded systems of mechanical transmission, this these has two objectives: to improve estimation models of Electromechanical Actuator (EMA) pieces and to extend the cross-cutting vision of preliminary design to the dynamic aspects. Indeed, in the preliminary design based on models, this research should allow to adapt the choice of architectures and technologies to static and dynamic performance to achieve. The models developed from the scaling laws will be extended and exploited to modelize elementary pieces of the EMA and to highlight rules of "good practices" in preliminary design. We focus in particular on the design of EMA in aeronautic field. In the first time, we developed estimations models and métamodèles of elementary components of EMA which was decomposed in housing and elementary pieces.In a second time, we established rules of good practices for actuator sizing in control position loop. Contrary to older researches, we take into account control synthesis to create these rules. From simulations models, we quantified the influence of technological defects of components (inertia and saturations, elasticity (backlash), friction) on EMA performances. Indeed, the usual command structures and the choice of the elements of control are intimately linked to the dynamic performance and these defects.Finally, to give test way to identify with accuracy a friction model in aeronautical conditions of temperature, a test bench of Harmonic Drive was create, integrated and implemented. It allows booting the validation of rules of good practices in preliminary design
15

Hmida, Marwa. "Reconnaissance de formes basée sur l'approche possibiliste dans les images mammographiques." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0061/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face à l'augmentation significative du taux de mortalité par cancer du sein chez les femmes ainsi que la croissance continue du nombre de mammographies réalisées chaque année, le diagnostic assisté par ordinateur devient de plus en plus impératif pour les experts. Dans notre travail de thèse, une attention particulière est accordée aux masses mammaires vu qu'elles représentent le signe de cancer du sein le plus couramment observé en mammographies. Néanmoins, ces images présentent un très faible contraste, ce qui fait que les frontières entre les tissus sains et les masses sont mal définies. C'est ainsi qu'il est difficile de pouvoir discerner avec précision ces masses et de leur définir un contour unique. En outre, la complexité et la grande variabilité des formes des masses mammaires rendent les tâches de diagnostic et de classification difficiles. Dans ce cadre, nous proposons un système d'aide au diagnostic dont le but est la segmentation de masses dans les régions d'intérêt et par la suite la classification de ces masses en deux catégories : bénignes et malignes. La première étape de segmentation est une étape assez délicate vu que les étapes postérieures à savoir la caractérisation et la classification y sont dépendantes. En effet, une mauvaise segmentation peut entrainer une mauvaise prise de décision. Un tel cas peut survenir en raison de l'incertitude et l'imprécision émanant de l'image mammographique. C'est pour cette raison que nous proposons une définition de contours flous permettant de prendre en compte ces types d'imperfections. Ces contours flous sont introduits dans l'énergie d'un contour actif pour modifier son mouvement et aboutir à une délimitation exacte des masses. Une fois les régions d'intérêt sont segmentées, nous présentons une méthode de classification de masses basée sur la théorie des possibilités qui permet de modéliser les ambigüités inhérentes aux connaissances exprimées par l'expert. En outre, cette méthode utilise essentiellement les descripteurs de forme pour caractériser les masses et décider de leur degré de gravité vu que la forme des masses constitue un bon indicateur de gravité.La validation et l'évaluation de ces deux méthodes sont réalisées en utilisant les régions d'intérêt contenant des masses extraites de la base MIAS. Les résultats obtenus sont très intéressants et les comparaisons effectuées ont mis en évidence leurs performances
In view of the significant increase in breast cancer mortality rate among women as well as the continuous growth in number of mammograms performed each year, computer-aided diagnosis is becoming more and more imperative for experts. In our thesis work, special attention is given to breast masses as they represent the most common sign of breast cancer in mammograms. Nevertheless, mammographic images have very low contrast and breast masses possess ambiguous margins. Thus, it is difficult to distinguish them from the surrounding parenchymal. Moreover, the complexity and the large variability of breast mass shapes make diagnostic and classification challenging tasks.In this context, we propose a computer-aided diagnosis system which firstly segments masses in regions of interests and then classifies them as benign or malignant. Mass segmentation is a critical step in a computer-aided diagnosis system since it affects the performance of subsequent analysis steps namely feature analysis and classification. Indeed, poor segmentation may lead to poor decision making. Such a case may occur due to two types of imperfection: uncertainty and imprecision. Therefore, we propose to deal with these imperfections using fuzzy contours which are integrated in the energy of an active contour to get a fuzzy-energy based active contour model that is used for final delineation of mass.After mass segmentation, a classification method is proposed. This method is based on possibility theory which allows modeling the ambiguities inherent to the knowledge expressed by the expert. Moreover, since shape and margin characteristics are very important for differentiating between benign and malignant masses, the proposed method is essentially based on shape descriptors.The evaluation of the proposed methods was carried out using the regions of interest containing masses extracted from the MIAS base. The obtained results are very interesting and the comparisons made have demonstrated their performances
16

Zidi, Amir. "Recherche d'information dirigée par les interfaces utilisateur : approche basée sur l'utilisation des ontologies de domaine." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0012/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire porte sur l'utilisation des ontologies dans les systèmes de recherche d'information SRI dédiés à des domaines particuliers. Il se base sur une approche à deux niveaux, à savoir la formulation et la recommandation des requêtes. La formulation consiste à assister l'utilisateur dans l'expression de sa requête en se basant sur des concepts et des propriétés de l'ontologie de domaine utilisée. La recommandation consiste à proposer des résultats de recherche en utilisant la méthode du raisonnement à partir de cas. Dans cette méthode, une nouvelle requête est considérée comme un nouveau cas.La résolution de ce nouveau cas consiste à réutiliser les anciens cas similaires qui ne sont que des requêtes traitées auparavant. Afin de valider l'approche proposée, un système OntoCBRIR a été développé et un ensemble d'expérimentations a été élaboré. Enfin, les perspectives de recherche concluent le présent rapport
This thesis study the using of ontologies in information retrieval systemdedicated to a specific domain. For that we propose a two-level approach to deal with i) the query formulation that assists the user in selecting concepts and properties of the used ontology ; ii) the query recommendation that uses the case-based reasoning method, where a new query is considered as a new case. Solving a new case consists of reusing similar cases from the history of the previous similar cases already processed. For the validation of the proposed approaches, a system was developed and a set of computational experimentations was made. Finally, research perspectives conclude that this present report
17

Essayeh, Aroua. "Une approche de personnalisation de la recherche d'information basée sur le Web sémantique." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de cette thèse s’inscrit dans le cadre de la recherche d’information (RI) et plus précisément la recherche d’information personnalisée. En effet, avec la prolifération des données de différentes sources et malgré la diversité de méthodes et d’approches de la recherche d’information classique, cette dernière n’est plus considérée aujourd’hui comme un moyen efficace pour répondre aux exigences de l’utilisateur considéré comme l’acteur principal de tout système de recherche d’information (SRI). Dans ce travail de thèse, nous adressons deux principaux problèmes liés à la RI personnalisée : (1) la formalisation et la mise en œuvre d’un modèle utilisateur et (2) la formulation de la requête de recherche dans le but d’améliorer les résultats retournés à l'utilisateur en fonction de sa perception et de ses préférences. Pour atteindre ces objectifs, nous avons proposé une approche de recherche d’information guidée par les ontologies et basée sur l’utilisation sémantique des informations. En effet, notre contribution se décline en trois principaux points : (1) la modélisation et la construction de profil utilisateur suivant une approche ontologique modulaire. Ce modèle permet de capturer les informations relatives à l’utilisateur, de les modéliser suivant l’approche sémantique dans le but de les réutiliser pour des tâches de raisonnement et d’inférence ; (2) la reformulation sémantique de la requête de recherche en exploitant les concepts, les relations syntaxiques et non syntaxiques entre les concepts et les propriétés ; et finalement, (3) la recommandation des résultats qui consiste à proposer des résultats de recherche en se basant sur l’ensemble des communautés utilisateurs construites par l’approche de classification non supervisée « Fuzzy K-mode » améliorée. Ces communautés sont aussi modélisées sémantiquement dans l’ontologie modulaire de profil. Ensuite, afin de valider l’approche proposée, nous avons mis en œuvre un système pour la recherche des itinéraires dans le transport public. Enfin, cette thèse propose des perspectives de recherche sur la base des limites rencontrées
This PhD thesis reports on a recent study in the field of information retrieval (IR), more specifically personalized IR. Traditional IR uses various methods and approaches. However, given the proliferation of data from different sources, traditional IR is no longer considered to be an effective means of meeting users’ requirements. (‘Users’ here refers to the main actor in an IR system.) In this thesis, we address two main problems related to personalized IR: (1) the development and implementation of a user model; and (2) the formulation of a search query to improve the results returned to users according to their perceptions and preferences. To achieve these goals, we propose a semantic information search approach, based on the use of semantic information and guided by ontologies. The contribution of our work is threefold. First, it models and constructs user profiles following a modular ontological approach; this model allows the capture of information related to the user, and models the data according to the semantic approach so that the data can be re-used for reasoning and inference tasks. Second, it provides evidence for reformulating a query by exploiting concepts, hierarchical and non-hierarchical relationships between concepts and properties. Third, based on our findings, we recommend search results that are informed by the user’s communities, built by the improved unsupervised classification approach called the ‘Fuzzy K-mode’. These communities are also semantically modeled with modular profile ontology. To validate our proposed approach, we implemented a system for searching the itineraries for public transport. Finally, this thesis proposes research perspectives based on the limitations we encountered
18

Chaari, Anis. "Nouvelle approche d'identification dans les bases de données biométriques basée sur une classification non supervisée." Phd thesis, Université d'Evry-Val d'Essonne, 2009. http://tel.archives-ouvertes.fr/tel-00549395.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux effectués dans le cadre de cette thèse portent sur l'identification automatique de visages dans des bases de données d'images numériques. L'objectif est de simplifier le déroulement de l'identification biométrique qui consiste à la recherche de l'identité requête parmi l'ensemble des individus de la base de données préenregistrée, appelée aussi galerie. En effet, le schéma d'identification classique est complexe et très coûteux notamment dans le cas de grandes bases de données biométriques. Le processus original que nous proposons ici a pour objectif de réduire la complexité et d'améliorer les performances en terme de temps de calcul et de taux d'identification. Dans ce cadre biométrique, nous avons proposé une étape de classification non supervisée ou clustering des visages pour partitionner la base d'images en plusieurs sous ensembles cohérents et bien discriminés. Pour ce faire, l'algorithme de clustering vise à extraire, pour chaque visage, un ensemble de descripteurs, appelé signature, qui lui soit spécifique. Trois techniques de représentation faciales ont été développées dans le but d'extraire des informations différentes et complémentaires décrivant le visage humain : deux méthodes factorielles d'analyse multidimensionnelle et de projection des données (méthodes dites « Eigenfaces » et « Fisherfaces ») ainsi qu'une méthode d'extraction des moments géométriques de Zernike. Sur la base des différentes classes de signatures extraites pour chaque visage plusieurs méthodes de clustering sont mises en compétition afin de dégager la classification optimale qui conduit à une meilleure réduction de la galerie. Les méthodes retenues sont, soit de type « centres mobiles » telles que les K-moyennes et les centres mobiles de Forgy, ou de type « agglomérative » telle que la méthode de BIRCH. Sur la base de la dépendance des partitions générées, ces différentes stratégies classificatoires sont ensuite combinées suivant une architecture parallèle de manière à optimiser la réduction de l'espace de recherche à un sous ensemble de la base de données. Les clusters retenus in fine étant ceux pour lesquels la probabilité d'appartenance de l'identité requête est quasi certaine.
19

Guernine, Taoufik. "Classification hiérarchique floue basée sur le SVM et son application pour la catégorisation des documents." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/4838.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La croissance exponentielle des moyens de communication durant ces dernières années et en particulier l'Internet a contribué à l'augmentation du volume de données traitées via les réseaux informatiques. Cette croissance a poussé les chercheurs à penser à la meilleure façon de structurer ces données pour faciliter leur accès et leur classification. À ce problème de classification, plusieurs techniques ont été proposées. Dans la pratique, nous constatons deux grandes familles de problèmes de classification, les problèmes binaires et les problèmes multi-classes. Le premier constat ayant attiré notre attention est l'existence du problème de confusion de classes lors de la classification. Ce phénomène rend les résultats ambigus et non interprétables. Le deuxième constat est la difficulté de résoudre ces problèmes par les méthodes existantes surtout dans le cas où les données ne sont pas linéairement séparables. En outre, les méthodes existantes souffrent des problèmes de complexité en temps de calcul et d'espace mémoire. Afin de remédier à ces problèmes, nous proposons une nouvelle méthode de classification qui s'articule autour de trois principaux concepts: la classification hiérarchique, la théorie de la logique floue et la machine à vecteur de support (SVM). À cet égard et vu l'importance accordée au domaine de classification des textes, nous adaptons notre méthode pour faire face au problème de la catégorisation des textes. Nous testons la méthode proposée sur des données numériques et des données textuelles respectivement. Les résultats expérimentaux ont démontré une performance considérable comparativement à certaines méthodes de classification.
20

Delahaye, Alexandre. "Classification multi-échelle d'images à très haute résolution spatiale basée sur une nouvelle approche texturale." Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8935.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Abstract : Classifying remote sensing images is an increasingly difficult task due to the availability of very high spatial resolution (VHSR) data. The amount of details in such images is a major obstacle to the use of spectral classification methods as well as most textural classification algorithms, including statistical methods. However, structural methods offer an interesting alternative to this issue: these object-oriented approaches focus on analyzing the structure of an image in order to interpret its meaning. In the first part of this thesis, we propose a new algorithm belonging to this category: KPC (KeyPoint-based Classification). KPC is based on keypoint detection and analysis and offers an efficient answer to the issue of classifying VHSR images. Tests led on artificial and real remote sensing images have proven its discriminating power. Furthermore, many studies have proven that evidential fusion (based on Dempster-Shafer theory) is well-suited to remote sensing images because of its ability to handle abstract concepts such as ambiguity and uncertainty. However, few studies did focus on the application of this theory to complex textural data such as structural data. This issue is dealt with in the second part of this thesis; we focused on fusing multiscale KPC classifications with the help of Dempster-Shafer theory. Tests have shown that this multi-scale approach leads to an increase in classification efficiency when the original image has a low quality. Our study also points out a substantial potential for improvement gained from the estimation of intermediate classifications reliability and provides ideas to get these estimations.
21

Gan, Changquan. "Une approche de classification non supervisée basée sur la notion des K plus proches voisins." Compiègne, 1994. http://www.theses.fr/1994COMP765S.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La classification non supervisée a pour objectif de définir dans un ensemble de données des classes permettant de caractériser la structure interne des données. C’est une technique très utile dans de nombreux domaines technologiques comme en diagnostic des systèmes complexes (pour la mise en évidence de modes de fonctionnement) et en vision par ordinateur (pour la segmentation d'image). Les méthodes traditionnelles de la classification non supervisée présentent plusieurs problèmes en pratique, par exemple, la nécessité de préfixer le nombre de classes, le manque de stratégie appropriée pour le réglage de paramètres et la difficulté de valider le résultat obtenu. Dans cette thèse nous tentons d'apporter une solution à ces problèmes en développant une nouvelle approche basée sur la notion des K plus proches voisins. Alliant la détection de mode et la recherche de graphe reflétant la proximité des données, cette approche identifie d'abord les centres de classe, puis construit une classe autour de chaque centre. Elle n'emploie aucune connaissance a priori sur les données et ne possède qu'un seul paramètre. Une stratégie de réglage de ce paramètre a été établie après une étude théorique et une analyse expérimentale. L’idée est de rechercher la stabilité du résultat de classification. Des tests présentés dans ce mémoire montrent une bonne performance de l'approche proposée ; elle est libre d'hypothèse sur la nature des données, relativement robuste et facile à utiliser
22

Dou, Weibei. "Segmentation d'images multispectrales basée sur la fusion d'informations : application aux images IRM." Caen, 2006. http://www.theses.fr/2006CAEN2026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse consiste à développer une architecture de fusion d'informations basée sur la théorie floue pour la segmentation d'une cible à partir de plusieurs sources d'images. Notre application principale porte sur la segmentation des images IRM multispectrales. Nous proposons une approche de segmentation automatique basée sur la fusion des caractéristiques extraites de chaque source d'image. Ces caractéristiques sont modélisées par des fonctions d'appartenance, obtenues à partir de fonctions analytiques, qui prennent en compte des connaissances à priori sur la possibilité d'appartenance à une cible (tumeur ou tissus cérébraux) donnée par l'expert, et aussi la gradation d'intensité du signal de la cible. La segmentation d'une cible consiste finalement à combiner les différents degrés d'appartenance de la cible. Une étape supplémentaire basée sur une croissance 3D des régions floues est proposée pour améliorer le résultat de la combinaison. Pour évaluer les résultats de segmentation représentés par un ensemble flou, une extension du coefficient Kappa de Cohen, nommée "Kappa flou" est proposée, qui est une méthode d'évaluation globale sur la proportion d'agrément d'un classement flou. Cette architecture développée est mise en oeuvre pour la segmentation des tumeurs cérébrales à partir des images IRM qui comprennent pour l'instant les séquences de base : T1, T2 et densité de protons (DP). Les résultats sur sept patients atteints de tumeur montrent l'efficacité de notre système.
23

Mbow, Mouhamadou Mansour. "Aide à la décision basée sur l'expertise métier dans le domaine de la FAO pour la fabrication additive : une approche par mathématisation des règles." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALI082.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les opérations de préparation ou de FAO en fabrication additive (FA) par fusion sur lit de poudre (FLP) consistent en des opérations complexes telles que la définition de l’orientation des pièces, la conception des supports, l’imbrication ou le nesting des pièces, etc. La définition de l’orientation des pièces dans l’espace de production est la première étape et plusieurs études ont montré que toutes les étapes restantes dépendent d’elle tout comme la qualité, le coût ainsi que le temps de production de la pièce. Sa définition n’est donnée que par deux paramètres d’angle de rotation dans la référence globale de la machine, mais leur définition est complexe et nécessite de fortes compétences dans le domaine. Des études dans la littérature ont montrées que les utilisateurs industriels se basent sur leurs connaissancesmétier pour y parvenir. Aujourd’hui, malgré les progrès techniques, il y aencore un manque d’outils et de méthodes pour prendre en compte cette expertise formalisée. Dans ce contexte, cette thèse (issue du projet ANR COFFA) propose des méthodes et des outils pour intégrer efficacement les connaissances formalisées des experts dans le processus de prise de décision sur les paramètres de la FAO dans le domaine de FLP et de la FA en général.Dans un premier temps, la revue des méthodes d’utilisation d’expertise dansla prise de décision en FAO de fabrication traditionnelle est présentée dans le but de trouver les inconvénients et possibilités pour une intégration en FA. En deuxième lieu, une investigation des types de connaissances pouvant être utilisés pour l’aide à la prise de décision est effectuée. Cette partie du travail explore également les ressources en connaissances disponibles pour la définition de l’orientation des pièces dans la littérature mais aussi dans la pratique industrielle. La troisième partie du travail présente une nouvelle approche pour transformer les connaissances de type règle d’action en des fonctions de désirabilité. Cette approche permet notamment d’évaluer ces règles d’action sur des pièces et d’obtenir une appréciation quantitative qui est considérée comme le niveau de respect de la règle (lorsque les paramètres de la FAO s’appliquent à la pièce). Ensuite cette approche est appliquée aux règles d’action trouvées dans la deuxième partie du travail pour établir des modèles quantitatifs destinés au calcul de la désirabilité d’orientation des pièces. Enfin, un outil de calcul de cette désirabilité d’orientation et d’aide à la décision est présenté. L’utilisation de l’outil est illustrée par des études de cas de pièces industrielles dont les résultats sont comparés à ceux d’outils commerciaux, et à travers des tests réalisés avec des étudiants en écoles l’ingénieurs.La principale sortie de ce projet est la fourniture de moyens numériques pour aider les opérateurs de FAO à prendre des décisions sur les paramètres de fabrication optimaux en fonction de l’expertise de l’entreprise. De plus, l’approche présentée offre la possibilité de re-concevoir des pièces en ciblant les surfaces qui ont une faible désirabilité par rapport à l’orientation de la pièce
Pre-processing or CAM operations in additive manufacturing (AM) by powder bedfusion (PBF) include complex operations such as the definition of part orientation, the design of support structures, the nesting of parts, etc. The definition of the parts orientation in the manufacturing build space is the first step and several studies have shown that all of the remaining steps depend on it as well as the quality, cost and production time of the part. Its definition is given by only two rotation angle parameters in the global machine reference, but their definition is complex and requires strong skills in the field. Studies in the literature have shown that industrial users rely on their knowledge or expertise of the process to achieve this. Today, despite the technical advances, there is still a lack of tools or methods to take into account this formalized expertise. In this context, this thesis (from ANR COFFA project) proposes methods and tools to efficiently include the formalized knowledge of experts in the decision making process of CAM parameters, in PBF and AM in general.As a first step, the review of methods to use expertise in decision making in traditional manufacturing CAM is presented in order to find the disadvantages and possibilities for integration in AM. Secondly, an investigation of the types of knowledge that can be used for decision support is carried out. This part of the work also explores the knowledge resources available for the definition of part orientation in the research literature but also in the industrial practice. The third part of the work presents a new approach for transforming knowledge of action rule type into desirability functions. This approach allows in particular to evaluate these action rules on parts and to obtain a quantitative appreciation which is considered as the level of respect of the rule (when the CAM parameters applied to the part). Then, this approach is applied to the action rules found in the second part of the work to establish quantitative models for the calculation of orientation desirability. Finally, a tool for the calculation of this orientation desirability and decision-making support is presented. The use of the tool is illustrated through case studies of industrial parts benchmarked with commercial tools, and through tests carried out with engineering school students.The main output of this project is the provision of numerical means to assistCAM operators in their decision-making on optimal manufacturing parameters based on the company expertise. In addition, the approach presented offers the possibility of redesigning parts by targeting surfaces that have a low desirability with respect to the part orientation
24

Jouini, Mohamed Soufiane. "Caractérisation des réservoirs basée sur des textures des images scanners de carottes." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13769/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les carottes, extraites lors des forages de puits de pétrole, font partie des éléments les plus importants dans la chaîne de caractérisation de réservoir. L’acquisition de celles-ci à travers un scanner médical permet d’étudier de façon plus fine les variations des types de dépôts. Le but de cette thèse est d’établir les liens entre les imageries scanners 3D de carottes, et les différentes propriétés pétrophysiques et géologiques. Pour cela la phase de modélisation des images, et plus particulièrement des textures, est très importante et doit fournir des descripteurs extraits qui présentent un assez haut degrés de confiance. Une des solutions envisagée pour la recherche de descripteurs a été l’étude des méthodes paramétriques permettant de valider l’analyse faite sur les textures par un processus de synthèse. Bien que ceci ne représente pas une preuve pour un lien bijectif entre textures et paramètres, cela garantit cependant au moins une confiance en ces éléments. Dans cette thèse nous présentons des méthodes et algorithmes développés pour atteindre les objectifs suivants : 1. Mettre en évidence les zones d’homogénéités sur les zones carottées. Cela se fait de façon automatique à travers de la classification et de l’apprentissage basés sur les paramètres texturaux extraits. 2. Établir les liens existants entre images scanners et les propriétés pétrophysiques de la roche. Ceci se fait par prédiction de propriétés pétrophysiques basées sur l’apprentissage des textures et des calibrations grâce aux données réelles.
Cores extracted, during wells drilling, are essential data for reservoirs characterization. A medical scanner is used for their acquisition. This feature provide high resolution images improving the capacity of interpretation. The main goal of the thesis is to establish links between these images and petrophysical data. Then parametric texture modelling can be used to achieve this goal and should provide reliable set of descriptors. A possible solution is to focus on parametric methods allowing synthesis. Even though, this method is not a proven mathematically, it provides high confidence on set of descriptors and allows interpretation into synthetic textures. In this thesis methods and algorithms were developed to achieve the following goals : 1. Segment main representative texture zones on cores. This is achieved automatically through learning and classifying textures based on parametric model. 2. Find links between scanner images and petrophysical parameters. This is achieved though calibrating and predicting petrophysical data with images (Supervised Learning Process)
25

Plaud, Angéline. "Classification ensembliste des séries temporelles multivariées basée sur les M-histogrammes et une approche multi-vues." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mesure des différents phénomènes terrestres et l’échange d’informations ont permis l’émergence d’un type de données appelé série temporelle. Celle-ci se caractérise par un grand nombre de points la composant et surtout par des interactions entre ces points. En outre, une série temporelle est dite multivariée lorsque plusieurs mesures sont captées à chaque instant de temps. Bien que l’analyse des séries temporelles univariées, une mesure par instant, soit très développée, l’analyse des séries multivariées reste un challenge ouvert. En effet, il n’est pas possible d’appliquer directement les méthodes univariées sur les données multivariées, car il faut tenir compte des interactions entre séries de mesures.De plus, dans le cadre d’applications industrielles, les séries temporelles ne sont pas composées d’un même nombre de mesures, ce qui complique encore leur analyse. Or les méthodes mises à disposition, aujourd’hui, pour la classification supervisée de ces séries, ne permettent pas de répondre de manière satisfaisante à cette problématique en plus d’une gestion rapide et efficace des données. Cette approche emploie donc un nouvel outil, qui n’a jamais été utilisé dans le domaine de la classification de séries temporelles multivariées, qui est le M-histogramme pour répondre à cette question.Un M-histogramme est à la base une méthode de visualisation sur M axes de la fonction de densité sous-jacente à un échantillon de données. Son utilisation ici permet de produire une nouvelle représentation de nos données afin de mettre en évidence les interactions entre dimensions.Cette recherche de liens entre dimensions correspond aussi tout particulièrement à un sous-domaine d’apprentissage, appelé l’apprentissage multi-vues. Où une vue est une extraction de plusieurs dimensions d’un ensemble de données, de même nature ou type. L’objectif est alors d’exploiter le lien entre ces dimensions afin de mieux classifier les dites données, au travers d’un modèle ensembliste permettant d’agréger les prédictions émises à partir de chaque vue. Dans cette thèse, nous proposons donc une méthode multi-vues ensembliste de M-histogrammes afin de classifier les Séries Temporelles Multivariées (STM). Cela signifie que plusieurs M-histogrammes sont créés à partir de plusieurs vues des STM exploitées. Une prédiction est ensuite réalisée grâce à chaque M-histogramme. Enfin ces prédictions sont ensuite agrégées afin de produire une prédiction finale.Il est montré dans la suite que la méthode ainsi créée est capable de répondre au problème général de la classification supervisée de STM et son efficacité est exposée sur un cas applicatif Michelin
Recording measurements about various phenomena and exchanging information about it, participate in the emergence of a type of data called time series. Today humongous quantities of those data are often collected. A time series is characterized by numerous points and interactions can be observed between those points. A time series is multivariate when multiple measures are recorded at each timestamp, meaning a point is, in fact, a vector of values. Even if univariate time series, one value at each timestamp, are well-studied and defined, it’s not the case of multivariate one, for which the analysis is still challenging. Indeed, it is not possible to apply directly techniques of classification developed on univariate data to the case of multivariate one. In fact, for this latter, we have to take into consideration the interactions not only between points but also between dimensions. Moreover, in industrial cases, as in Michelin company, the data are big and also of different length in terms of points size composing the series. And this brings a new complexity to deal with during the analysis. None of the current techniques of classifying multivariate time series satisfies the following criteria, which are a low complexity of computation, dealing with variation in the number of points and good classification results. In our approach, we explored a new tool, which has not been applied before for MTS classification, which is called M-histogram. A M-histogram is a visualization tool using M axis to project the density function underlying the data. We have employed it here to produce a new representation of the data, that allows us to bring out the interactions between dimensions. Searching for links between dimensions correspond particularly to a part of learning techniques called multi-view learning. A view is an extraction of dimensions of a dataset, which are of same nature or type. Then the goal is to display the links between the dimensions inside each view in order to classify all the data, using an ensemble classifier. So we propose a multi-view ensemble model to classify multivariate time series. The model creates multiple M-histograms from differents groups of dimensions. Then each view allows us to get a prediction which we can aggregate to get a final prediction. In this thesis, we show that the proposed model allows a fast classification of multivariate time series of different sizes. In particular, we applied it on aMichelin use case
26

Dhouib, Diala. "Aide multicritère au pilotage d'un processus basée sur le raisonnement à partir de cas." Paris 8, 2009. http://octaviana.fr/document/149146086#?c=0&m=0&s=0&cv=0f.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose des outils d'aide multicritère à la décision pour le pilotage d'un processus basés sur la capitalisation des connaissances à travers la technique du raisonnement à partir de cas (RàPC). Deux modèles ont été développés. Le premier modèle, se basant sur des cas analogues passés, aide le pilote d'un processus à résoudre un nouveau problème. Ceci étant en tenant compte aussi bien des relations de causalités qui existent entre les indicateurs et les inducteurs de performance que des relations de dépendance qui surgissent entre les différents critères. Le deuxième modèle est basé sur une hybridation entre le RàPC et le clustering. Il cherche à améliorer les phases : représentation des cas, recherche de cas similaires et maintenance de la base de cas du cycle du RàPC. Ces deux modèles peuvent fonctionner en relation de complémentarité. En effet, le deuxième modèle basé sur le clustering permet, d'abord, de former des groupes homogènes y compris le nouveau cas qu'on veut chercher sa solution. Ensuite, après avoir obtenu le cluster contenant le nouveau cas avec ses cas similaires, le premier modèle sera déclenché pour trouver le cas le plus proche. Toutefois, les critères utilisés par ces deux modèles sont quantitatifs. Pour cela, une approche linguistique a été utilisée pour gérer des données non homogènes, c'est-à-dire numériques et linguistiques. Ces deux modèles ont été appliqués dans un cas industriel réel de fabrication d'emballages en carton. Ils ont été aussi implémentés dans un prototype informatique sous forme d'un Système Interactif d'Aide au Pilotage d'un Processus (SIAPP) à travers des interfaces pour mieux valider leurs applications
This thesis proposes tools of multicriteria decision aid for process piloting based on the knowledge capitalization via the Case-Based Reasoning (CBR) technique. Two models have been developed. The first model, using past similar cases, helps the pilot of a process to resolve a new problem. This is done by taking into account causalities relations which exist between performance inductors and indicators as well as dependence relations between criteria. The second model is based on hybridization between the CBR and the clustering. It tries to improve the phases: cases representation, similar cases retrieval and case base maintenance of the CBR cycle. The application of a clustering method represents a way of arranging the case base to facilitate the piloting aid. These two models can be executed in a complementarity relation. Indeed, the second model based on clustering allows, at first, to form homogeneous groups including the new case to look for its solution. Then, after obtaining the cluster containing the new case with its similar cases, the first model will be activated to find the closest. However, criteria used by these two models are quantitative. For that purpose, a linguistic approach was used to apply non homogeneous data which can be numeric or linguistic. These two models were applied in a real industrial case of cardboard packagings manufacturing. They were also implemented in a computer prototype in the form of an Interactive System of Process Piloting Aid (ISPPA) via interfaces to better validate their applications
27

Gacem, Amina. "Méthodologie d’évaluation de performances basée sur l’identification de modèles de comportements : applications à différentes situations de handicap." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évaluation de performance est un processus important pour identifier les capacités d'une personne et ses limites. L'évaluation, à l'heure actuelle, repose sur l'intervention subjective d'une personne experte (médecin, ergothérapeute, etc. ) qui doit effectuer des analyses et des tests différents pour aboutir à une décision. Dans la littérature, plusieurs travaux proposent différentes méthodes d'évaluation plus objectives reposant sur des critères et des indicateurs de performance : il s'agit d'une évaluation quantitative. Ce type d'évaluation est basé généralement sur des analyses statistiques. Le travail effectué dans cette thèse consiste à proposer une nouvelle méthodologie d'évaluation de performance basée sur l'identification de modèles de comportement. La démarche, que nous adoptons, permet de déterminer, à partir d'indicateurs de performance, des comportements de référence généralement issus de l'évaluation fonctionnelle de personnes expérimentées dans le domaine. Ces comportements serviront ensuite de références pour l'évaluation d'autres personnes. L'identification de comportements de référence est donc un élément essentiel de notre travail. Il est basé sur des méthodes de classification. Dans le cadre de ce travail, nous avons testé deux méthodes différentes. La première est la méthode de "Fuzzy C-means" qui permet une recherche approfondie de comportements de référence mais ceux-ci sont représentés par des indicateurs représentatifs. La deuxième est la méthode de "Hidden Markov Models". Celle-ci permet de représenter un comportement par sa variation dans le temps mais elle nécessite une phase d'apprentissage coûteuse permettant de modéliser les comportements de référence. Cette méthodologie d'évaluation a été testée dans le cadre d'applications de différentes fonctions d'interface de commande : la conduite de fauteuil roulant électrique, la conduite d'automobile et l'utilisation des interfaces de pointage bureautiques. Dans chaque application, un protocole et une mise en situation écologique sont définis pour évaluer les participants sur des plateformes fonctionnelles faisant intervenir des interfaces de commande variées (joystick, souris, volant, etc. ). Ensuite, des outils statistiques sont utilisés afin d'analyser les données et de fournir ainsi une première interprétation des comportements. L'application de notre méthodologie dans chacune des situations étudiées permet d'identifier automatiquement différents comportements de référence. Ensuite, l'évaluation fonctionnelle des personnes, effectuée par comparaison aux comportements de références identifiés, a permis d'identifier différents niveaux d'expertise. Le processus d'évaluation permet d'illustrer l'évolution de l'apprentissage durant l'évaluation et de détecter la stabilité de la personne. La méthodologie d'évaluation proposée est un processus itératif permettant d'enrichir la population de personnes d'expérimentées par les personnes devenues stables à l'issue de l'évaluation. Ceci permet donc la recherche de nouveaux comportements de référence
The performance assessment is an important process to identify the abilities and the limits of a person. Currently, the assessment requires the mediation of a specialist (doctor, therapist, etc. ) which must performs analysis and tests to reach a subjective decision. In the literature, several works propose assessment methods based on performance criteria: it is a quantitative evaluation which is objective. This type of evaluation is usually based on statistical analysis. In this work, a new methodology of performance assessment is proposed. It is based on the identification of reference behaviours. Those behaviours are then used as references for the evaluation of other people. The identification of reference behaviours is an essential element of our work. It is based on classification methods. In our work, we have tested two different methods. The first one is the "Fuzzy C-means" which allows a thorough search of reference behaviours. However, behaviours are represented by proxy criteria. The second method is the "Hidden Markov Models". It offers a time series analysis based on the temporal behaviour variation. However, it is not easy to determine the training phase of this method. This assessment methodology has been applied in the context of different applications designed for disabled people: driving electric wheelchair, driving an automobile and the use of pointing devices (mouse, trackball, joystick, etc. ). In each application, a protocol and an ecological situation are defined in order to evaluate participants on different platforms involving functional control interfaces (joystick, mouse, steering wheel, etc. ). Then, statistical tools are used to analyze the data and provide a first interpretation of behaviours. The application of our methodology identifies different reference behaviours and the assessment by comparing behaviours let to identify different levels of expertise. In each of the studied applications, our methodology identifies automatically different reference behaviours. Then, the assessment of people, carried out by comparing to the reference behaviours, let identify different levels of expertise and illustrate the evolution of learning during the assessment. The proposed evaluation methodology is an iterative process. So that, the population of experienced people can be enriched by adding people who become stable after assessment. Therefore, this allows the search for new reference behaviours
28

Malgouyres, Hugues. "Définition et détection automatique des incohérences structurelles et comportementales des modèles UML : Couplage des techniques de métamodélisation et de vérification basée sur la programmation logique." Toulouse, INSA, 2006. http://www.theses.fr/2006ISAT0038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but du travail présenté dans ce mémoire est de fournir un moyen permettant d'assurer la cohérence des modèles UML. Deux aspects ont été abordés au cours de cette thèse, l'étape de définition de la cohérence et l'étape de vérification automatique de celle-ci. Un document dont le but est de recenser l'ensemble des règles de cohérence des modèles UML a été produit. Il contient 650 règles de cohérence dont la moitié sont des règles nouvelles, fruit de l'analyse de la sémantique d'UML. La deuxième partie s'intéresse à la vérification automatique de ces règles de cohérence. La méthode développée associe les techniques de métamodélisation et les techniques de vérification de systèmes dynamiques en programmation logique. La programmation logique est utilisée pour encoder les modèles UML, pour formaliser leur sémantique opérationnelle et pour exprimer les incohérences à détecter. La détection des incohérences structurelles et comportementales est ainsi possible. Un prototype a enfin été développé. Les résultats d'une expérimentation sur un modèle industriel du secteur avionique valident l'intérêt de l'approche
The purpose of this thesis is to develop a method that permits to ensure the UML model consistency. Two aspects have been addressed, the consistency definition and the consistency checking. The first step has led to a document that contains 650 consistency rules. Half of these rules are new consistency rules deduced from UML semantics. The aim is to make a census of all consistency rules. The second step concerns consistency checking. The developed method associates meta-modeling with system verification in logic programming techniques. Logic programming is used to encode UML model, to formalize UML operational semantics and to express the inconsistencies. The detection of structural and behavioral inconsistencies is then enabled. To conclude, a prototype has been developed. Experimental results on an industrial model from avionics domain corroborate the practical interest of the approach
29

Georgescu, Vera. "Classification de données multivariées multitypes basée sur des modèles de mélange : application à l'étude d'assemblages d'espèces en écologie." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00624382.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En écologie des populations, les distributions spatiales d'espèces sont étudiées afin d'inférer l'existence de processus sous-jacents, tels que les interactions intra- et interspécifiques et les réponses des espèces à l'hétérogénéité de l'environnement. Nous proposons d'analyser les données spatiales multi-spécifiques sous l'angle des assemblages d'espèces, que nous considérons en termes d'abondances absolues et non de diversité des espèces. Les assemblages d'espèces sont une des signatures des interactions spatiales locales des espèces entre elles et avec leur environnement. L'étude des assemblages d'espèces peut permettre de détecter plusieurs types d'équilibres spatialisés et de les associer à l'effet de variables environnementales. Les assemblages d'espèces sont définis ici par classification non spatiale des observations multivariées d'abondances d'espèces. Les méthodes de classification basées sur les modèles de mélange ont été choisies afin d'avoir une mesure de l'incertitude de la classification et de modéliser un assemblage par une loi de probabilité multivariée. Dans ce cadre, nous proposons : 1. une méthode d'analyse exploratoire de données spatiales multivariées d'abondances d'espèces, qui permet de détecter des assemblages d'espèces par classification, de les cartographier et d'analyser leur structure spatiale. Des lois usuelles, telle que la Gaussienne multivariée, sont utilisées pour modéliser les assemblages, 2. un modèle hiérarchique pour les assemblages d'abondances lorsque les lois usuelles ne suffisent pas. Ce modèle peut facilement s'adapter à des données contenant des variables de types différents, qui sont fréquemment rencontrées en écologie, 3. une méthode de classification de données contenant des variables de types différents basée sur des mélanges de lois à structure hiérarchique (définies en 2.). Deux applications en écologie ont guidé et illustré ce travail : l'étude à petite échelle des assemblages de deux espèces de pucerons sur des feuilles de clémentinier et l'étude à large échelle des assemblages d'une plante hôte, le plantain lancéolé, et de son pathogène, l'oïdium, sur les îles Aland en Finlande
30

Shahzad, Atif. "Une Approche Hybride de Simulation-Optimisation Basée sur la fouille de Données pour les problèmes d'ordonnancement." Phd thesis, Université de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00647353.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une approche hybride basée sur la fouille de données pour découvrir de nouvelles règles de priorité pour le problème l'ordonnancement job-shop est présentée. Cette approche est basée sur la recherche de connaissances supposées être intégrés dans les solutions efficaces fournies par un module d'optimisation préalablement mis en oeuvre et utilisant la recherche tabou. L'objectif est de découvrir les principes directeurs de l'ordonnancement à l'aide de la fouille de données et donc d'obtenir un ensemble de règles capables d'obtenir des solutions efficaces pour un problème d'ordonnancement. Une structure basée sur fouille de données est présentée et mise en œuvre pour un problème de job shop avec comme objectifs le retard maximum et le retard moyen. Les résultats obtenus sont très prometteurs.
31

Al-Najdi, Atheer. "Une approche basée sur les motifs fermés pour résoudre le problème de clustering par consensus." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4111/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le clustering est le processus de partitionnement d’un ensemble de données en groupes, de sorte que les instances du même groupe sont plus semblables les unes aux autres qu’avec celles de tout autre groupe. De nombreux algorithmes de clustering ont été proposés, mais aucun d’entre eux ne s’avère fournir une partitiondes données pertinente dans toutes les situations. Le clustering par consensus vise à améliorer le processus de regroupement en combinant différentes partitions obtenues à partir de divers algorithmes afin d’obtenir une solution de consensus de meilleure qualité. Dans ce travail, une nouvelle méthode de clustering par consensus, appelée MultiCons, est proposée. Cette méthode utilise la technique d’extraction des itemsets fréquents fermés dans le but de découvrir les similitudes entre les différentes solutions de clustering dits de base. Les similitudes identifiées sont représentées sous une forme de motifs de clustering, chacun définissant un accord entre un ensemble de clusters de bases sur le regroupement d’un ensemble d’instances. En traitant ces motifs par groupes, en fonction du nombre de clusters de base qui définissent le motif, la méthode MultiCons génère une solution de consensus pour chaque groupe, générant par conséquence plusieurs consensus candidats. Ces différentes solutions sont ensuite représentées dans une structure arborescente appelée arbre de consensus, ouConsTree. Cette représentation graphique facilite la compréhension du processus de construction des multiples consensus, ainsi que les relations entre les instances et les structures d’instances dans l’espace de données
Clustering is the process of partitioning a dataset into groups, so that the instances in the same group are more similar to each other than to instances in any other group. Many clustering algorithms were proposed, but none of them proved to provide good quality partition in all situations. Consensus clustering aims to enhance the clustering process by combining different partitions obtained from different algorithms to yield a better quality consensus solution. In this work, a new consensus clustering method, called MultiCons, is proposed. It uses the frequent closed itemset mining technique in order to discover the similarities between the different base clustering solutions. The identified similarities are presented in a form of clustering patterns, that each defines the agreement between a set of base clusters in grouping a set of instances. By dividing these patterns into groups based on the number of base clusters that define the pattern, MultiCons generates a consensussolution from each group, resulting in having multiple consensus candidates. These different solutions are presented in a tree-like structure, called ConsTree, that facilitates understanding the process of building the multiple consensuses, and also the relationships between the data instances and their structuring in the data space. Five consensus functions are proposed in this work in order to build a consensus solution from the clustering patterns. Approach 1 is to just merge any intersecting clustering patterns. Approach 2 can either merge or split intersecting patterns based on a proposed measure, called intersection ratio
32

L'Héritier, Cécile. "Une approche de retour d’expérience basée sur l’analyse multicritère et l’extraction de connaissances : Application au domaine humanitaire." Thesis, Nîmes, 2020. http://www.theses.fr/2020NIME0001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce sujet de recherche est centré sur la problématique de gestion des connaissances et des savoir-faire au sein d’une l’organisation humanitaire intervenant en situations d’urgence. Dans le contexte d’une ONG, possédant une grande richesse immatérielle, la capitalisation – et à plus grande échelle de la gestion de connaissance – répond à des enjeux à la fois opérationnels et stratégiques. Les objectifs de ce travail de recherche consistent donc, dans une première phase, à définir, développer puis tester et valider des méthodes et outils adaptés pour mener une capitalisation au sein de l’organisation grâce au retour d’expérience. Dans un second temps, l’exploitation et l’analyse des récits et des données extraites permettront de définir les processus de décision qui ont été impliqués pour résoudre une situation d’urgence donnée. Plus précisément, il s’agira d’expliquer pourquoi et comment les décisions ont été prises en situation d’urgence. L’objectif sera de dégager, non pas une somme d’information mais une manière de réfléchir et de raisonner, transférable et réutilisable permettant de résoudre d’autres situations présentant des similitudes. L’ensemble de ce travail fournira des éléments et outils permettant l’amélioration des pratiques et leur diffusion ou transmission en facilitant et en rendant plus efficace la formation au sein de l’organisation. Le retour d’expérience, RETEX, sera abordé comme un des éléments d’une démarche de progrès, et non comme une évaluation formulant un jugement sur l’action par rapport à un cadre règlementaire. La capitalisation doit révéler la manière qui a permis d’atteindre le but, sans en juger la qualité. En effet, ici, l’objectif du RETEX n’est pas de mettre en lumière un dysfonctionnement, mais de mettre en place un historique des activités et processus déployés et de porter un regard critique sur leur gestion. Compte tenu, de la différence de contexte entre ONG et structures industrielles privées ; il est primordial d’extrapoler et d’adapter les méthodes de RETEX existantes pour l’industrie. Il s’agit donc ici de développer une méthodologie adaptée pour répondre aux problématiques spécifiques des organisations humanitaires. La méthodologie proposée sera testée et validée avec une ou plusieurs études de cas et permettra la formalisation de l'expérience, essentielle pour la rendre exploitable. Le travail s’attachera également à identifier et analyser les indicateurs de prise de décision dans les différents retours d’expérience et études de cas traités pour être en mesure d’expliquer la décision et en extraire une façon de réfléchir, et de éléments de l’ordre méthodologique
Because of its critical impacts on performance and competitivity, organizations’ knowledge is today considered to be an invaluable asset. In this context, the development of methods and frameworks aiming at improving knowledge preservation and exploitation is of major interest. Within Lessons Learned framework – which proposes relevant methods to tackle these challenges –, we propose to work on an approach mixing Knowledge Representation, Multiple-Criteria Decision Analysis and Inductive Reasoning for inferring general learnings by analyzing past experiences. The proposed approach, which is founded on a specific case-based reasoning, intends to study the similarities of past experiences – shared features, patterns – and their potential influence on the overall success of cases through the identification of a set of criteria having a major contribution on this success. For the purpose of highlighting this potential causal link to infer general learnings, we envisage relying on inductive reasoning techniques. The considered work will be developed and validated through the scope of a humanitarian organization, Médecins Sans Frontières, with a focus on the logistical response in emergency situations
33

Ta, Minh Thuy. "Techniques d'optimisation non convexe basée sur la programmation DC et DCA et méthodes évolutives pour la classification non supervisée." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0099/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous intéressons particulièrement, dans cette thèse, à quatre problèmes en apprentissage et fouille de données : clustering pour les données évolutives, clustering pour les données massives, clustering avec pondération de variables et enfin le clustering sans connaissance a priori du nombre de clusters avec initialisation optimale des centres de clusters. Les méthodes que nous décrivons se basent sur des approches d’optimisation déterministe, à savoir la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution de problèmes de clustering cités précédemment, ainsi que des approches évolutionnaires élitistes. Nous adaptons l’algorithme de clustering DCA–MSSC pour le traitement de données évolutives par fenêtres, en appréhendant les données évolutives avec deux modèles : fenêtres fixes et fenêtres glissantes. Pour le problème du clustering de données massives, nous utilisons l’algorithme DCA en deux phases. Dans la première phase, les données massives sont divisées en plusieurs sous-ensembles, sur lesquelles nous appliquons l’algorithme DCA–MSSC pour effectuer un clustering. Dans la deuxième phase, nous proposons un algorithme DCA-Weight pour effectuer un clustering pondéré sur l’ensemble des centres obtenues à la première phase. Concernant le clustering avec pondération de variables, nous proposons également deux approches: clustering dur avec pondération de variables et clustering floue avec pondération de variables. Nous testons notre approche sur un problème de segmentation d’image. Le dernier problème abordé dans cette thèse est le clustering sans connaissance a priori du nombre des clusters. Nous proposons pour cela une approche évolutionnaire élitiste. Le principe consiste à utiliser plusieurs algorithmes évolutionnaires (EAs) en même temps, de les faire concourir afin d’obtenir la meilleure combinaison de centres initiaux pour le clustering et par la même occasion le nombre optimal de clusters. Les différents tests réalisés sur plusieurs ensembles de données de grande taille sont très prometteurs et montrent l’efficacité des approches proposées
This thesis focus on four problems in data mining and machine learning: clustering data streams, clustering massive data sets, weighted hard and fuzzy clustering and finally the clustering without a prior knowledge of the clusters number. Our methods are based on deterministic optimization approaches, namely the DC (Difference of Convex functions) programming and DCA (Difference of Convex Algorithm) for solving some classes of clustering problems cited before. Our methods are also, based on elitist evolutionary approaches. We adapt the clustering algorithm DCA–MSSC to deal with data streams using two windows models: sub–windows and sliding windows. For the problem of clustering massive data sets, we propose to use the DCA algorithm with two phases. In the first phase, massive data is divided into several subsets, on which the algorithm DCA–MSSC performs clustering. In the second phase, we propose a DCA–Weight algorithm to perform a weighted clustering on the obtained centers in the first phase. For the weighted clustering, we also propose two approaches: weighted hard clustering and weighted fuzzy clustering. We test our approach on image segmentation application. The final issue addressed in this thesis is the clustering without a prior knowledge of the clusters number. We propose an elitist evolutionary approach, where we apply several evolutionary algorithms (EAs) at the same time, to find the optimal combination of initial clusters seed and in the same time the optimal clusters number. The various tests performed on several sets of large data are very promising and demonstrate the effectiveness of the proposed approaches
34

Daviet, Hélène. "Class-Add, une procédure de sélection de variables basée sur une troncature k-additive de l'information mutuelle et sur une classification ascendante hiérarchique en pré-traitement." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00481931.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Class-Add, une procédure de sélection de variables basée sur une troncature k-additive de l'information mutuelle et sur une classification ascendante hiérarchique en pré-traitement Lorem ipsum dolor sit amet, consectetuer adipiscing elit. Sed non risus. Suspendisse lectus tortor, dignissim sit amet, adipiscing nec, ultricies sed, dolor. Cras elementum ultrices diam. Maecenas ligula massa, varius a, semper congue, euismod non, mi. Proin porttitor, orci nec nonummy molestie, enim est eleifend mi, non fermentum diam nisl sit amet erat. Duis semper. Duis arcu massa, scelerisque vitae, consequat in, pretium a, enim. Pellentesque congue. Ut in risus volutpat libero pharetra tempor. Cras vestibulum bibendum augue. Praesent egestas leo in pede. Praesent blandit odio eu enim. Pellentesque sed dui ut augue blandit sodales
35

Daviet, Desmier Hélène. "ClassAdd, une procédure de sélection de variables basée sur une troncature k-additive de l'informatique mutuelle et sur une classification ascendante hiérarchique en pré-traitement." Nantes, 2009. http://www.theses.fr/2009NANT2019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème de la sélection de variables en discrimination se rencontre généralement lorsque le nombre de variables, pouvant être utilisées pour expliquer la classe d'un individu, est très élevé. Les besoins ont beaucoup évolué ces dernières années avec la manipulation d'un grand nombre de variables dans des domaines tels que les données génétiques, la chimie moléculaire ou encore le traitement de documents textes. Une procédure de sélection de variables consiste à sélectionner un sous-ensemble de variables permettant d'expliquer la classe de façon optimale ou quasi-optimale. La nécessité de ce traitement est essentiellement due au fait que, généralement, un nombre de variables discriminantes trop élevé dans un modèle de discrimination détériore grandement sa capacité de généralisation et la compréhension de la relation modélisée. Dans le cadre de ce travail, nous nous intéressons au cas où les variables potentiellement discriminantes sont toutes discrètes ou nominales et nous proposons une procédure de sélection de variables indépendante d'un modèle de données. Nos travaux s'orientent dans deux directions : une mesure de pertinence peu coûteuse grâce à l'utilisation d'une troncature k-additive de l'information mutuelle et une réduction de l'espace de recherche en structurant l'ensemble des variables avec une classification ascendante hiérarchique. Notre algorithme a pu être expérimenté sur trois types de données : des jeux artificiels construits avec une structure connue, des jeux de données réelles classiques et enfin une application d'entreprise : une population de cadres à la recherche d'emploi décrite par des variables comportementales
Subset variable selection algorithms are necessary when the number of features is too huge to provide a good understanding of the underlying process that generated the data. In the past few years, variable and feature selection have become the focus of much research because of domains, such as molecular chemistry or gene expression array analysis, with hundreds to tens of thousands of variables. In the framework of subset variable selection for supervised classification involving only discret variables, we propose a selection algorithm using a computationally efficient relevance measure based on a k-additive truncation of the mutual information and involving an agglomerative hierarchical clustering of the set of potentially discriminatory variables in order to reduce the number of subsets whose relevance is estimated
36

Ghrissi, Amina. "Ablation par catheter de fibrillation atriale persistante guidée par dispersion spatiotemporelle d’électrogrammes : Identification automatique basée sur l’apprentissage statistique." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fibrillation atriale (FA) est l’arythmie cardiaque soutenue la plus fréquemment rencontrée dans la pratique clinique. Pour la traiter, l’ablation par cathéter de zones cardiaques jugées responsables de soutenir l’arythmie est devenue la thérapie la plus utilisée. Un nouveau protocole d’ablation se base sur l’identification des zones atriales où les électrogrammes (EGM) enregistrés à l’aide d’un cathéter à électrodes multiples, appelé PentaRay, manifestent des décalages spatiotemporels significatifs sur plusieurs voies adjacentes. Ce phénomène est appelé dispersion spatio-temporelle (DST). L’intervention devient ainsi plus adaptée aux spécificités de chaque patient et elle atteint un taux de succès procédural de 95%. Cependant, à l’heure actuelle les zones de DST sont identifiées de manière visuelle par le spécialiste pratiquant l’ablation. Cette thèse vise à identifier automatiquement les sites potentiels d’ablation basée sur la DST à l’aide de techniques d’apprentissage statistique et notamment d’apprentissage profond adaptées. Dans la première partie, les enregistrements EGM sont classés par catégorie en DST vs. non-DST. Cependant, le rapport très déséquilibré entre les données issues des deux classes dégrade les résultats de classification. Nous abordons ce problème en utilisant des techniques d’augmentation de données adaptées à la problématique médicale et qui permettent d’obtenir de bons taux de classification. La performance globale s’élève ainsi atteignant des valeurs de précision et d’aire sous la courbe ROC autour de 90%. Deux approches sont ensuite comparées, l’ingénierie des caractéristiques et l’extraction automatique de ces caractéristiques par apprentissage statistique à partir d’une série temporelle, appelée valeur absolue de tension maximale aux branches du PentRay (VAVp). Les résultats montrent que la classification supervisée de VAVp est prometteuse avec des valeurs de précision, sensibilité et spécificité autour de 90%. Ensuite, la classification des enregistrements EGM bruts est effectuée à l’aide de plusieurs outils d’apprentissage statistique. Une première approche consiste à étudier les circuits arithmétiques à convolution pour leur intérêt théorique prometteur, mais les expériences sur des données synthétiques sont infructueuses. Enfin, nous investiguons des outils d’apprentissage supervisé plus conventionnels comme les réseaux de neurones convolutifs (RNC). Nous concevons une sélection de représentation des données adaptées à différents algorithmes de classification. Ces modèles sont ensuite évalués en termes de performance et coût de calcul. L’apprentissage profond par transfert est aussi étudié. La meilleure performance est obtenue avec un RNC peu profond pour la classification des matrices EGM brutes, atteignant 94% de précision et d’aire sous la courbe ROC en plus d’un score F1 de 60%. Dans la deuxième partie, les enregistrements EGM acquis pendant la cartographie sont étiquetés ablatés vs. non-ablatés en fonction de leur proximité par rapport aux sites d’ablation, puis classés dans les mêmes catégories. Les annotations de dispersion sont aussi prises en compte comme une probabilité à priori dans la classification. La meilleure performance représente un score F1 de 76%. L’agrégation de l’étiquette DST ne permet pas d’améliorer les performances du modèle. Globalement, ce travail fait partie des premières tentatives d’application de l’analyse statistique et d’outils d’apprentissage pour l’identification automatique et réussie des zones d’ablation en se basant sur la DST. En fournissant aux cardiologues interventionnels un outil intelligent, objectif et déployé en temps réel qui permet la caractérisation de la dispersion spatiotemporelle, notre solution permet d’améliorer potentiellement l’efficacité de la thérapie personnalisée d’ablation par cathéter de la FA persistante
Catheter ablation is increasingly used to treat atrial fibrillation (AF), the most common sustained cardiac arrhythmia encountered in clinical practice. A recent patient-tailored AF ablation therapy, giving 95% of procedural success rate, is based on the use of a multipolar mapping catheter called PentaRay. It targets areas of spatiotemporal dispersion (STD) in the atria as potential AF drivers. STD stands for a delay of the cardiac activation observed in intracardiac electrograms (EGMs) across contiguous leads.In practice, interventional cardiologists localize STD sites visually using the PentaRay multipolar mapping catheter. This thesis aims to automatically characterize and identify ablation sites in STD-based ablation of persistent AF using machine learning (ML) including deep learning (DL) techniques. In the first part, EGM recordings are classified into STD vs. non-STD groups. However, highly imbalanced dataset ratio hampers the classification performance. We tackle this issue by using adapted data augmentation techniques that help achieve good classification. The overall performance is high with values of accuracy and AUC around 90%. First, two approaches are benchmarked, feature engineering and automatic feature extraction from a time series, called maximal voltage absolute values at any of the bipoles (VAVp). Statistical features are extracted and fed to ML classifiers but no important dissimilarity is obtained between STD and non-STD categories. Results show that the supervised classification of raw VAVp time series itself into the same categories is promising with values of accuracy, AUC, sensi-tivity and specificity around 90%. Second, the classification of raw multichannel EGM recordings is performed. Shallow convolutional arithmetic circuits are investigated for their promising theoretical interest but experimental results on synthetic data are unsuccessful. Then, we move forward to more conventional supervised ML tools. We design a selection of data representations adapted to different ML and DL models, and benchmark their performance in terms of classification and computational cost. Transfer learning is also assessed. The best performance is achieved with a convolutional neural network (CNN) model for classifying raw EGM matrices. The average performance over cross-validation reaches 94% of accuracy and AUC added to an F1-score of 60%. In the second part, EGM recordings acquired during mapping are labeled ablated vs. non-ablated according to their proximity to the ablation sites then classified into the same categories. STD labels, previously defined by interventional cardiologists at the ablation procedure, are also aggregated as a prior probability in the classification task.Classification results on the test set show that a shallow CNN gives the best performance with an F1-score of 76%. Aggregating STD label does not help improve the model’s performance. Overall, this work is among the first attempts at the application of statistical analysis and ML tools to automatically identify successful ablation areas in STD-based ablation. By providing interventional cardiologists with a real-time objective measure of STD, the proposed solution offers the potential to improve the efficiency and effectiveness of this fully patient-tailored catheter ablation approach for treating persistent AF
37

Bruni, Edoardo. "Systématique des hauteurs : une théorie musicale basée sur la classification, la description et la comparaison de tous les ensembles de hauteurs (gammes, modes, accords)." Paris 4, 2005. http://www.theses.fr/2005PA040400.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Tanquerel, Lucille. "Caractérisation des documents sonores : Etude et conception d'un procédé de calcul rapide de signature audio basée sur une perception limitée du contenu." Caen, 2008. http://www.theses.fr/2008CAEN2056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La description des caractéristiques sonores d'un document est un élément clé pour réaliser des traitements automatiques impliquant des données audio. L'objectif de nos travaux est de décrire une méthode permettant de générer de manière compacte et rapide une signature d'un fichier sonore par l'extraction de caractéristiques physiques réparties sur le fichier (analyse spectrale du signal). L'innovation de notre proposition porte sur l'organisation de l'extraction des échantillons et sur le mode d'analyse pour fournir très rapidement une signature représentative du contenu musical. L'organisation de l'extraction définit la manière dont les échantillons sont prélevés. Notre proposition vise à réaliser un échantillonnage statistique séquentiel minimal réparti sur le fichier sonore. Le principe de cette proposition est basé sur le postulat que la collecte d'une faible quantité d'échantillons de petite durée suffit pour avoir une information résumant de manière efficace le rythme perçu. Notre méthode de validation repose d’une part sur une mesure d’erreur de reconnaissance objective. Nous montrons que la signature permet de comparer les morceaux entre eux et d’identifier fidèlement les morceaux identiques même si ceux-ci ne sont pas complets. Nous montrons également qu'elle peut associer deux moitiés d'un même morceau avec un taux de réussite non négligeable. La validation repose d'autre part sur la comparaison de la signature rythmique avec la perception humaine mais aussi sur la distinction des documents sonores en fonction de la langue parlée. Tous les tests de validation apportent des résultats intéressants compte tenu du temps de calcul
The description of the sound characteristics of a document is a key for treatments involving automatic audio data. The objective of our work is to describe a method able to generate rapidly a signature of a sound file by the extraction of physical characteristics over the file (spectral analysis of signal). The innovation of our proposal concerns the organization of the extraction of samples and the analysis mode to provide quickly a signature representative of musical content. The organization of extraction defines how samples are taken. Our proposal aims to achieve a statistical sequential minimum sampling allocated over the sound file. The principle of this proposal is based on the assumption that the collection of a small quantity of small duration samples is sufficient to have information summarizing effectively the perceived rhythm. Our validation method is based on an error objective recognition. We show that the signature can compare the files between them and accurately identify identical pieces even if they are not complete. We also show that it can combine two halves of the same song with a significant success rate. On the other hand the validation is based on the comparison of the rhythmical signature with human perception and also on the distinction of sound recordings according to the language spoken. All tests provide interesting results given the time of calculation
39

Selmane, Sid Ali. "Détection et analyse des communautés dans les réseaux sociaux : approche basée sur l'analyse formelle de concepts." Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’étude de structures de communautés dans les réseaux devient de plus en plus une question importante. La connaissance des modules de base (communautés) des réseaux nous aide à bien comprendre leurs fonctionnements et comportements, et à appréhender les performances de ces systèmes. Une communauté dans un graphe (réseau) est définie comme un ensemble de noeuds qui sont fortement liés entre eux, mais faiblement liés avec le reste du graphe. Les membres de la même communauté partagent les mêmes centres d’intérêt. L’originalité de nos travaux de recherche consiste à montrer qu’il est pertinent d’utiliser l’analyse formelle de concepts pour la détection de communautés, contrairement aux approches classiques qui utilisent des graphes. Nous avons notamment étudié plusieurs problèmes posés par la détection de communautés dans les réseaux sociaux : (1) l’évaluation des méthodes de détection de communautés proposées dans la littérature, (2) la détection de communautés disjointes et chevauchantes, et (3) la modélisation et l’analyse des réseaux sociaux de données tridimensionnelles. Pour évaluer les méthodes de détection de communautés proposées dans la littérature, nous avons abordé ce sujet en étudiant tout d’abord l’état de l’art qui nous a permis de présenter une classification des méthodes de détection de communautés en évaluant chacune des méthodes présentées dans la littérature (les méthodes les plus connues). Pour le deuxième volet, nous nous sommes ensuite intéressés à l’élaboration d’une approche de détection de communautés disjointes et chevauchantes dans des réseaux sociaux homogènes issus de matrices d’adjacence (données dites à un seul mode ou une seule dimension), en exploitant des techniques issues de l’analyse formelle de concepts. Nous avons également porté un intérêt particulier aux méthodes de modélisation de réseaux sociaux hétérogènes. Nous nous sommes intéressés en particulier aux données tridimensionnelles et proposé dans ce cadre une approche de modélisation et d’analyse des réseaux sociaux issus de données tridimensionnelles. Cette approche repose sur un cadre méthodologique permettant d’appréhender au mieux cet aspect tridimensionnel des données. De plus, l’analyse concerne la découverte de communautés et de relations dissimulées qui existent entre les différents types d’individus de ces réseaux. L’idée principale réside dans l’extraction de communautés et de règles d’association triadiques à partir de ces réseaux hétérogènes afin de simplifier et de réduire la complexité algorithmique de ce processus. Les résultats obtenus serviront par la suite à une application de recommandation de liens et de contenus aux individus d’un réseau social
The study of community structure in networks became an increasingly important issue. The knowledge of core modules (communities) of networks helps us to understand how they work and behaviour, and to understand the performance of these systems. A community in a graph (network) is defined as a set of nodes that are strongly linked, but weakly linked with the rest of the graph. Members of the same community share the same interests. The originality of our research is to show that it is relevant to use formal concept analysis for community detection unlike conventional approaches using graphs. We studied several problems related to community detection in social networks : (1) the evaluation of community detection methods in the literature, (2) the detection of disjointed and overlapping communities, and (3) modelling and analysing heterogeneous social network of three-dimensional data. To assess the community detection methods proposed in the literature, we discussed this subject by studying first the state of the art that allowed us to present a classification of community detection methods by evaluating each method presented in the literature (the best known methods). For the second part, we were interested in developing a disjointed and overlapping community detection approach in homogeneous social networks from adjacency matrices (one mode data or one dimension) by exploiting techniques from formal concept analysis. We paid also a special attention to methods of modeling heterogeneous social networks. We focused in particular to three-dimensional data and proposed in this framework a modeling approach and social network analysis from three-dimensional data. This is based on a methodological framework to better understand the threedimensional aspect of this data. In addition, the analysis concerns the discovery of communities and hidden relationships between different types of individuals of these networks. The main idea lies in mining communities and rules of triadic association from these heterogeneous networks to simplify and reduce the computational complexity of this process. The results will then be used for an application recommendation of links and content to individuals in a social network
40

Bahri, Nesrine. "Une commande neuronale adaptative basée sur des émulateurs neuronal et multimodèle pour les systèmes non linéaires MIMO et SIMO." Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0024/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La porosité d'une plaque composite carbone / époxy de type RTM est connue par tomographie X. Une méthode de détermination de cette porosité par mesure de l'atténuation des ondes longitudinales à travers l'épaisseur de cette plaque est proposée. Ces mesures sont effectuées sur des surfaces de dimensions variables (quelques cm2 à quelques mm2) et permettent l’obtention de cartographies. Une correspondance porosité (tomo X) – atténuation (onde US) est déduite et analysée en fonction de la structure du matériau composite. Dans chaque cas, on estime la qualité des relations obtenues et on en déduit les limites de validité de la correspondance porosité-atténuation. Des premiers résultats de tomographie acoustiques sont obtenus
The porosity of a composite plate in carbon / epoxy of type RTM is known by used of tomography X. A method of determination of this porosity by measure of the mitigation of the longitudinal waves through the thickness of this kind of plate is proposed. These measures are made on surfaces of different sizes (from some cm2 to some mm2) and allow the obtaining of cartographies. A correspondence porosity (tomo X) - Mitigation (US wave) is deducted and analyzed according to the structure of the composite material. In every case, we estimate the quality of the obtained relations and we deduct the limits of validity of the correspondence between porosity and mitigation. First results of acoustic tomography are obtained
41

Davy, Manuel. "Noyaux optimisés pour la classification dans le plan temps-fréquence : proposition d'un alorithme constructif et d'une référence bayésienne basée sur les méthodes MCMC : application au diagnostic d'enceintes acoustiques." Nantes, 2000. http://www.theses.fr/2000NANT2065.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre environnement fournit des cas de classification de signaux non-stationnaires : par exemple reconnaitre la voix d'une personne, ou detecter les defauts de fabrication d'enceintes acoustiques. La classification de ces signaux requiert la mise en uvre de procedures a trois elements : un espace de representation des donnees, une distance dans cet espace pour comparer les donnees et une regle de decision permettant l'affectation a une classe particuliere. Les signaux envisages etant de nature vibratoire, les representations temps-frequence (rtf) fournissent un espace de representation intelligible, ou les elements discriminants (la localisation temps-frequence de l'energie) sont visibles. Une construction systematique de l'espace de representation recherche conduit a la classe de cohen, dont nous montrons qu'elle admet une interpretation en termes de densite de probabilite conjointe. Une synthese bibliographique montre que les resultats de classification dependent du choix du couple (rtf, distance). Nous proposons l'optimisation noyau de la rtf et de la distance en regard d'un critere, estime sur un ensemble d'apprentissage. De nombreuses simulations sur des signaux synthetiques montrent le bien-fonde de cette approche. Cherchant a evaluer notre methode, nous avons compare ses performances aux resultats de l'approche bayesienne (optimale) pour des signaux synthetiques. La mise en uvre mcmc proposee permet de s'affranchir des difficultes liees au calcul numerique des integrales. Enfin, les deux methodes (temps-frequence et bayesienne) sont appliquees a la detection de defauts d'enceintes acoustiques.
42

Steichen, Olivier. "Raisonnement par règles et raisonnement par cas pour la résolution des problèmes en médecine." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010691.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les médecins cherchent à résoudre les problèmes de santé posés par des individus. Une solution individualisée tient compte de la singularité du patient concerné. L'individualisation des pratiques est-elle possible et souhaitable? Le cas échéant, selon quelles modalités peut-elle ou doit-elle être réalisée'? La première partie de la thèse vise à montrer: que la question se pose depuis les premières théories de la décision médicale (Hippocrate) ; qu'elle s'est posée de façon aiguë au début du XIX" siècle, avec l'apparition des études statistiques; et que l'observation médicale et son évolution concrétisent la façon dont la documentation des cas et leur individualisation interagissent. La deuxième partie reprend la question dans le contexte contemporain, à travers la naissance de l'"evidence-based medicine", ses critiques et son évolution. La troisième partie montre que l'articulation du raisonnement par règles et du raisonnement par cas modélise de façon opérationnelle une démarche raisonnée d'individualisation des décisions médicales. Ce modèle simple permet de rendre compte du mouvement d'aller-retour entre deux conceptions de l'individualisation et d'en proposer une version équilibrée, mise à l'épreuve dans les domaines de l'évaluation des pratiques et de la littérature médicale
Physicians try to solve health problems of individual patients. Customized solutions take into account the uniqueness of the patient. Is the individualization of medical decisions possible and desirable'? If so, how can I tor should it be performed? The first part of the thesis shows: that the question arises since the first conceptualizations of medical reasoning (Hippocrates); that is was much debated in the early nineteenth century, when statistical studies were first performed to guide medical decisions; and that the medical observation and its evolution materialize how case documentation and management interact. The second part addresses the issue in the current context, from the birth of evidence-based medicine, its cri tics and its evolution. The third part shows that linking rule-based and case-based reasoning adequately pictures the process of customizing medical decisions. This simple model can account for the movement between two kinds of customization and leads to a balanced approach, tested in the field of practice evaluation and medical literature
43

Malik, Muhammad Ghulam Abbas. "Méthodes et outils pour les problèmes faibles de traduction." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00502192.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Étant données une langue source L1 et une langue cible L2, un segment (phrase ou titre) S de n mots écrit en L1 peut avoir un nombre exponentiel N=O(kn) de traductions valides T1...TN. Nous nous intéressons au cas où N est très faible en raison de la proximité des formes écrites de L1 et L2. Notre domaine d'investigation est la classe des paires de combinaisons de langue et de système d'écriture (Li-Wi, Lj-Wj) telles qu'il peut y avoir une seule traduction valide, ou un très petit nombre de traductions valides, pour tout segment S de Li écrit en Wi. Le problème de la traduction d'une phrase hindi/ourdou écrite en ourdou vers une phrase équivalente en devanagari tombe dans cette classe. Nous appelons le problème de la traduction pour une telle paire un problème faible de traduction. Nous avons conçu et expérimenté des méthodes de complexité croissante pour résoudre des instances de ce problème, depuis la transduction à états finis simple jusqu'à à la transformation de graphes de chaînes d'arbres syntaxiques partiels, avec ou sans l'inclusion de méthodes empiriques (essentiellement probabilistes). Cela conduit à l'identification de la difficulté de traduction d'une paire (Li-Wi, Lj-Wj) comme le degré de complexité des méthodes de traduction atteignant un objectif souhaité (par exemple, moins de 15% de taux d'erreur). Considérant la translittération ou la transcription comme un cas spécial de traduction, nous avons développé une méthode basée sur la définition d'une transcription intermédiaire universelle (UIT) pour des groupes donnés de couples Li-Wi, et avons utilisé UIT comme un pivot phonético-graphémique. Pour traiter la traduction interdialectale dans des langues à morphologie flexionnelle riche, nous proposons de faire une analyse de surface sur demande et limitée, produisant des arbres syntaxiques partiels, et de l'employer pour mettre à jour et propager des traits tels que le genre et le nombre, et pour traiter les phénomènes aux limites des mots. A côté d'expériences à grande échelle, ce travail a conduit à la production de ressources linguistiques telles que des corpus parallèles et annotés, et à des systèmes opérationnels, tous disponibles gratuitement sur le Web. Ils comprennent des corpus monolingues, des lexiques, des analyseurs morphologiques avec un vocabulaire limité, des grammaires syntagmatiques du hindi, du punjabi et de l'ourdou, des services Web en ligne pour la translittération entre hindi et ourdou, punjabi (shahmukhi) et punjabi (gurmukhi), etc. Une perspective intéressante est d'appliquer nos techniques à des paires distantes LW, pour lesquelles elles pourraient produire efficacement des présentations d'apprentissage actif, sous la forme de sorties pidgin multiples.
44

Désoyer, Adèle. "Appariement de contenus textuels dans le domaine de la presse en ligne : développement et adaptation d'un système de recherche d'information." Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100119/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse, menée dans un cadre industriel, est d'apparier des contenus textuels médiatiques. Plus précisément, il s'agit d'apparier à des articles de presse en ligne des vidéos pertinentes, pour lesquelles nous disposons d'une description textuelle. Notre problématique relève donc exclusivement de l'analyse de matériaux textuels, et ne fait intervenir aucune analyse d'image ni de langue orale. Surviennent alors des questions relatives à la façon de comparer des objets textuels, ainsi qu'aux critères mobilisés pour estimer leur degré de similarité. L'un de ces éléments est selon nous la similarité thématique de leurs contenus, autrement dit le fait que deux documents doivent relater le même sujet pour former une paire pertinente. Ces problématiques relèvent du domaine de la recherche d'information (ri), dans lequel nous nous ancrons principalement. Par ailleurs, lorsque l'on traite des contenus d'actualité, la dimension temporelle est aussi primordiale et les problématiques qui l'entourent relèvent de travaux ayant trait au domaine du topic detection and tracking (tdt) dans lequel nous nous inscrivons également.Le système d'appariement développé dans cette thèse distingue donc différentes étapes qui se complètent. Dans un premier temps, l'indexation des contenus fait appel à des méthodes de traitement automatique des langues (tal) pour dépasser la représentation classique des textes en sac de mots. Ensuite, deux scores sont calculés pour rendre compte du degré de similarité entre deux contenus : l'un relatif à leur similarité thématique, basé sur un modèle vectoriel de ri; l'autre à leur proximité temporelle, basé sur une fonction empirique. Finalement, un modèle de classification appris à partir de paires de documents, décrites par ces deux scores et annotées manuellement, permet d'ordonnancer les résultats.L'évaluation des performances du système a elle aussi fait l'objet de questionnements dans ces travaux de thèse. Les contraintes imposées par les données traitées et le besoin particulier de l'entreprise partenaire nous ont en effet contraints à adopter une alternative au protocole classique d'évaluation en ri, le paradigme de Cranfield
The goal of this thesis, conducted within an industrial framework, is to pair textual media content. Specifically, the aim is to pair on-line news articles to relevant videos for which we have a textual description. The main issue is then a matter of textual analysis, no image or spoken language analysis was undertaken in the present study. The question that arises is how to compare these particular objects, the texts, and also what criteria to use in order to estimate their degree of similarity. We consider that one of these criteria is the topic similarity of their content, in other words, the fact that two documents have to deal with the same topic to form a relevant pair. This problem fall within the field of information retrieval (ir) which is the main strategy called upon in this research. Furthermore, when dealing with news content, the time dimension is of prime importance. To address this aspect, the field of topic detection and tracking (tdt) will also be explored.The pairing system developed in this thesis distinguishes different steps which complement one another. In the first step, the system uses natural language processing (nlp) methods to index both articles and videos, in order to overcome the traditionnal bag-of-words representation of texts. In the second step, two scores are calculated for an article-video pair: the first one reflects their topical similarity and is based on a vector space model; the second one expresses their proximity in time, based on an empirical function. At the end of the algorithm, a classification model learned from manually annotated document pairs is used to rank the results.Evaluation of the system's performances raised some further questions in this doctoral research. The constraints imposed both by the data and the specific need of the partner company led us to adapt the evaluation protocol traditionnal used in ir, namely the cranfield paradigm. We therefore propose an alternative solution for evaluating the system that takes all our constraints into account
45

Labiad, Ali. "Sélection des mots clés basée sur la classification et l'extraction des règles d'association." Thèse, 2017. http://depot-e.uqtr.ca/8196/1/031872941.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Bendakir, Narimel. "RARE : un système de recommandation de cours basé sur les régles d'association." Thèse, 2006. http://hdl.handle.net/1866/16732.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Tshibala, Tshitoko Emmanuel. "Prédiction des efforts de test : une approche basée sur les seuils des métriques logicielles et les algorithmes d'apprentissage automatique." Thèse, 2019. http://depot-e.uqtr.ca/id/eprint/9431/1/eprint9431.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Salavati-Khoshghalb, Majid. "Recourse policies in the vehicle routing problem with stochastic demands." Thèse, 2017. http://hdl.handle.net/1866/19297.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії