To see the other types of publications on this topic, follow the link: Analyse de concepts relationnels.

Dissertations / Theses on the topic 'Analyse de concepts relationnels'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse de concepts relationnels.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Wajnberg, Mickaël. "Analyse relationnelle de concepts : une méthode polyvalente pour l'extraction de connaissances." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0136.

Full text
Abstract:
À une époque où les données, souvent interprétées comme une «réalité terrain»,sont produites dans des quantités gargantuesques, un besoin de compréhension et d’interprétation de ces données se développe en parallèle. Les jeux de données étant maintenant principalement relationnels, il convient de développer des méthodes qui permettent d’extraire de l’information pertinente décrivant à la fois les objets et les relations entre eux. Les règles d’association, adjointes des mesures de confiance et de support, décrivent les co-occurences entre les caractéristiques des objets et permettent d’exprimer et d’évaluer de manière explicite l’information contenue dans un jeu de données. Dans cette thèse, on présente et développe l’analyse relationnelle de concepts pour extraire des règles traduisant tant les caractéristiques propres d’un ensemble d’objets que les liens avec d’autres ensembles. Une première partie développe la théorie mathématique de la méthode, alors que la seconde partie propose trois cas d’application pour étayer l’intérêt d’un tel développement. Les études sont réalisées dans des domaines variés montrant ainsi la polyvalence de la méthode : un premier cas traite l’analyse d’erreur en production industrielle métallurgique, un second cas est réalisé en psycholinguistique pour l’analyse de dictionnaires et un dernier cas montre les possibilités de la méthode en ingénierie de connaissance
At a time where data, often interpreted as "ground truth", are produced in gigantic quantities, a need for understanding and interpretability emerges in parallel. Dataset are nowadays mainly relational, therefore developping methods that allows relevant information extraction describing both objects and relation among them is a necessity. Association rules, along with their support and confidence metrics, describe co-occurrences of object features, hence explicitly express and evaluate any information contained in a dataset. In this thesis, we present and develop the relational concept analysis approach to extract the association rules that translate objects proper features along with the links with sets of objects. A first part present the mathematical part of the method, while a second part highlights three case studies to assess the pertinence of such a development. Case studies cover various domains to demonstrate the method polyvalence: the first case deals with error analysis in industrial production, the second covers psycholinguistics for dictionary analysis and the last one shows the method application in knowledge engineering
APA, Harvard, Vancouver, ISO, and other styles
2

Mimouni, Nada. "Interrogation d'un réseau sémantique de documents : l'intertextualité dans l'accès à l'information juridique." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD084/document.

Full text
Abstract:
Une collection documentaire est généralement représentée comme un ensemble de documents mais cette modélisation ne permet pas de rendre compte des relations intertextuelles et du contexte d’interprétation d’un document. Le modèle documentaire classique trouve ses limites dans les domaines spécialisés où les besoins d’accès à l’information correspondent à des usages spécifiques et où les documents sont liés par de nombreux types de relations. Ce travail de thèse propose deux modèles permettant de prendre en compte cette complexité des collections documentaire dans les outils d’accès à l’information. Le premier modèle est basée sur l’analyse formelle et relationnelle de concepts, le deuxième est basée sur les technologies du web sémantique. Appliquées sur des objets documentaires ces modèles permettent de représenter et d’interroger de manière unifiée les descripteurs de contenu des documents et les relations intertextuelles qu’ils entretiennent
A collection of documents is generally represented as a set of documents but this simple representation does not take into account cross references between documents, which often defines their context of interpretation. This standard document model is less adapted for specific professional uses in specialized domains in which documents are related by many various references and the access tools need to consider this complexity. We propose two models based onformal and relational concept analysis and on semantic web techniques. Applied on documentary objects, these two models represent and query in a unified way documents content descriptors and documents relations
APA, Harvard, Vancouver, ISO, and other styles
3

Bendaoud, Rokia. "Analyses formelle et relationnelle de concepts pour la construction d'ontologies de domaines à partir de ressources textuelles hétérogènes." Phd thesis, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00420109.

Full text
Abstract:
Les ontologies sont diversement employées notamment dans les domaines du Web sémantique, de l'ingénierie des connaissances,... En effet, elles permettent de partager, de diffuser et d'actualiser les connaissances d'un domaine. Afin de construire ces ontologies, notre méthodologie utilise tout d'abord des méthodes de Traitement Automatique de la Langue Naturelle (TALN) et d'Extraction d'Information (EI) pour extraire des données préparées à partir de chaque ressource du domaine (corpus de textes, bases de données, thesaurus). Puis, ces données sont fouillées avec les méthodes de fouilles : l'Analyse Formelle de concepts (AFC) et l'Analyse Relationnelle de Concepts (ARC). L'AFC regroupe des objets partageant les mêmes attributs dans des concepts d'un treillis. L'ARC, une extension de l'AFC, permet de regrouper des objets partageant les mêmes attributs, mais aussi les mêmes attributs relationnels. L'apposition de contextes (une propriété de l'AFC) permet d'associer ces attributs et relations à un ensemble de classes prédéfinies et hiérarchisées par les experts du domaine. De cette façon, des définitions étendues sont proposées aux experts du domaine pour ces classes prédéfinies ainsi que de nouvelles classes inexistantes dans la hiérarchie initiale. Ces nouvelles classes peuvent être considérées pertinentes et ajoutées par les experts en tant que nouvelles "unités de connaissances". Les treillis résultant des méthodes de fouille constituent ce que nous appelons schéma d'ontologie. Ce schéma d'ontologie est ensuite représenté par le langage FLE de la famille des logiques de descriptions afin d'avoir une ontologie. Cette ontologie, implémentée en OWL, a permis à notre système de répondre automatiquement à différentes questions proposées par les experts du domaine.
Des expériences pratiques ont été menées dans deux domaines d'application : l'astronomie et la microbiologie.
APA, Harvard, Vancouver, ISO, and other styles
4

Ferreirone, Mariano. "Extraction and integration of constraints in multiple data sources using ontologies and knowledge graphs." Electronic Thesis or Diss., Université de Lorraine, 2025. http://www.theses.fr/2025LORR0013.

Full text
Abstract:
Cette thèse explore l'introduction des graphes de formes SHACL dans des environnements sémantiques présentant des sources hétérogènes et des exigences contextuelles variées. Cette recherche propose une approche pour l'enrichissement des systèmes basés sur le Web sémantique, apportant des bénéfices à plusieurs domaines, notamment l'Industrie 4.0. La thèse commence par une large revue des travaux actuels liés à la validation des contraintes sémantiques sur les modèles de représentation des connaissances. Sur la base d'une revue systématique de la littérature, une définition d'une taxonomie décrivant les types de travaux associés est proposée. Les défis ouverts liés à la création de graphes de formes et à leur inclusion dans les environnements sémantiques existants sont mis en évidence. Le besoin d'une représentation des graphes de formes capable de s'adapter à différents contextes ainsi que l'intégration de ces graphes sont particulièrement soulignés. En s'appuyant sur les standards SHACL, un modèle de restriction sémantique représentant des groupes de formes partageant une même cible et pouvant contenir des conflits inter-formes est présenté. Un processus de configuration de pré-validation permettant d'activer le sous-graphe du modèle le mieux adapté au contexte actuel est décrit. De plus, une approche d'intégration des graphes de formes SHACL appartenant à un même environnement est proposée. L'intégration proposée résout les conflits de contraintes grâce à la spécialisation des formes. Un cas d'utilisation pratique, basé sur l'École de Ski Française, démontre l'utilisabilité des contributions proposées. Des évaluations de l'exactitude et de la cohérence du graphe de formes généré sont réalisées. Les performances des procédures mises en œuvre sont également évaluées. La thèse se conclut par un résumé des contributions et une proposition de pistes de recherche futures visant à améliorer davantage l'intégration et la représentation des graphes de formes SHACL
This thesis explores the introduction of Shapes Constraint Language graphs in semantic environments which present heterogeneous sources and different context requirements. This research presents a proposal for the enrichment of Semantic Web based systems, providing benefits for several domains such as the Industry 4.0. The thesis starts with a wide review of the current works related to the validation of semantic constraints on knowledge representation models. Based on a systematic literature review, a definition of a taxonomy which describes the related types of works is proposed. The open challenges related to the creation of shape graphs and their inclusion in existing semantic environments are highlighted. The needs for a shape graph representation which is able to attend different contexts and for the integration of shape graphs stand out. Based on the Shapes Constraint Language standards, a semantic restriction model which represents groups of shapes which share target and could hold inter-shape conflicts is presented. A pre-validation configuration process to activate the model's sub-graph that best fits the current context is described. Moreover, an approach for the integration of these graphs which belongs to a common environment is proposed. The integration procedure resolves the constraint conflicts with the specialization of shapes. A practical use case based on the French Ski School demonstrates the usability of the proposed contributions. Evaluations of the correctness and consistency of the generated shape graph are carried out. The implemented procedures' performance is also evaluated. The thesis concludes by summarizing the contributions and suggesting future research directions to further improve the integration and representation of Shapes Constraint Language graphs
APA, Harvard, Vancouver, ISO, and other styles
5

Osman, Guedi Abdoulkader. "Évolution et transformation automatisée de modèles de systèmes d’information : une approche guidée par l’analyse formelle de concepts et l’analyse relationnelle de concepts." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20239/document.

Full text
Abstract:
L'évolution rapide des besoins dus entre autres à l'innovation technique, la concurrence ou la réglementation conduit souvent à décrire le cadre d'étude des systèmes d'information dans des modèles conceptuels, pour faciliter l'évolution du fonctionnement des systèmes. La mise au point de ces modèles s'effectue en plusieurs phase au cours desquelles collaborent plusieurs équipes de nature différente, chaque intervenant apportant sa perception du système à construire en se limitant à la partie de son domaine de spécialisation. Il faut alors concilier les différentes perceptions. L'objectif essentiel de la thèse est de concevoir les mécanismes permettant d'une part d'obtenir le modèle factorisant les concepts communs à plusieurs modèles et, d'autre part, de proposer aux concepteurs une méthodologie de suivi de l'évolution de la factorisation. Pour réaliser la factorisation, nous avons mis en œuvre l'Analyse Formelle de Concepts et l'Analyse Relationnelle de Concepts (ARC) qui sont des méthodes d'analyse de données basées sur la théorie des treillis. Dans un ensemble d'entités décrites par des caractéristiques, les deux méthodes extraient des concepts formels qui associent un ensemble maximal d'entités à un ensemble maximal de caractéristiques partagées. Ces concepts formels sont structurés dans un ordre partiel de spécialisation qui les munit d'une structure de treillis. L'ARC permet de compléter la description des entités par des relations entre entités. La première contribution de la thèse est une méthode d'analyse de l'évolution de la factorisation d'un modèle basée sur l'AFC et l'ARC. Cette méthode s'appuie la capacité de l'AFC et de l'ARC à faire émerger au sein d'un modèle des abstractions thématiques de niveau supérieur, améliorant ainsi la sémantique des modèles. Nous montrons que ces méthodes peuvent aussi être employées pour suivre l'évolution du processus d'analyse avec des acteurs. Nous introduisons des métriques sur les éléments de modélisation et sur les treillis de concepts qui servent de base à l'élaboration de recommandations. Nous effectuons une expérimentation dans laquelle nous étudions l'évolution des 15 versions du modèle de classes du système d'information SIE-Pesticides. La seconde contribution de la thèse est une étude approfondie du comportement de l'ARC sur des modèles UML. Nous montrons l'influence de la structure des modèles sur différentes variables étudiées (comme les temps d'exécution et la mémoire occupée) au travers de plusieurs expérimentations sur les 15 versions du modèle SIE-Pesticides. Pour cela, nous étudions plusieurs configurations (choix d'éléments et de relations dans le méta-modèle) et plusieurs paramètres (choix d'utiliser les éléments non nommés, choix d'utiliser la navigabilité). Des métriques sont introduites pour guider le concepteur dans le pilotage du processus de factorisation et des recommandations sur les configurations et paramétrages à privilégier sont faites. La dernière contribution est une approche de factorisation inter-modèles afin de regrouper au sein d'un modèle l'ensemble des concepts communs à différents modèles sources conçus par différents experts. Outre le regroupement des concepts communs, cette analyse produit de nouvelles abstractions généralisant des concepts thématiques existants. Nous appliquons notre approche sur les 15 versions du modèle du SIE-Pesticides. L'ensemble de ces travaux s'inscrit dans un cadre de recherche dont l'objectif est de factoriser des concepts thématiques au sein d'un même modèle et de contrôler par des métriques la profusion de concepts produits par l'AFC et surtout par l'ARC
The rapidly changing needs among other things due to technical innovation, competition and regulation often leads to describe the context for the study of conceptual models in information systems to facilitate the evolution of operating systems. The development of these models is carried out in several phases during which several working teams of different nature, providing each participant's perception of the system to be built is limited to the part of his area of specialization. It must then reconcile the different perceptions.The main objective of the thesis is to design mechanisms to obtain a share of the model factoring concepts common to several models and, secondly, to provide designers with a methodology for monitoring the evolution of factorization.To perform the factorization, we have implemented the Formal Concept Analysis and Relational Concepts Analysis (RCA), which are methods of analysis based on the theory of lattice data. In a set of entities described by features, both methods extract formal concepts that combine a maximum of entities to a maximum set of shared characteristics together. These formal concepts are structured in a partial order of specialization that provides with a lattice structure.The CRA can complement the description of the entities by relationships between entities.The first contribution of the thesis is a textbf {method a model for analyzing the evolution of the factorization based on the FCA and the RCA}. This method builds the capacity of the AFC and the CRA to emerge in a model of thematic abstractions higher level, improving semantic models. We show that these methods can also be used to monitor the analytical process with stakeholders. We introduce metrics on the design elements and the concept lattices which are the basis for the development of recommendations. We conduct an experiment in which we study the evolution of the 15 versions of the model class of information-Pesticides EIS system.The second contribution of this thesis is a textbf {depth study of the behavior of the RCA on UML models.} We show the influence of model structure on different variables studied (such as execution time and memory used) through several experiments on 15 versions of the EIS-Pesticides model. For this, we study several configurations (choice of elements and relations in the meta-model) and several parameters (choice of using unnamed elements, choice of using airworthiness). Metrics are introduced to guide the designer in managing the process of factoring and recommendations on the preferred configurations and settings are made.The last contribution is a textbf {approach to inter-model factorization} to group in a model all the concepts common to different source models designed by different experts. In addition to the consolidation of common concepts, this analysis produces new abstractions generalizing existing thematic concepts. We apply our approach on 15 versions of the model EIS-Pesticides.All this work is part of a research framework which aims to factor thematic concepts within a model and control metrics by the profusion of concepts produced by the FCA and especially by RCA
APA, Harvard, Vancouver, ISO, and other styles
6

Nica, Cristina. "Exploring sequential data with relational concept analysis." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD032/document.

Full text
Abstract:
De nombreuses méthodes d’extraction de motifs séquentiels ont été proposées pour découvrir des motifs utiles qui décrivent les données analysées. Certaines de ces travaux se sont concentrés sur l’énumération efficace de motifs partiellement ordonnés fermés (cpo-motifs), ce qui rend leur évaluation difficile pour les experts, car leur nombre peut être important. Par suite, nous proposons une approche nouvelle, qui consiste à extraire directement des cpo-motifs multi-niveaux qui sont organisés dans une hiérarchie. Nous proposons une méthode originale dans la cadre de l’Analyse Relationnelle de Concepts (ARC), appelée RCA-SEQ, qui exploite la structure et les propriétés des treillis issus de l’ARC. RCA-SEQ comporte cinq étapes : le prétraitement des données ; l'exploration par l’ARC des données ; l'extraction automatisée d'une hiérarchie de cpo-motifs multi-niveaux par navigation des treillis issus de l’ARC ; la sélection de cpo-motifs pertinents ; l'évaluation des motifs par les experts
Many sequential pattern mining methods have been proposed to discover useful patterns that describe the analysed sequential data. Several of these works have focused on efficiently enumerating all closed partially-ordered patterns (cpo-patterns), that makes their evaluation a laboured task for experts since their number can be large. To address this issue, we propose a new approach, that is to directly extract multilevel cpo-patterns implicitly organised into a hierarchy. To this end, we devise an original method within the Relational Concept Analysis (RCA) framework, referred to as RCA-SEQ, that exploits the structure and properties of the lattices from the RCA output. RCA-SEQ spans five steps: the preprocessing of the raw data; the RCA-based exploration of the preprocessed data; the automatic extraction of a hierarchy of multilevel cpo-patterns by navigating the lattices from the RCA output; the selection of relevant multilevel cpo-patterns; the pattern evaluation done by experts
APA, Harvard, Vancouver, ISO, and other styles
7

Al-Msie'Deen, Ra'Fat. "Construction de lignes de produits logiciels par rétro-ingénierie de modèles de caractéristiques à partir de variantes de logiciels: l'approche REVPLINE." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2014. http://tel.archives-ouvertes.fr/tel-01015102.

Full text
Abstract:
La mise en place d'une ligne de produits logiciels permet de construire et de maintenir une famille de produits logiciels similaires en mettant en œuvre des principes de réutilisation. Ces principes favorisent la réduction de l'effort de développement et de maintenance, raccourcissent le temps de mise sur le marché et améliorent la qualité globale du logiciel. La migration de produits logiciels similaires vers une ligne de produits demande de comprendre leurs similitudes et leurs différences qui s'expriment sous forme de caractéristiques (features) offertes. Dans cette thèse, nous nous intéressons au problème de la construction d'une ligne de produits à partir du code source de ses produits et de certains artefacts complémentaires comme les diagrammes de cas d'utilisation, quand ils existent. Nous proposons des contributions sur l'une des étapes principales dans cette construction, qui consiste à extraire et à organiser un modèle de caractéristiques (feature model) dans un mode automatisé. La première contribution de cette thèse consiste à extraire des caractéristiques dans le code source de variantes de logiciels écrits dans le paradigme objet. Trois techniques sont mises en œuvre pour parvenir à cet objectif : l'Analyse Formelle de Concepts, l'Indexation Sémantique Latente et l'analyse des dépendances structurelles dans le code. Elles exploitent les parties communes et variables au niveau du code source. La seconde contribution s'attache à documenter une caractéristique extraite par un nom et une description. Elle exploite le code source mais également les diagrammes de cas d'utilisation, qui contiennent, en plus de l'organisation logique des fonctionnalités externes, des descriptions textuelles de ces mêmes fonctionnalités. En plus des techniques précédentes, elle s'appuie sur l'Analyse Relationnelle de Concepts afin de former des groupes d'entités d'après leurs relations. Dans la troisième contribution, nous proposons une approche visant à organiser les caractéristiques, une fois documentées, en un modèle de caractéristiques. Ce modèle de caractéristiques est un arbre étiqueté par des opérations et muni d'expressions logiques qui met en valeur les caractéristiques obligatoires, les caractéristiques optionnelles, des groupes de caractéristiques (groupes ET, OU, OU exclusif), et des contraintes complémentaires textuelles sous forme d'implications ou d'exclusions mutuelles. Ce modèle est obtenu en exploitant une structure obtenue par Analyse Formelle de Concepts appliquée à la description des variantes par les caractéristiques. L'approche est validée sur trois cas d'étude principaux : ArgoUML-SPL, Health complaint-SPL et Mobile media. Ces cas d'études sont déjà des lignes de produits constituées. Nous considérons plusieurs produits issus de ces lignes comme s'ils étaient des variantes de logiciels, nous appliquons notre approche, puis nous évaluons son efficacité par comparaison entre des modèles de caractéristiques extraits automatiquement par l'approche présentée et les modèles de caractéristiques initiaux (conçus par les développeurs des lignes de produits analysées).
APA, Harvard, Vancouver, ISO, and other styles
8

Miné, Antoine. "Domaines numériques abstraits faiblement relationnels." Phd thesis, Ecole Polytechnique X, 2004. http://tel.archives-ouvertes.fr/tel-00136630.

Full text
Abstract:
Le sujet de cette thèse est le développement de méthodes pour l'analyse automatique des programmes informatiques. Une des applications majeures est la conception d'outils pour découvrir les erreurs de programmations avant qu'elles ne se produisent, ce qui est crucial à l'heure où des tâches critiques mais complexes sont confiées à des ordinateurs. Nous nous plaçons dans le cadre de l'interprétation abstraite, qui est une théorie de l'approximation sûre des sémantiques de programmes, et nous nous intéressons en particulier aux domaines abstraits numériques spécialisés dans la découverte automatique des propriétés des variables numérique d'un programme.
Dans cette thèse, nous introduisons plusieurs nouveaux domaines numériques abstraits et en particulier le domaine des zones (permettant de découvrir des invariants de la forme X-Y≤c, des zones de congruence (X≡Y+c [b]) et des octogones (±X ±Y≤c). Ces domaines sont basés sur les concepts existants de graphe de potentiel, de matrice de différences bornées et sur l'algorithmique des plus courts chemins. Ils sont intermédiaires, en terme de précision et de coût, entre les domaines non relationnels (tel celui des intervalles), très peu précis, et les domaines relationnels classiques (tel celui des polyèdres), très coûteux. Nous les nommons " faiblement relationnels ". Nous présentons également des méthodes permettant d'appliquer les domaines relationnels à l'analyse de nombres à virgule flottante, jusqu'à présent uniquement réalisable par des domaines non relationnels donc peu précis. Enfin, nous présentons des méthodes génériques dites de " linéarisation " et de " propagation de constantes symboliques " permettant d'améliorer la précision de tout domaine numérique, pour un surcoût réduit.
Les méthodes introduites dans cette thèse ont été intégrées à Astrée, un analyseur spécialisé dans la vérification de logiciels embarqués critiques et se sont révélées indispensables pour prouver l'absence d'erreurs à l'exécution de logiciels de commande de vol électrique. Ces résultats expérimentaux viennent justifier l'intérêt de nos méthodes pour des cadre d'applications réelles.
APA, Harvard, Vancouver, ISO, and other styles
9

Souza, De Oliveira Roberto. "Méthode d'élaboration d'un benchmark pour les SGBD relationnels." Toulouse, ENSAE, 1987. http://www.theses.fr/1987ESAE0012.

Full text
Abstract:
L'étude de la charge d'un système, de ses performances et de ses algorithmes de base s'appuie fortement sur l'application d'outils mathématiques. En ce qui concerne les Systemes de Gestion de Base de Données Relationnels (SGBDR), l'analyse des données fournit des outils qui s'avèrent très importants dans l'évolution de telles études. À partir de l'application des méthodes de classification aux attributs appartenant aux relations du schéma d'une base, la charge du SGBDR (due à cette base) est définie en fonction des représentations des opérandes (attributs, groupes d'attributs, relations) composant ses requêtes. L'emploi de cette méthode à une base de données réelle évoluant avec le temps a été faite et la synthèse des résultats obtenus y est étudiée.
APA, Harvard, Vancouver, ISO, and other styles
10

Bendaoud, Rokia Napoli Amedeo. "Analyses formelle et relationnelle de concepts pour la construction d'ontologies de domaines à partir de ressources textuelles hétérogènes." S. l. : S. n, 2009. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2009_0054_BENDAOUD.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

El, Zant El Kadhi Nahla. "Recherche de motifs relationnels dans des séquences : application aux séquences biologiques." Paris 13, 2005. http://www.theses.fr/2005PA132037.

Full text
Abstract:
Ce travail présente différentes méthodes pour la recherche des motifs dans les séquences. Il existe deux types de méthodes à savoir, la recherche des mots exacts et la recherche des mots approchés. Nous avons développé une nouvelle méthode de recherche qui tire profit de la méthode de KARP, MILLER et ROSENBERG. Notre méthode consiste à chercher les mots relationnels répétés dans une séquence. Nous avons appliqué notre méthode sur plusieurs types de séquences biologiques.
APA, Harvard, Vancouver, ISO, and other styles
12

Avarguès-Weber, Aurore. "Cognition visuelle chez l'abeille Apis mellifera : catégorisation par extraction de configurations spatiales et de concepts relationnels." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1251/.

Full text
Abstract:
Dans ce travail nous avons étudié la sophistication cognitive dont est capable l'abeille domestique Apis mellifera dans l'analyse de son environnement visuel. Grâce à la mise en place d'une procédure expérimentale d'apprentissage permettant de mettre en évidence les performances fines de discrimination visuelle des abeilles, nous avons étudié la classification de stimuli visuels par catégorisation et formation de concepts. Dans le premier cas, les abeilles groupent des objets visuels en fonction de leur appartenance à une catégorie définie par une similarité perceptive; dans le deuxième cas, les abeilles regroupent les stimuli visuels à partir de règles abstraites (ex: 'plus grand que') et non de leurs propriétés physiques. Nous avons étudié en particulier la catégorisation de stimuli sur la base d'une configuration de type " visage ". Nous montrons que cet insecte peut extraire les relations entre les éléments d'un visage schématique et les combiner de façon à définir une catégorie. Ainsi, la présence de cette configuration permet de traiter de nouveaux stimuli comme appartenant à la catégorie d'intérêt. L'utilisation de configuration pour reconnaître des objets visuels semble être naturellement utilisée par l'abeille et n'est donc pas seulement induite par un entraînement spécifique. Nous avons par ailleurs étudié l'acquisition par l'abeille de concepts relationnels de nature spatiale tels que " au-dessus " ou " en-dessous ", indépendamment des éléments impliqués dans ces relations. L'abeille s'est de plus montrée capable d'associer deux concepts différents (relation spatiale et différence entre les éléments impliqués dans la relation) dans une règle permettant d'obtenir une récompense, transférable à de nouveaux stimuli physiquement très différents. Ces résultats mettent en évidence un niveau d'analyse et d'abstraction insoupçonné pour un invertébré et ouvrent le débat sur l'architecture neurale minimale requise pour atteindre une telle sophistication cognitive
In this work we studied the cognitive sophistication reached by the honeybee Apis mellifera when analysing its visual environment. Thanks to a new-designed learning protocol allowing better performance of bees' visual discrimination, we studied visual stimuli classification by categorization and concept formation. In the first case, bees grouped visual objects into classes defined by perceptual similarity; in the second case, bees extract abstract rules from visual stimuli (e. G. 'bigger than') instead of their specific physical properties. We studied in particular stimuli categorization based on a "face-like" configuration. We show that this insect can extract relationships between the elements of a schematic face and combine them to define a category. Thus, novel stimuli presenting this configuration would be process as member of the category of interest. Moreover, bees seem to naturally use configuration to recognize visual objects. This processing is thus not only inducing by our training procedure. We also studied the bees' acquisition of spatial relational concepts such as "above" or "below", regardless of the elements involved in these relationships. The bee has, in addition, shown its ability to combine two different concepts (spatial relationship and difference between the elements involved in the relationship) in a rule in order to obtain a reward. This rule is transferable to novel physically different stimuli. These results demonstrate an unsuspected level of analysis and abstraction in an invertebrate and open debate on the neural minimum architecture required to achieve such cognitive complexity
APA, Harvard, Vancouver, ISO, and other styles
13

Zouari, Dorsaf. "Analyse des mécanismes de coordination contractuels et relationnels au sein des chaines logistiques." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENG014.

Full text
Abstract:
Le potentiel de création de valeur dans une supply chain ne peut être réalisé que grâce à une gestion efficace des relations inter-organisationnelles (Madhok et Tallman, 1998). Xu et Beammon (2006) insistent sur la nécessité de disposer d'un ensemble de moyens et d'outils pour gérer les interdépendances et prendre des décisions cohérentes tout en mettant en avant l'importance des mécanismes de coordination. Ainsi, l'objectif de cette thèse est de faire ressortir les différents éléments qui composent les coordinations inter-organisationnelles dans la supply chain. En outre, nous analysons comment les mécanismes de coordination relationnels et contractuels contribuent à la gestion des intérêts mutuels des relations inter-organisationnelles et permettent la résolution des conflits. Plus spécifiquement, la question de recherche auquel ce travail cherche à répondre est : Quelle est l'influence des mécanismes de coordination relationnels et contractuels sur la coordination inter-organisationnelle de la supply chain ? Afin de mieux comprendre ce phénomène, une étude qualitative a été menée auprès de quinze professionnels dans la supply chain management. Une analyse de contenu thématique a permis de définir de façon plus précise les différents éléments composant la coordination inter-organisationnelle. Les matériaux collectés ont été confrontés à l'analyse de la littérature puis testés auprès d'un échantillon de 216 répondants dans le domaine de la supply chain management. Les données quantitatives collectées ont été analysées à l'aide d'une analyse en composantes principales afin d'épurer nos échelles de mesure. Ensuite, nous avons fait appel aux modèles d'équations structurelles PLS-PM (régressions aux moindres carrées partiels) pour estimer la validité convergente ainsi que la validité discriminante des échelles de mesures. Cette méthode nous a permis de valider nos hypothèses de recherche relatives au modèle de coordination inter-organisationnelle de la supply chain. Les résultats de cette recherche mettent en évidence le lien entre les mécanismes de coordination relationnels et contractuels et leurs impacts sur la collaboration, leurs rôles dans la maitrise des difficultés de coordination ainsi que leurs poids sur l'évaluation de l'efficacité du contrat. Nous avons également étudié un impact du type de partenaire (stratégique, non stratégique) sur la coordination inter-organisationnelle de la supply chain
In a supply chain, the value creation potential can only be achieved through effective management of inter-organizational relationships (Madhok and Tallman, 1998). Xu and Beammon (2006) underline the need for a set of resources and tools to manage interdependencies and take consistent decisions while emphasizing the importance of coordination mechanisms. Thus, the objective of this thesis is to figure out elements that make up the inter-organizational coordination in the supply chain. Moreover, we analyze inter-organizational coordination between supply chain partners and the role of contractual and relational mechanisms for managing their interests and resolve conflicts. More specifically, through this Dissertation we seek to answer the following question: What is the impact of coordination mechanisms and contractual relationship on inter-organizational coordination of the supply chain? To better understand this phenomenon, a qualitative study was conducted with fifteen professionals in supply chain management field. A thematic content analysis helped define more accurately the various components of inter-organizational coordination. The collected materials were confronted with the analysis of the literature and then tested on a sample of 216 respondents in the field of supply chain management. Quantitative data collected was analyzed using a principal component analysis in order to purify our scales. We then used the PLS -PM of structural equation models (Partial Least Squares Regression) to estimate the convergent and discriminant validity of the measurement scales validity. This method allowed us to validate our research hypotheses concerning the model of inter-organizational coordination of the supply chain. The results of this research highlight the link between the mechanisms of coordination and contractual relationship and their impact on collaboration, their roles in mastering the difficulties of coordination and their weight on the evaluation of the effectiveness of the contract. We also studied an impact on the type of partner (strategic, non-strategic) on inter-organizational coordination of the supply chain
APA, Harvard, Vancouver, ISO, and other styles
14

Munch, Mélanie. "Améliorer le raisonnement dans l'incertain en combinant les modèles relationnels probabilistes et la connaissance experte." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASB011.

Full text
Abstract:
Cette thèse se concentre sur l'intégration des connaissances d'experts pour améliorer le raisonnement dans l'incertitude. Notre objectif est de guider l'apprentissage des relations probabilistes avec les connaissances d'experts pour des domaines décrits par les ontologies.Pour ce faire, nous proposons de coupler des bases de connaissances (BC) et une extension orientée objet des réseaux bayésiens, les modèles relationnels probabilistes (PRM). Notre objectif est de compléter l'apprentissage statistique par des connaissances expertes afin d'apprendre un modèle aussi proche que possible de la réalité et de l'analyser quantitativement (avec des relations probabilistes) et qualitativement (avec la découverte causale). Nous avons développé trois algorithmes à travers trois approches distinctes, dont les principales différences résident dans leur automatisation et l'intégration (ou non) de la supervision d'experts humains.L'originalité de notre travail est la combinaison de deux philosophies opposées : alors que l'approche bayésienne privilégie l'analyse statistique des données fournies pour raisonner avec, l'approche ontologique est basée sur la modélisation de la connaissance experte pour représenter un domaine. La combinaison de la force des deux permet d'améliorer à la fois le raisonnement dans l'incertitude et la connaissance experte
This thesis focuses on integrating expert knowledge to enhance reasoning under uncertainty. Our goal is to guide the probabilistic relations’ learning with expert knowledge for domains described by ontologies.To do so we propose to couple knowledge bases (KBs) and an oriented-object extension of Bayesian networks, the probabilistic relational models (PRMs). Our aim is to complement the statistical learning with expert knowledge in order to learn a model as close as possible to the reality and analyze it quantitatively (with probabilistic relations) and qualitatively (with causal discovery). We developped three algorithms throught three distinct approaches, whose main differences lie in their automatisation and the integration (or not) of human expert supervision.The originality of our work is the combination of two broadly opposed philosophies: while the Bayesian approach favors the statistical analysis of the given data in order to reason with it, the ontological approach is based on the modelization of expert knowledge to represent a domain. Combining the strenght of the two allows to improve both the reasoning under uncertainty and the expert knowledge
APA, Harvard, Vancouver, ISO, and other styles
15

Lecocq, Xavier. "Comportements d'acteurs et dynamique d'un réseau interorganisationnel : le phénomène des écarts relationnels." Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50374-2003-23.pdf.

Full text
Abstract:
La thèse soutenue dans ce travail est que les jeux socio-politiques au sein d'un réseau interorganisationnel (RIO) et la dynamique de la structure elle-même ne peuvent être saisis sans une prise en compte des "écarts relationnels" des organisations qui y sont impliquées. En effet, un RIO donné n'est que rarement le seul contexte d'action des firmes qui le composent et ces dernières entretiennent donc des relations économiques à l'extérieur de celui-ci. Le rapprochement des cadres théoriques du réseau social et du néo-institutionnalisme sociologique permet de proposer une approche socio-cognitive, largement sous-représentée dans la littérature, d'un RIO logistique européen. L'étude multi-niveaux de la structure a été privilégiée grâce à la combinaison de l'analyse de réseaux et de l'étude de cas. L'analyse simultanée des écarts relationnels et des normes qui les régulent éclaire la dialectique entre découplage et couplage du RIO et précise le fonctionnement de cette forme d'organisation. Les résultats mettent notamment en évidence les multiples stratégies relationnelles qui cohabitent dans un RIO et le jeu des acteurs avec les normes. La recherche conduit également à proposer une nouvelle approche du contrôle dans les réseaux interorganisationnels.
APA, Harvard, Vancouver, ISO, and other styles
16

Plociniczak, Sébastien. "L' encastrement social des marchés : éléments théoriques et empiriques pour une analyse en termes de réseaux relationnels." Paris 13, 2008. http://www.theses.fr/2008PA131021.

Full text
Abstract:
En dépit du rôle central du marché dans les constructions théoriques des économistes, celui-ci demeure peu interrogé et apparaît finalement comme une catégorie vague au mieux équivoque. La démarche entreprise dans ce travail de thèse s’inscrit au sein d’une évolution collective qui, depuis les années 1970, diversifie l’analyse du marché. Cette évolution collective est celle de la Nouvelle Sociologie Économique. Constituée puis structurée autour d’une idée clé, celle de l’encastrement, nous nous proposons de clarifier tout d’abord l’utilisation de cette idée dans le cadre des travaux respectifs de Karl Polanyi et de Mark Granovetter car la lucidité nécessaire à l’éclaircissement de cette idée n’a pas toujours été de mise jusqu’alors. Ensuite, nous mettons en évidence qu’une analyse des marchés a tout à gagner d’une compréhension plus approfondie de la logique multilatérale des réseaux relationnels. Enfin, à partir des principales propositions établies, nous mettons à l’épreuve le modèle heuristique contractuel de l’Économie des Coûts de transaction d’Oliver E. Williamson
Despite the core role played by market in economic theoretical frameworks, the market is still little addressed and finally remains a vague type at best equivoque. This thesis aims to contribute to a collective pattern devoted to the diversification of market analysis since the 70s. This collective pattern is the New Economic Sociology, founded and built on a central idea, i. E. The embeddedness. In the perspective of Karl Polanyi and Mark Granovetter’s works, the thesis intends thus to enlighten first the use of this idea as the necessary clarification does not occur until now. Then, it puts forward the fact that an analysis of markets may definitely benefit from a deeper understanding of the multilateral logic of relational networks. At last, on the based of main assumptions defined in this thesis, the robustness of the heuristic contractual model of the Transaction Costs Economics depicted by Oliver E. Williamson is assessed
APA, Harvard, Vancouver, ISO, and other styles
17

Quidu, Frédérique. "Processus relationnels et stratégies de réorganisation du système hospitalier français : une analyse dynamique des accords de coopération." Thesis, Rennes 2, 2015. http://www.theses.fr/2015REN20031/document.

Full text
Abstract:
Les organisations hospitalières ont engagé des processus relationnels structurants depuis 1970, sous la pression croissante des réformes qui se sont succédées dans ce secteur. Ces rapprochements ont donné lieu à une diversité de formes relationnelles identifiable par des habillages juridiques très variés. Ces processus relationnels nous informent aussi sur le statut de la relation : stable, instable, transitoire, etc. L’analyse des processus relationnels dans le champ hospitalier n’a suscité que peu d’études, contrairement au secteur industriel où les accords de coopération ont fait l’objet de nombreux écrits. L’objet de notre recherche est d’identifier et d’expliquer les structures et les fonctionnements des processus relationnels qui sont mis en oeuvre dans le secteur hospitalier et d’analyser le passage d’une forme relationnelle à une autre. Notre application empirique a concerné 83 formes relationnelles (formelles et informelles) qui se sont nouées, entre 1977 et 2012, au sein du système hospitalier français avec au moins un des protagonistes appartenant à la sphère publique. La mise en oeuvre de plusieurs analyses dont une taxonomie ont permis de dégager des résultats originaux et stimulants pour le développement d’un champ de recherche en émergence. Les processus relationnels dans le secteur hospitalier et les accords de coopération dans le secteur industriel présentent des caractéristiques contrastées. Par ailleurs, l’élaboration d’une grille d’analyse des processus relationnels a permis de classer les formes relationnelles à l’aide de seulement trois critères. Ce travail, basé sur une analyse statistique approfondie, donne une dimension explicative et prospective à notre recherche sur les rapprochements dans le secteur hospitalier
Hospital organizations undertook relational processes structuring since the years 1970, under the increasing pressure of the reforms which followed one another in this sector. These connections caused a diversity of relational forms identifiable by very varied legal status. These relational processes also inform us on the statute of the relation: stable, unstable, transitory, etc. The analysis of the relational processes in the hospital field caused only few studies, contrary to the industrial sector where the cooperation agreements were the object of many written papers. The object of our research is to identify and explain the structures and the way of functioning of the relational processes which are implemented in the hospital sector and to analyze the passage of a relational form to another. Our empirical application concerned 83 relational forms (formal and unformal) which were established within the French hospital system between 1977 and 2012 with at least one of the protagonists belonging to the public sphere. The implementation of several analyses whose taxonomy made it possible to bring out original and stimulative results for the development of a research area in emergence. The relational processes in the hospital sector and the cooperation agreements of the industrial sector indeed show contrasted characteristics. Moreover, the elaboration of a grid of analysis of the relational processes made it possible to classify the relational forms using only three criteria. This work, based on a thoroughly statistical analysis, gives an explanatory and prospective dimension to our research on the connections in the hospital sector
APA, Harvard, Vancouver, ISO, and other styles
18

Aguilar, Río José Ignacio. "Pour une analyse de la "présentation de soi" de l'enseignant de L2 : Style revendiqué, aspects relationnels, décisions interactionnelles." Phd thesis, Université de la Sorbonne nouvelle - Paris III, 2010. http://tel.archives-ouvertes.fr/tel-00547680.

Full text
Abstract:
Ce travail se situe à la croisée de la didactique des langues étrangères (L2), des sciences de l'éducation et de la psychologie sociale. L'hypothèse de départ porte sur la possibilité que des enseignants de L2 montrent, face aux apprenants et au cours d'une rencontre en classe de L2, des comportements allant au-delà de leurs fonctions institutionnelles d'organiser, faciliter et participer à la communication. Il est question caractériser la manière dont des enseignants de L2 se représentent leur métier. Nous travail adhérons ainsi au courant des études sur la cognition des enseignants qui explorent leurs croyances hétéroclites. Nous avons d'abord observé des rencontres en classe de L2 en présentiel que nous avons ensuite analysées à la manière de l'analyse conversationnelle. Le recours à l'analyse conversationnelle nous a permis de déterminer la manière dont les participants co-construisent la rencontre en classe de L2. Certaines des pratiques repérées chez l'enseignant, telles que la désaffiliation, la légitimation du rire, ont été caractérisées comme des actions motivées par ses croyances. Enfin, le recours à des entretiens d'auto-confrontation a permis de confronter les enseignants avec leur propre pratique afin qu'ils la commentent selon leur logique et leur ressenti. Ce dispositif a rendu possible un dialogue entre le chercheur et les enseignants grâce auquel leur savoir-être enseignant a été caractérisée finement.
APA, Harvard, Vancouver, ISO, and other styles
19

Rostaing, Hervé. "Veille technologique et bibliométrie : concepts, outils, applications." Aix-Marseille 3, 1993. https://tel.archives-ouvertes.fr/tel-01550050.

Full text
Abstract:
Dans la compétition économique actuelle l’information est une composante essentielle de la réussite. Il est vital pour l’entreprise d’être constamment informée sur son environnement. Pour qu’une société soit compétitive elle doit faire preuve d’une forte activité innovatrice. Ce mémoire expose la réflexion menée pour concevoir et développer un logiciel d’aide à l’élaboration des stratégies des programmes en Recherche et Développement. Le premier volet traite du besoin en information scientifique et technique des entreprises, les structures et les principes à mettre en place pour une gestion efficace de cette information. Le système de Veille Technologique préconisé doit permettre l’élaboration d’indicateurs de tendances qui aideront les décideurs à diagnostiquer l’état des activités scientifiques et techniques. L’outil informatique proposé repose sur une technique de traitement automatique de l’information publiée : la bibliométrie. Après un état de l’art des méthodes bibliométriques et une analyse critique de leurs applications à la Veille Technologique, on définit un nouvel outil plus adapté à l’élaboration d’indicateurs en Veille Technologique. Ce logiciel et ses multiples traitements sont présentés ainsi que des cas pratiques d’exploitations de bases de données accessibles en ligne. La performance de cet outil repose sur ses capacités à intégrer la diversité des sources d’information, à manipuler avec souplesse les données textuelles et à livrer de multiples résultats statistiques en bibliométrie.
APA, Harvard, Vancouver, ISO, and other styles
20

Évrard, Yves. "Les consommations culturelles : concepts et méthodologies." Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090045.

Full text
Abstract:
L'objet de cette thèse est de présenter un ensemble de travaux portant sur les consommations culturelles tant sur le plan conceptuel que sur le plan des méthodologies appropriées à la recherche dans ce domaine. Après une réflexion sur la délimitation des frontières du domaine culturel, la première partie est consacrée à l'identification des caractéristiques spécifiques des biens culturels (produits et services) et à l'analyse des conséquences de ces spécificités sur le management des entreprises et organisations qui interviennent dans le secteur artistique et culturel en particulier sur l'exercice de la fonction marketing. L'objet des travaux présentés dans la deuxième partie est de contribuer, dans le cadre de la théorie du comportement du consommateur à une meilleure compréhension des déterminants des consommations culturelles ainsi que de leurs processus de choix et d'évaluation. Dans le contexte de recherches portant essentiellement sur les medias (presse, télévision, radio) et les supports électroniques de réception et de lecture, on a en particulier identifié les dimensions et analysé les structures de la "relation à l'usage". Enfin, la troisième partie a un caractère méthodologique (procédures de collecte des données et méthodes d'analyse multivariée des données). Deux directions principales sont abordées : l'analyse multidimensionnelle des similarités et des préférences ; l'analyse des structures de causalité
The aim of this thesis is to gather a set of works dealing with consumption of arts and medias (cultural goods), both at a conceptual level and a methodological one. Its first part, after delineating the research area, identifies the main specificities of cultural goods and analyzes their consequences on management and marketing for artistic organizations. In the framework of consumer behavior theory, the second part is devoted to research aiming at a better understanding of consumption of cultural goods, at the level of its antecedents, choice processes and satisfaction judgements. Main dimensions and structure of consumption experience are identified and analyzed in the case of medias (newspapers, radio and television broadcasting) and electronic apparels. Finally, the third part exposes the methodological framework (data collection and multivariate analysis), particular multidimensional scaling and causal models
APA, Harvard, Vancouver, ISO, and other styles
21

Aziz-Ouazzani, Saloua. "John Locke : termes, concepts et théorie." Lyon 2, 1991. http://www.theses.fr/1991LYO20030.

Full text
Abstract:
L'objet de Locke est de montrer comment le langage peut être un outil adéquat à l'expression des connaissances. Il distingue entre l'usage civil et l'usage philosophique des mots. Savoir les idées particulières contenues dans la signification des mots est une condition nécessaire à l'usage correct de la langue. Locke est fondateur de la distinction entre le lexique et la terminologie, ainsi que l'analyse componentielle
Locke's aim is to show how language can be a suitable means to express knowledge. He distinguishes between civil use and philosophical use of words. Knowing particulars contained in the signification of words is a necessary condition to the right use of language. Locke is the pioneer of the distinction between lexical words and terminology as well as componential analysis
APA, Harvard, Vancouver, ISO, and other styles
22

Magnier, Jeoffrey. "L’habitat participatif au prisme de ses acteurs : une analyse des mécanismes d’institutionnalisation et des effets relationnels appuyée sur deux opérations lilloises." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1A021/document.

Full text
Abstract:
Cette thèse porte sur le processus d’institutionnalisation de l’habitat participatif, mettant en question la conjonction d’intérêt des acteurs associatifs et politiques qu’il connait depuis le début des années 2010. Ces initiatives citoyennes, apparues vers le milieu des années 2000 sous des appellations diverses, se sont unifiées sous le vocable « habitat participatif » en 2010, manifestant ainsi la volonté d’apparaitre en un mouvement unique et revendicatif de valeurs sociales et environnementales accrues par rapport au parc de logement traditionnel. Ces opérations ne sont cependant pas les premières du genre avec des formes proches de projets émergeants dès la fin des années 1970, jusqu’au milieu des années 1990 sous des appellations diverses, guidés par l’action collective : habitat groupé autogéré, habitat groupé ou encore habitat partagé. Au-delà de la différence générationnelle, ce travail met l’accent sur les mécanismes de transformations temporels, sociaux et politiques du mouvement de l’habitat participatif, ainsi que sur leurs effets sur les acteurs impliqués. Durant cinq ans, l’étude s’est nourrie d’une enquête sur deux opérations de la Métropole Lilloise ayant émergé dans ces deux contextes historiques, permettant ainsi d’alimenter les analyses fondées sur une méthodologie qualitative variée (entretiens, observations, analyse documentaire). Pour mieux caractériser les opérations françaises et leurs évolutions, le choix a été fait de les mettre en perspective avec les exemples du Danemark et du Canton de Genève. S’inscrivant dans une sociologie de la ville, avec une orientation théorique et méthodologique inspirée par l’interactionnisme sans pour autant s’y enfermer, la thèse propose une analyse historique et thématique de la genèse de la construction allant des implications historiques du vivre ensemble et de la conception du commun, à la construction associative à travers les décennies. Le détour génésiaque s’offre ainsi comme un préalable indispensable pour comprendre les mécanismes d’action et leurs effets sur les acteurs politiques et professionnels dont les pratiques et les usages sont ancrés dans un monde où l’habitant reste souvent une figure mineure de la participation. C’est l’habitant-acteur qui fait l’objet du dernier axe de ce travail, dans la dimension individuelle, mais également collective : d’une part pour saisir les motifs d’implication dans ces projets alternatifs de long-terme, d’autre part, pour mettre en lumière les modifications induites dans la vision et les pratiques habitantes
This thesis is based on the inclusion of cohousing, since the early 2010, in a process of institutionalization in which the interests of associative and political actors converge. These city initiatives, which appeared in the mid-2000s under various names, were unified under the term "habitat participatif" in 2010, thus demonstrating the will to appear as a single movement representing greater social and environmental values compared to the traditional housing stock. However, these operations were not the first of their kind with similar collective projects emerging from the late 1970s until the mid-1990s under various names: self-managed group housing, grouped housing or shared housing. Beside the generational difference, this work focuses on the mechanisms of temporal, social and political transformations of the cohousing movement, as well as their effects on the actors involved. For five years, the study was based on two Lille Metropole operations that emerged in these two historical contexts, thus making it possible to study the results of a varied qualitative analysis. To strengthen the approach and to highlight evolution patterns, I put the French case into perspective with the examples of Denmark and the Canton of Geneva. Guided by the principles of urban sociology and by interactionism, without strictly sticking to them, I first develop the theoretical and methodological framework of this research. Then I move on to make a historical and thematic analysis of the genesis of construction, ranging from the historical implications of living together and the conception of the common, to associative construction over the decades. I believe that a detour in the genesis of this phenomenon is an essential prerequisite to understand the mechanisms of action and their effects on political and professional actors, whose practices and uses are rooted in a world where the inhabitant is often only a minor figure. The inhabitant actor is the ultimate object of analysis of this work, in both an individual and a collective dimension. This is mainly done, on the one hand, to grasp the reasons to get involved in these alternative long-term projects and, on the other hand, to highlight the changes induced in the vision and the living practices
APA, Harvard, Vancouver, ISO, and other styles
23

Boukhetta, Salah Eddine. "Analyse de séquences avec GALACTIC – Approche générique combinant analyse formelle des concepts et fouille de motifs." Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS035.

Full text
Abstract:
Une séquence est une suite d’éléments ordonnés comme par exemple les trajectoires de déplacement ou les séquences d’achats de produits dans un supermarché. La fouille de séquences est un domaine de la fouille de données qui vise à extraire des motifs séquentiels fréquents à partir d’un ensemble de séquences, où ces motifs sont le plus souvent des sous-séquences. Plusieurs algorithmes ont été proposés pour l’extraction des motifs séquentiels fréquents. Avec l’évolution des capacités de calcul, la tâche d’extraction des motifs séquentiels fréquents est devenue plus rapide. La difficulté réside alors dans le trop grand nombre de motifs séquentiels extraits, qui en rend difficile la lisibilité et donc l’interprétation. On parle de déluge de motifs. L’Analyse Formelle de Concepts (AFC) est un domaine d’analyse de données permettant d’identifier des relations à partir d’un ensemble de données binaires. Les structures de motifs étendent l’AFC pour traiter des données complexes comme les séquences. La plateforme GALACTIC implémente l’algorithme Next Priority Concept qui propose une approche d’extraction de motifs pour des données hétérogènes et complexes. Il permet un calcul de motifs génériques à travers des descriptions spécifiques d’objets par des prédicats monadiques. Il propose également de raffiner un ensemble d’objets à travers des stratégies d’explorations spécifiques, ce qui permet de réduire le nombre de motifs. Dans ce travail, nous nous intéressons à l’analyse de données séquentielles en utilisant GALACTIC. Nous proposons plusieurs descriptions et stratégies adaptées aux séquences. Nous proposons également des mesures de qualité non supervisées pour pouvoir comparer entre les motifs obtenus. Une analyse qualitative et quantitative est menée sur des jeux de données réels et synthétiques afin de montrer l’efficacité de notre approche
A sequence is a sequence of ordered elements such as travel trajectories or sequences of product purchases in a supermarket. Sequence mining is a domain of data mining that aims an extracting frequent sequential patterns from a set of sequences, where these patterns are most often common subsequences. Support is a monotonic measure that defines the proportion of data sharing a sequential pattern. Several algorithms have been proposed for frequent sequential pattern extraction. With the evolution of computing capabilities, the task of frequent sequential pattern extraction has become faster. The difficulty then lies in the large number of extracted sequential patterns, which makes it difficult to read and therefore to interpret. We speak about "deluge of patterns". Formal Concept Analysis (FCA) is a field of data analysis for identifying relationships in a set of binary data. Pattern structures extend FCA to handle complex data such as sequences. The GALACTIC platform implements the Next Priority Concept algorithm which proposes a pattern extraction approach for heterogeneous and complex data. It allows a generic pattern computation through specific descriptions of objects by monadic predicates. It also proposes to refine a set of objects through specific exploration strategies, which allows to reduce the number of patterns. In this work, we are interested in the analysis of sequential data using GALACTIC. We propose several descriptions and strategies adapted to sequences. We also propose unsupervised quality measures to be able to compare between the obtained patterns. A qualitative and quantitative analysis is conducted on real and synthetic datasets to show the efficiency of our approach
APA, Harvard, Vancouver, ISO, and other styles
24

Perru, Olivier. "Analyse épistémologique des concepts d'individualité et d'association : les degrés de l'association." Paris 1, 1996. http://www.theses.fr/1995PA010639.

Full text
Abstract:
L'histoire des sciences et l'épistémologie de la biologie permettent de cerner le contenu de signification du concept d'association dans le monde vivant. En particulier, l'étude de la symbiose permet de préciser l'association au sens d'interdépendance mutuelle, avec comme corollaires le besoin et la complémentarité, la division des fonctions ; les cas les plus intégrés soulignent d'une nouvelle individualité, par l'établissement d'une unité de vie et de nouvelles structures. L'analogie permet de souligner ce qu'ont de commun les sociétés humaines et les sociétés animales, de préciser et de discuter les spécificités humaines en matière de coopération et d'association. La diversité des structures socio-politiques humaines apparait résulter de la diversité des recherches en cette matière. Seul le bien commun semble légitimer un équilibre des diverses formes "humaines" d'associations de l'individu à la cité
The history of the sciences and the epistemology of biology can be used to specify the signification contents of the concept of association in the living world. The study of symbiosis in particular can lead to a more precise analysis of association in the sense of mutual interdependence, with common corollaries : need, complementarity and the division of functions. The most integrated cases underline the appearance of a new individuality, by the establishment of a unity of life and new structures. The analogy allows the underlining of what is common between human and animal societies, to discuss, and be precise about human specificities, the substance of cooperation and association. The diversity of the human socio-political structure would appear to result from the diversity of the researches in this subject. Only the common good seems to justify the stability of diverse human forms of the individual's associations in the city
APA, Harvard, Vancouver, ISO, and other styles
25

Samgba, Aiah Erastus. "L'enseignant, l'apprenant et la société : Analyse de problèmes relationnels en milieu scolaire dans le cadre de l'enseignement du français en Sierra Leone." Montpellier 3, 2002. http://www.theses.fr/2002MON30018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Postoev, Ivan. "Les mots sans les choses : concepts culturels, référence et interprétation." Paris, EHESS, 2007. http://www.theses.fr/2007EHES0072.

Full text
Abstract:
L’étude se centre sur les « concepts culturels », qui se caractérisent par l'absence de référents matériels et constituent un outil important de lïnterprétation. L’objectif de l’étude est de montrer que les concepts culturels constituent une classe à part, d’étudier leurs particularités et d’appliquer les résultats de cette étude à un certain nombre de textes littéraires. La première partie est consacrée à l’étude des hypothèses théoriques élaborées dans la philosophie (Kant, Rickert, Cassirer, Searle, Weitz) et dans la linguistique (Benveniste, sémantique cognitive, Wierzbicka). La deuxième partie comporte l'aperçu des propriétés particulières des concepts culturels, notamment le lien avec la situation archétype, l’aspect systématique et idéologique. Leur dimension historique est étudiée dans le contexte des travaux de Foucault et des données de l’histoire des mentalités. Ces acquis théoriques sont appliqués à des textes littéraires français et anglais allant du 17ème au 20ème siècle
The object of this study is ‘cultural concepts’, which are characterizled by the absence of material referents and play an important role in cultural communication and interpretation. The purpose of the study is to show that cultural concepts constrtute a separate class of concepts ; describe their specific properties, and apply the results to a number of literary texts. The first part contains a survey of theoretic hypotheses elaborated in philosophy (Kant, Rickert, Cassirer, Searle, Weitz) and linguistics (Benveniste, cognitive semantics, Wierzbicka). The second part concerns the specific properties of cultural concepts, eg. Implication of an 'exemplary‘ situation and their systematic and ideological aspect. Their historic aspect is discussed in connection with the theories of Foucault and the principles of history of mentalities. The results are applied to a number of French and English literary texts dating back from 17th to 20th centuries
APA, Harvard, Vancouver, ISO, and other styles
27

Jay, Nicolas. "Découverte et représentation des trajectoires de soins par analyse formelle de concepts." Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00585411.

Full text
Abstract:
Enjeu majeur de santé publique, les maladies chroniques nécessitent souvent une approche multidisciplinaire et des contacts multiples entre le patient et le système de soins. La maîtrise de ce parcours, la trajectoire de soins, est un gage de qualité des soins, qualité de vie et d'efficience médico-économique. Pour maîtriser les trajectoires de soins, il faut les connaître. Or, à ce jour en France, aucun système d'information en santé à grande échelle n'est conçu pour décrire les trajectoires de soins, encore moins d'en établir une typologie. Malgré tout, d'énormes quantités de données sont produites chaque année par le système de soins. Dans ce travail, nous proposons un système d'analyse et de représentation des trajectoires de soins à partir de données récoltées à l'origine pour d'autres utilisations. Ce système est fondé sur l'Analyse Formelle de Concepts (AFC), une méthode de classification conceptuelle capable de découvrir des liens naturels dans les données d'un tableau binaire et de les représenter sous forme de treillis de concepts. Nous montrons les apports de l'AFC dans la compréhension du fonctionnement du système de soins et les perspectives en termes d'exploration des réseaux sociaux en général. Par ailleurs, nous étudions, combinons et comparons deux mesures d'intérêt pour réduire la complexité des grands treillis et sélectionner les connaissances les plus pertinentes : la stabilité et le support d'un concept. Dans un parallèle avec la recherche de motifs fréquents simple et séquentiels, nous proposons une méthode de classification non supervisée des trajectoires de soins qui présente d'intéressantes capacités de visualisation et d'interprétabilité.
APA, Harvard, Vancouver, ISO, and other styles
28

Bontemps, Cyril. "Exploration et analyse de la diversité des rhizobia : nouveaux outils et concepts." Lyon 1, 2005. http://www.theses.fr/2005LYO10224.

Full text
Abstract:
Suite à l'identification de β-protéobactéries nodulantes, nous avons confirmé le statut symbiotique de ces nouveaux rhizobia. R. Taiwanensis LMG19424 a été choisi et caractérisé comme β-rhizobium modèle en vue du séquençage de son génome. Afin d'explorer davantage leur diversité, nous avons développé une méthode moléculaire d'identification des rhizobia qui s'affranchit des tests de nodulation en laboratoire. Grâce à une approche innovante par puce à ADN, utilisant comme sondes des motifs conservés de nodC et l'hybridation croisée d'une cible avec plusieurs sondes, nous avons pu détecter la présence de ce gène dans des cultures bactériennes ou des échantillons végétaux (nodules), évitant ainsi l'étape d'isolement du symbionte. L'analyse par clustering hiérarchisé des patterns d'hybridation permet également d'apporter une information phylogénétique sur le gène détecté. Cette approche originale et rapide est applicable à la détection d'autres gènes et fonctions bactériennes d'intérêt
APA, Harvard, Vancouver, ISO, and other styles
29

Hammoud, Achraf. "Charge par induction de véhicules électriques : analyse du potentiel, limitations, nouveaux concepts." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS022/document.

Full text
Abstract:
Les progrès concernant l’autonomie des batteries ont rendu le véhicule électrique vraiment compétitif. Cependant un problème n'est pas vraiment résolu, celui du temps de charge des batteries qui reste long même avec des bornes de forte puissance. La charge par induction peut compenser en partie ce handicap grâce à une infrastructure quasi-transparente pour l'utilisateur, basée sur l'équipement des zones de stationnement.L'objectif de cette thèse est d’étudier le potentiel et les limitations de la charge par induction, éventuellement par l'introduction de nouveaux concepts, dans la gamme des puissances de plusieurs dizaines de Kilowatts et sur des distances supérieures à 10cm entre l’inducteur et l’induit. L'obtention de bons rendements et le respect de dimensions en accord avec l'intégration dans le véhicule sont des points essentiels de la démarche.Dans un premier temps, différentes topologies de compensation de l'énergie réactive, indispensable dans cette application, sont comparées et la topologie dite Série-Série (SS) est finalement retenue. De la même façon, différentes architecture d’électronique de puissance sont évaluées. L’architecture correspondant à l'utilisation d'un onduleur primaire commandé en phase shift à fréquence variable, et d'un simple pont de diode secondaire est adoptée. Elle permet de réguler le courant injecté dans les batteries tout en simplifiant l’électronique de puissance, c.à.d. sans utiliser de convertisseurs DC-DC ni au primaire, ni au secondaire.Un outil de calcul des pertes dans le fil de Litz est ensuite mis en place. Il permet d'évaluer les pertes dans les bobinages en fonction de la section du fil et du diamètre des brins, l'objectif étant de trouver la combinaison "section de cuivre/diamètre de brins" minimisant les pertes.La troisième étape consiste à mettre en place des outils de conception analytiques complétés par des simulations "éléments finis" pour concevoir les bobinages du coupleur électromagnétique ainsi que son blindage magnétique. Des montages expérimentaux à petite échelle permettent une première validation de ces outils de conception. Enfin un algorithme d’optimisation est développé.Sur la base des solutions identifiées dans la première partie, les outils de conception ont été finalement utilisés pour concevoir un démonstrateur de 22kW, capable de transférer l’énergie sur une distance de 25cm entre l’inducteur et l’induit. Ce démonstrateur a été testé avec succès à la puissance nominale. Le rendement mesuré est de 95% lorsque les bobines primaire et secondaire sont alignées
Scientific progress in battery field related to autonomy has made electric vehicles really competitive. However, there is a problem that hasn’t been solved yet, the duration of the charge which still high, even if high power chargers are used. Inductive charging could be a solution to that problem because the infrastructure can become almost transparent for the user if it is implemented in car park areas.The aim of this PhD work is to evaluate the potential and the limitations of inductive charging, to identify eventual new concepts, in a fast charge power range (few tens of Kilowatts) and with air gaps higher than 10cm.First, different topologies of reactive energy compensation are compared and the Series-Series (SS) topology is selected. Then, in the same way, different power electronics architecture are compared. The architecture using a phase-shifted DC-AC converter to supply the primary side and a simple power bridge to supply the secondary side is adopted. This architecture allows regulating the current in the batteries without using DC-DC converters neither on the primary side nor on the secondary side.Then, a software is implemented that is able to calculate losses in Litz wire, as a function of the wire section and the strands diameter, the aim being to choose a Litz wire that minimizes the losses in the windings.The third step is the implementation of a tool dedicated to the design of the primary and secondary coils and of the magnetic shields. The tool is based on analytic equations and finite elements simulations. The design tool is validated by means of reduced scale experiments. Finally, an optimization algorithm is implemented.Considering the solutions identified in the first part, the previous design tools are finally used to design a 22kW prototype able to transfer energy through an air gap of 25cm. This prototype has been successfully tested at nominal power. An efficiency of 95% has been measured when the two coils are aligned
APA, Harvard, Vancouver, ISO, and other styles
30

Aguilar, Rio Jose. "La présentation de l'enseignement de langue étrangère : aspects relationnels et décisions interactionnelles en classe de l2." Thesis, Paris 3, 2010. http://www.theses.fr/2010PA030146.

Full text
Abstract:
Ce travail se situe à la croisée de la didactique des langues étrangères [L2], des sciences de l'éducation et de la psychologie sociale. L'hypothèse de départ porte sur la possibilité que des enseignants de L2 montrent, face aux apprenants et au cours d'une rencontre en classe de L2, des comportements allant au-delà de leurs fonctions institutionnelles d'organiser, faciliter et participer à la communication. Il est question caractériser la manière dont des enseignants de L2 se représentent leur métier. Nous travail adhérons ainsi au courant des études sur la cognition des enseignants qui explorent leurs croyances hétéroclites. Nous avons d'abord observé des rencontres en classe de L2 en présentiel que nous avons ensuite analysées à la manière de l'analyse conversationnelle. Le recours à l'analyse conversationnelle nous a permis de déterminer la manière dont les participants co-construisent la rencontre en classe de L2. Certaines des pratiques repérées chez l'enseignant, telles que la désaffiliation, la légitimation du rire, ont été caractérisées comme des actions motivées par ses croyances. Enfin, le recours à des entretiens d'auto-confrontation a permis de confronter les enseignants avec leur propre pratique afin qu'ils la commentent selon leur logique et leur ressenti. Ce dispositif a rendu possible un dialogue entre le chercheur et les enseignants grâce auquel leur savoir-être enseignant a été caractérisée finement
This work is at the crossroads of applied linguistics – namely foreign language [L2] teaching – education studies and social psychology. Its ultimate goal is to characterize the way in which L2 teachers represent their profession. This work draws on teachers' cognition studies in order to explore the heterogeneous beliefs of teachers. It also draws on conversation analysis [CA]: the classroom observation conducted in four fields has produced recordings that have become L2 classroom transcripts. The use of CA has helped to determine the participants' attitude as they coconstruct the situation in which they participate – namely a L2 classroom, which constitutes, in principle, an institutional setting. As regards the L2 teachers, the identification of certain practices – their disaffiliation, their choice of subject, their legitimation of laughter – indicates the possibility that they have made certain decisions according to the manner in which they co-manage the classroom situation, but also in relation to their own beliefs. Finally, we use recall-interviews, by means of which the teachers are confronted the teachers with their own practice; this may conduce to their characterising their own actions according to a certain pedagogical logic, but also according to their feelings. By means of integrating these three sources of information a dialogue between the teachers and the researcher has become possible; this dialogue has allowed for a fine description of the teachers' teaching know-how
APA, Harvard, Vancouver, ISO, and other styles
31

Kaytoue, Mehdi. "Traitement de données numériques par analyse formelle de concepts et structures de patrons." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00599168.

Full text
Abstract:
Le sujet principal de cette thèse porte sur la fouille de données numériques et plus particulièrement de données d'expression de gènes. Ces données caractérisent le comportement de gènes dans diverses situations biologiques (temps, cellule, etc.). Un problème important consiste à établir des groupes de gènes partageant un même comportement biologique. Cela permet d'identifier les gènes actifs lors d'un processus biologique, comme par exemple les gènes actifs lors de la défense d'un organisme face à une attaque. Le cadre de la thèse s'inscrit donc dans celui de l'extraction de connaissances à partir de données biologiques. Nous nous proposons d'étudier comment la méthode de classification conceptuelle qu'est l'analyse formelle de concepts (AFC) peut répondre au problème d'extraction de familles de gènes. Pour cela, nous avons développé et expérimenté diverses méthodes originales en nous appuyant sur une extension peu explorée de l'AFC : les structures de patrons. Plus précisément, nous montrons comment construire un treillis de concepts synthétisant des familles de gènes à comportement similaire. L'originalité de ce travail est (i) de construire un treillis de concepts sans discrétisation préalable des données de manière efficace, (ii) d'introduire une relation de similarité entres les gènes et (iii) de proposer des ensembles minimaux de conditions nécessaires et suffisantes expliquant les regroupements formés. Les résultats de ces travaux nous amènent également à montrer comment les structures de patrons peuvent améliorer la prise de d écision quant à la dangerosité de pratiques agricoles dans le vaste domaine de la fusion d'information.
APA, Harvard, Vancouver, ISO, and other styles
32

Kaytoue, Mehdi. "Traitement de données numériques par analyse formelle de concepts et structures de patrons." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10015.

Full text
Abstract:
Le sujet principal de cette thèse porte sur la fouille de données numériques et plus particulièrement de données d'expression de gènes. Ces données caractérisent le comportement de gènes dans diverses situations biologiques (temps, cellule, etc.). Un problème important consiste à établir des groupes de gènes partageant un même comportement biologique. Cela permet d'identifier les gènes actifs lors d'un processus biologique, comme par exemple les gènes actifs lors de la défense d'un organisme face à une attaque. Le cadre de la thèse s'inscrit donc dans celui de l'extraction de connaissances à partir de données biologiques. Nous nous proposons d'étudier comment la méthode de classification conceptuelle qu'est l'analyse formelle de concepts (AFC) peut répondre au problème d'extraction de familles de gènes. Pour cela, nous avons développé et expérimenté diverses méthodes originales en nous appuyant sur une extension peu explorée de l'AFC : les structures de patrons. Plus précisément, nous montrons comment construire un treillis de concepts synthétisant des familles de gènes à comportement similaire. L'originalité de ce travail est (i) de construire un treillis de concepts sans discrétisation préalable des données de manière efficace, (ii) d'introduire une relation de similarité entres les gènes et (iii) de proposer des ensembles minimaux de conditions nécessaires et suffisantes expliquant les regroupements formés. Les résultats de ces travaux nous amènent également à montrer comment les structures de patrons peuvent améliorer la prise de décision quant à la dangerosité de pratiques agricoles dans le vaste domaine de la fusion d'information
The main topic of this thesis addresses the important problem of mining numerical data, and especially gene expression data. These data characterize the behaviour of thousand of genes in various biological situations (time, cell, etc.).A difficult task consists in clustering genes to obtain classes of genes with similar behaviour, supposed to be involved together within a biological process.Accordingly, we are interested in designing and comparing methods in the field of knowledge discovery from biological data. We propose to study how the conceptual classification method called Formal Concept Analysis (FCA) can handle the problem of extracting interesting classes of genes. For this purpose, we have designed and experimented several original methods based on an extension of FCA called pattern structures. Furthermore, we show that these methods can enhance decision making in agronomy and crop sanity in the vast formal domain of information fusion
APA, Harvard, Vancouver, ISO, and other styles
33

Juniarta, Nyoman. "Fouille de données complexes et biclustering avec l'analyse formelle de concepts." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0199.

Full text
Abstract:
L'extraction de connaissances dans les bases de données (ECBD) est un processus qui s'applique à de (potentiellement larges) volumes de données pour découvrir des motifs qui peuvent être signifiants et utiles. Dans cette thèse, on s'intéresse à deux étapes du processus d'ECBD, la transformation et la fouille, que nous appliquons à des données complexes. Nous présentons de nombreuses expérimentations s'appuyant sur des approches et des types de données variés. La première partie de cette thèse s'intéresse à la tâche de biclustering en s'appuyant sur l'analyse formelle de concepts (FCA) et aux pattern structures. FCA est naturellement liée au biclustering, dont l'objectif consiste à grouper simultanément un ensemble de lignes et de colonnes qui vérifient certaines régularités. Les pattern structures sont une généralisation de la FCA qui permet de travailler avec des données plus complexes. Les "partition pattern structures'' ont été proposées pour du biclustering à colonnes constantes tandis que les "interval pattern structures'' ont été étudiées pour du biclustering à colonnes similaires. Nous proposons ici d'étendre ces approches afin d'énumérer d'autres types de biclusters : additif, multiplicatif, préservant l'ordre, et changement de signes cohérents. Dans la seconde partie, nous nous intéressons à deux expériences de fouille de données complexes. Premièrement, nous présentons une contribution dans laquelle nous analysons les trajectoires des visiteurs d'un musée dans le cadre du projet CrossCult. Nous utilisons du clustering de séquences et de la fouille de motifs séquentiels basée sur l'analyse formelle de concepts pour découvrir des motifs dans les données et classifier les trajectoires. Cette analyse peut ensuite être exploitée par un système de recommandation pour les futurs visiteurs. Deuxièmement, nous présentons un travail sur la découverte de médicaments antibactériens. Les jeux de données pour cette tâche, généralement des matrices numériques, décrivent des molécules par un certain nombre de variables/attributs. Le grand nombre de variables complexifie la classification des molécules par les classifieurs. Ici, nous étudions une approche de sélection de variables basée sur l'analyse log-linéaire qui découvre des associations entre variables
Knowledge discovery in database (KDD) is a process which is applied to possibly large volumes of data for discovering patterns which can be significant and useful. In this thesis, we are interested in data transformation and data mining in knowledge discovery applied to complex data, and we present several experiments related to different approaches and different data types. The first part of this thesis focuses on the task of biclustering using formal concept analysis (FCA) and pattern structures. FCA is naturally related to biclustering, where the objective is to simultaneously group rows and columns which verify some regularities. Related to FCA, pattern structures are its generalizations which work on more complex data. Partition pattern structures were proposed to discover constant-column biclustering, while interval pattern structures were studied in similar-column biclustering. Here we extend these approaches to enumerate other types of biclusters: additive, multiplicative, order-preserving, and coherent-sign-changes. The second part of this thesis focuses on two experiments in mining complex data. First, we present a contribution related to the CrossCult project, where we analyze a dataset of visitor trajectories in a museum. We apply sequence clustering and FCA-based sequential pattern mining to discover patterns in the dataset and to classify these trajectories. This analysis can be used within CrossCult project to build recommendation systems for future visitors. Second, we present our work related to the task of antibacterial drug discovery. The dataset for this task is generally a numerical matrix with molecules as rows and features/attributes as columns. The huge number of features makes it more complex for any classifier to perform molecule classification. Here we study a feature selection approach based on log-linear analysis which discovers associations among features. As a synthesis, this thesis presents a series of different experiments in the mining of complex real-world data
APA, Harvard, Vancouver, ISO, and other styles
34

Barakat-Barbieri, Bruno. "Vers une construction automatique de graphes de concepts." Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0416.

Full text
Abstract:
Ce travail propose une méthode de construction automatique de graphes de concepts à partir d'une base de données en texte intégral. La terminologie significative est extraite et normalisée à l'aide d'un traitement linguistique automatique. Le graphe de concepts ainsi construit est un arbre dont les nœuds sont les termes retenus. Les relations sont de nature générique-spécifique. Dans un premier temps, après une étude de la détermination de l'unité sémantique optimale, on introduit la notion de champ sémantique fondée sur la notion de concurrence de termes au sein de cette unité. Puis, après avoir mis en évidence les inconvénients de cette première approche, une nouvelle notion est présentée: les ensembles sémantiques. Ceux-ci sont moins dépendants de la répartition par thèmes des documents. L'étude du recouvrement de ces ensembles sémantiques nous permet de mettre en évidence les liens unissant les concepts entre eux. Une solution pour l'identification des polysèmes est également proposée. Enfin, l'auteur présente une discussion sur la qualité des résultats et les limites de cette approche
APA, Harvard, Vancouver, ISO, and other styles
35

Buzmakov, Aleksey. "Analyse formelle de concepts et structures de patrons pour la fouille de données structurées." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0112/document.

Full text
Abstract:
Aujourd'hui de plus en plus de données de différents types sont accessibles. L’Analyse Formelle de Concepts (AFC) et les pattern structures sont des systèmes formels qui permettent de traiter les données ayant une structure complexe. Mais le nombre de concepts trouvé par l’AFC est fréquemment très grand. Pour faire face à ce problème, on peut simplifier la représentation des données, soit par projection de pattern structures, soit par introduction de contraintes pour sélectionner les concepts les plus pertinents. Le manuscrit commence avec l'application de l’AFC à l’exploration de structures moléculaires et la recherche de structures particulières. Avec l’augmentation de la taille des ensembles de données, de bonnes contraintes deviennent essentielles. Pour cela on explore la stabilité d'un concept et on l'applique à l’exploration d'un ensemble de données de substances chimiques mutagènes. La recherche de concepts stables dans cet ensemble de données nous a permis de trouver de nouveaux candidats mutagènes potentiels qui peuvent être interprétés par les chimistes. Cependant, pour les cas plus complexes, la représentation simple par des attributs binaires ne suffit pas. En conséquence, on se tourne vers des pattern structures qui peuvent traiter différents types de données complexes. On étend le formalisme original des projections pour avoir plus de liberté dans la manipulation de données. On montre que cette extension est essentielle pour analyser les trajectoires de patients décrivant l’historique de l’hospitalisation des patients. Finalement, le manuscrit se termine par une approche originale et très efficace qui permet de trouver directement des motifs stables
Nowadays, more and more data of different kinds is becoming available. Formal concept analysis (FCA) and pattern structures are theoretical frameworks that allow dealing with an arbitrary structured data. But the number of concepts extracted by FCA is typically huge. To deal with this problem one can either simplify the data representation, which can be done by projections of pattern structures, or by introducing constraints to select the most relevant concepts. The manuscript starts with application of FCA to mining important pieces of information from molecular structures. With the growth of dataset size good constraints begin to be essential. For that we explore stability of a concept, a well-founded formal constraint. Finding stable concepts in this dataset allows us finding new possible mutagenetic candidates that can be further interpreted by chemists. However for more complex cases, the simple attribute representation of data is not enough. Correspondingly, we turn to pattern structures that can deal with many different kinds of descriptions. We extend the original formalism of projections to have more freedom in data simplification. We show that this extension is essential for analyzing patient trajectories, describing patients hospitalization histories. Finally, the manuscript ends by an original and very efficient approach that enables to mine stable patterns directly
APA, Harvard, Vancouver, ISO, and other styles
36

Buzmakov, Aleksey. "Analyse formelle de concepts et structures de patrons pour la fouille de données structurées." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0112.

Full text
Abstract:
Aujourd'hui de plus en plus de données de différents types sont accessibles. L’Analyse Formelle de Concepts (AFC) et les pattern structures sont des systèmes formels qui permettent de traiter les données ayant une structure complexe. Mais le nombre de concepts trouvé par l’AFC est fréquemment très grand. Pour faire face à ce problème, on peut simplifier la représentation des données, soit par projection de pattern structures, soit par introduction de contraintes pour sélectionner les concepts les plus pertinents. Le manuscrit commence avec l'application de l’AFC à l’exploration de structures moléculaires et la recherche de structures particulières. Avec l’augmentation de la taille des ensembles de données, de bonnes contraintes deviennent essentielles. Pour cela on explore la stabilité d'un concept et on l'applique à l’exploration d'un ensemble de données de substances chimiques mutagènes. La recherche de concepts stables dans cet ensemble de données nous a permis de trouver de nouveaux candidats mutagènes potentiels qui peuvent être interprétés par les chimistes. Cependant, pour les cas plus complexes, la représentation simple par des attributs binaires ne suffit pas. En conséquence, on se tourne vers des pattern structures qui peuvent traiter différents types de données complexes. On étend le formalisme original des projections pour avoir plus de liberté dans la manipulation de données. On montre que cette extension est essentielle pour analyser les trajectoires de patients décrivant l’historique de l’hospitalisation des patients. Finalement, le manuscrit se termine par une approche originale et très efficace qui permet de trouver directement des motifs stables
Nowadays, more and more data of different kinds is becoming available. Formal concept analysis (FCA) and pattern structures are theoretical frameworks that allow dealing with an arbitrary structured data. But the number of concepts extracted by FCA is typically huge. To deal with this problem one can either simplify the data representation, which can be done by projections of pattern structures, or by introducing constraints to select the most relevant concepts. The manuscript starts with application of FCA to mining important pieces of information from molecular structures. With the growth of dataset size good constraints begin to be essential. For that we explore stability of a concept, a well-founded formal constraint. Finding stable concepts in this dataset allows us finding new possible mutagenetic candidates that can be further interpreted by chemists. However for more complex cases, the simple attribute representation of data is not enough. Correspondingly, we turn to pattern structures that can deal with many different kinds of descriptions. We extend the original formalism of projections to have more freedom in data simplification. We show that this extension is essential for analyzing patient trajectories, describing patients hospitalization histories. Finally, the manuscript ends by an original and very efficient approach that enables to mine stable patterns directly
APA, Harvard, Vancouver, ISO, and other styles
37

Villerd, Jean. "Représentations visuelles adaptatives de connaissances associant projection multidimensionnelle (MDS) et analyse de concepts formels (FCA)." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004559.

Full text
Abstract:
Les outils de recherche d'information sont confrontés à un accroissement constant à la fois du volume et du nombre de dimensions des données accessibles. La traditionnelle liste de résultats ne suffit plus. Un réel besoin en nouvelles techniques de représentation visuelle émerge. Ces nouvelles techniques doivent permettre d'appréhender de manière globale des données nombreuses et multidimensionnelles, en révélant les tendances et la structure générales. On souhaite également pouvoir observer de façon détaillée un ensemble plus restreint de données selon un certain point de vue correspondant à des dimensions particulières. Notre objectif principal est d'assister l'utilisateur dans sa tâche d'exploration de l'information par une articulation judicieuse entre vue globale et vues locales maintenant sa carte mentale. Pour atteindre cet objectif, nous allions des techniques d'analyse de données capables d'identifier des sous-ensembles pertinents, à des techniques de visualisation d'information permettant de naviguer dynamiquement et intuitivement parmi ces sous-ensembles. Une attention particulière est portée aux problèmes liés aux données manquantes, d'une part, et aux données indexées sur des dimensions mixtes (binaires, nominales, continues), d'autre part. De plus, conformément aux attentes de la communauté visualisation, nous définissons un cadre formel pour la spécification de visualisations à partir des données à représenter. Concrètement, nous proposons une méthode de navigation originale associant des techniques de FCA (Formal Concept Analysis) et de visualisation multidimensionnelle MDS (MultiDimensional Scaling). Cette méthode s'appuie sur le paradigme de visualisation "overview + detail" constitué d'une vue globale révélant la structure des données et d'une vue locale affichant les détails d'un élément de la vue globale. Nous tirons parti des propriétés de regroupement du treillis de Galois en l'utilisant comme vue globale pour représenter la structure des données et suggérer des parcours cohérents. La vue locale représente les objets en extension d'un concept sélectionné, projetés par MDS. Nous illustrons la pertinence de cette méthode sur des données concrètes, issues de nos partenariats industriels, et montrons en quoi les techniques de visualisation liées à FCA et la visualisation spatialisée de données par projection MDS, parfois jugées incompatibles, se révèlent complémentaires.
APA, Harvard, Vancouver, ISO, and other styles
38

Jean, Villerd. "Représentations visuelles adaptatives de connaissances associant projection multidimensionnelle (MDS) et analyse de concepts formels (FCA)." Paris, ENMP, 2008. https://pastel.archives-ouvertes.fr/pastel-00004559.

Full text
Abstract:
Les outils de recherche d'information sont confrontés à un accroissement constant à la fois du volume et du nombre de dimensions des données accessibles. La traditionnelle liste de résultats ne suffit plus. Un réel besoin en nouvelles techniques de représentation visuelle émerge. Ces nouvelles techniques doivent permettre d'appréhender de manière globale des données nombreuses et multidimensionnelles, en révélant les tendances et la structure générales. On souhaite également pouvoir observer de façon détaillée un ensemble plus restreint de données selon un certain point de vue correspondant à des dimensions particulières. Notre objectif principal est d'assister l'utilisateur dans sa tâche d'exploration de l'information par une articulation judicieuse entre vue globale et vues locales maintenant sa carte mentale. Pour atteindre cet objectif, nous allions des techniques d'analyse de données capables d'identifier des sous-ensembles pertinents, à des techniques de visualisation d'information permettant de naviguer dynamiquement et intuitivement parmi ces sous-ensembles. Une attention particulière est portée aux problèmes liés aux données manquantes, d'une part, et aux données indexées sur des dimensions mixtes (binaires, nominales, continues), d'autre part. De plus, conformément aux attentes de la communauté visualisation, nous définissons un cadre formel pour la spécification de visualisations à partir des données à représenter. Concrètement, nous proposons une méthode de navigation originale associant des techniques de FCA (Formal Concept Analysis) et de visualisation multidimensionnelle MDS (MultiDimensional Scaling). Cette méthode s'appuie sur le paradigme de visualisation « overview + detail » constitué d'une vue globale révélant la structure des données et d'une vue locale affichant les détails d'un élément de la vue globale. Nous tirons parti des propriétés de regroupement du treillis de Galois en l'utilisant comme vue globale pour représenter la structure des données et suggérer des parcours cohérents. La vue locale représente les objets en extension d'un concept sélectionné, projetés par MDS. Nous illustrons la pertinence de cette méthode sur des données concrètes, issues de nos partenariats industriels, et montrons en quoi les techniques de visualisation liées à FCA et la visualisation spatialisée de données par projection MDS, parfois jugées incompatibles, se révèlent complémentaires
Information retrieval tools are faced with the constant increase of data both in volume and in dimensionality and the traditional list of results no longer meet many applications' requirements. New visual representation techniques are needed. These new techniques have to provide an overview of large and multidimensional data sets that gives insights into the underlying trends and structures. They must also be able to represent, in detail, portions of the original data from different standpoints. The aim is to assist the user in her data exploration task by designing a shrewd link between general and local views, that maintains her mental map. In order to achieve this goal, we develop a combination of data analysis techniques that identify pertinent portions of data as well as information visualization techniques that intuitively and dynamically explore these portions of data in detail. In addition, a formalization of the visualization process is needed. We introduce a formal frame that is used to specify visualizations from data structures. Concretely, the solution proposed is an original navigation method that combines techniques from Formal Concept Analysis (FCA) and Multi-Dimensional Scaling (MDS) visualization approaches to suggest navigation paths in the data. This method is based on the "overview + detail" paradigm: One component is an overall view which summarises the underlying structure of the data. A second component is a local view showing an element of the overall view in detail. We take advantage of the classification skills of the Galois lattice by using it as the overall view that reveals the inner data structure and suggests possible navigation paths. The local view uses Multi-Dimensional Scaling to display the objects in the extent of a selected concept. We illustrate and discuss the pertinence of our method on concrete data sets, provided by our industrial partners, and show how hybridisation of FCA and traditional data visualization approaches, which have sometimes been considered distinct or incompatible, can be complementary
APA, Harvard, Vancouver, ISO, and other styles
39

Chakroun, Hédia. "Concepts et techniques d'intégration du contexte spatial dans les modèles de pondération des données multisources." Sherbrooke : Université de Sherbrooke, 1998.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
40

Selmane, Sid Ali. "Détection et analyse des communautés dans les réseaux sociaux : approche basée sur l'analyse formelle de concepts." Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22004.

Full text
Abstract:
L’étude de structures de communautés dans les réseaux devient de plus en plus une question importante. La connaissance des modules de base (communautés) des réseaux nous aide à bien comprendre leurs fonctionnements et comportements, et à appréhender les performances de ces systèmes. Une communauté dans un graphe (réseau) est définie comme un ensemble de noeuds qui sont fortement liés entre eux, mais faiblement liés avec le reste du graphe. Les membres de la même communauté partagent les mêmes centres d’intérêt. L’originalité de nos travaux de recherche consiste à montrer qu’il est pertinent d’utiliser l’analyse formelle de concepts pour la détection de communautés, contrairement aux approches classiques qui utilisent des graphes. Nous avons notamment étudié plusieurs problèmes posés par la détection de communautés dans les réseaux sociaux : (1) l’évaluation des méthodes de détection de communautés proposées dans la littérature, (2) la détection de communautés disjointes et chevauchantes, et (3) la modélisation et l’analyse des réseaux sociaux de données tridimensionnelles. Pour évaluer les méthodes de détection de communautés proposées dans la littérature, nous avons abordé ce sujet en étudiant tout d’abord l’état de l’art qui nous a permis de présenter une classification des méthodes de détection de communautés en évaluant chacune des méthodes présentées dans la littérature (les méthodes les plus connues). Pour le deuxième volet, nous nous sommes ensuite intéressés à l’élaboration d’une approche de détection de communautés disjointes et chevauchantes dans des réseaux sociaux homogènes issus de matrices d’adjacence (données dites à un seul mode ou une seule dimension), en exploitant des techniques issues de l’analyse formelle de concepts. Nous avons également porté un intérêt particulier aux méthodes de modélisation de réseaux sociaux hétérogènes. Nous nous sommes intéressés en particulier aux données tridimensionnelles et proposé dans ce cadre une approche de modélisation et d’analyse des réseaux sociaux issus de données tridimensionnelles. Cette approche repose sur un cadre méthodologique permettant d’appréhender au mieux cet aspect tridimensionnel des données. De plus, l’analyse concerne la découverte de communautés et de relations dissimulées qui existent entre les différents types d’individus de ces réseaux. L’idée principale réside dans l’extraction de communautés et de règles d’association triadiques à partir de ces réseaux hétérogènes afin de simplifier et de réduire la complexité algorithmique de ce processus. Les résultats obtenus serviront par la suite à une application de recommandation de liens et de contenus aux individus d’un réseau social
The study of community structure in networks became an increasingly important issue. The knowledge of core modules (communities) of networks helps us to understand how they work and behaviour, and to understand the performance of these systems. A community in a graph (network) is defined as a set of nodes that are strongly linked, but weakly linked with the rest of the graph. Members of the same community share the same interests. The originality of our research is to show that it is relevant to use formal concept analysis for community detection unlike conventional approaches using graphs. We studied several problems related to community detection in social networks : (1) the evaluation of community detection methods in the literature, (2) the detection of disjointed and overlapping communities, and (3) modelling and analysing heterogeneous social network of three-dimensional data. To assess the community detection methods proposed in the literature, we discussed this subject by studying first the state of the art that allowed us to present a classification of community detection methods by evaluating each method presented in the literature (the best known methods). For the second part, we were interested in developing a disjointed and overlapping community detection approach in homogeneous social networks from adjacency matrices (one mode data or one dimension) by exploiting techniques from formal concept analysis. We paid also a special attention to methods of modeling heterogeneous social networks. We focused in particular to three-dimensional data and proposed in this framework a modeling approach and social network analysis from three-dimensional data. This is based on a methodological framework to better understand the threedimensional aspect of this data. In addition, the analysis concerns the discovery of communities and hidden relationships between different types of individuals of these networks. The main idea lies in mining communities and rules of triadic association from these heterogeneous networks to simplify and reduce the computational complexity of this process. The results will then be used for an application recommendation of links and content to individuals in a social network
APA, Harvard, Vancouver, ISO, and other styles
41

Jaffal, Ali. "Aide à l'utilisation et à l'exploitation de l'analyse de concepts formels pour des non-spécialistes de l'analyse des données." Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E031.

Full text
Abstract:
De nombreuses approches ont été élaborées pour extraire des connaissances à partir des données. On distingue traditionnellement l’analyse descriptive et l’analyse prédictive. Nous nous focalisons dans cette thèse sur l’analyse descriptive des données et plus particulièrement sur l’Analyse de Concepts Formels (ACF), qui permet de construire des clusters recouvrants (appelés concepts formels) dont la signification est explicite. Il existe une relation d’ordre partiel entre les concepts formels résultant de l’ACF, qui sont organisés en une structure mathématique appelée treillis de Galois. Malgré ses nombreux avantages, l’ACF est peu accessible à des utilisateurs non experts de l’analyse de données. En effet, malgré les représentations graphiques des treillis de Galois, ceux-ci restent difficiles à interpréter, notamment lorsque les données sont volumineuses. De plus, la construction des données d’entrée de l’ACF sous la forme d’un contexte formel peut être délicate. Pour cela, nous avons proposé une méthodologie d’interprétation des treillis de Galois reposant sur un ensemble de métriques simples, dont les résultats sont présentés sous une forme visuelle aussi intuitive que possible. Nous avons également développé des stratégies pour construire des contextes formels qui, non seulement, dénaturent le moins possible les données initiales, mais permettent aussi de tenir compte des besoins de l’utilisateur en termes de recherche d’information
Many data analysis techniques have been developed to extract knowledge from the data. The two traditional approaches are descriptive analysis and predictive. We focus in this thesis on descriptive data analysis, and in particular on Formal Concepts Analysis (FCA). This approach builds overlapping clusters (called formal concepts) whose meaning is explicit. There is a partial order relationship between the formal concepts resulting from FCA, which are organized in a mathematical structure called a Galois lattice. Despite its advantages, FCA is poorly accessible to users who are not experts in data analysis. Although graphical representations of Galois lattices exist, their interpretation remains difficult for large data. Moreover, the construction of FCA input data, called formal context, can be tricky. For this, we have proposed a methodology for Galois lattice interpretation based on a set of simple metrics, the results of which are presented in a visual form as intuitive as possible. We have also developed strategies for constructing formal contexts that not only remain as close to the initial data as possible, but also take into consideration the user's needs in terms of information retrieval
APA, Harvard, Vancouver, ISO, and other styles
42

Chauveau, Julien. "Concepts et outils fractals pour l'analyse et la synthèse en imagerie couleur." Phd thesis, Université d'Angers, 2011. http://tel.archives-ouvertes.fr/tel-00797902.

Full text
Abstract:
Les images naturelles sont des structures complexes. Leur modélisation est essentielle à de nombreuses tâches en traitement d'images, et des progrès restent encore à réaliser dans ce sens. Des propriétés d'autosimilarité en échelle ont été observées dans l'organisation spatiale des images naturelles. Au-delà de leur organisation spatiale, nous abordons ici leur organisation colorimétrique. Différents outils de caractérisation fractale sont identifiés et mis en oeuvre. L'application de ces outils sur les histogrammes tridimensionnels des images couleur nous permet de mettre en évidence, et de caractériser, des propriétés fractales dans leur organisation colorimétrique. Par ailleurs, nous abordons aussi, en synthèse d'images, de nouvelles applications des concepts fractals pour les images couleur, le contrôle de leurs propriétés et la génération automatique de motifs décoratifs. Des collaborations applicatives ont été développées durant la thèse en vue de valoriser ces travaux, notamment dans le cadre du dispositif de doctorant-conseil, et en direction de l'industrie du textile-habillement.
APA, Harvard, Vancouver, ISO, and other styles
43

Kahn, Giacomo. "A structural study of lattices, d-lattices and some applications in data analysis." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC066/document.

Full text
Abstract:
Nous nous intéressons à un cadre théorique de l'analyse de données : l'analyse formelle de concepts. Le formalisme de l'analyse formelle de concepts permet d'exprimer les notions centrales de la fouille de données telles que les implications ou les ensembles fermés, avec au centre la notion de treillis qui décrit la structure et les relations que ces objets ont entre eux. Pour les données multidimensionnelles, une proposition de formalisme existe en tant que généralisation de l'analyse formelle de concepts : l'analyse polyadique de concepts. Dans cette thèse, nous étudions certains problèmes de combinatoire et d'algorithmique dans le cas de l'analyse polyadique de concepts. Nous approchons aussi un cadre plus appliqué à l'analyse de données en proposant des approches de navigation conceptuelle et de classification
We are interested in formal concept analysis, a theoretical framework for data analysis.This formalism allows to express some central notions of data mining such as implications or closed itemsets, and is centered around lattices, as the description of the relational structure that those objects can have.For multidimensional data, a formalism exists as a generalisation of formal concept analysis : polyadic concept analysis.In this document, we study some combinatorial and algorithmic problems that arose in polyadic concept analysis.We also introduce more applied data analysis techniques of conceptual navigation and classification
APA, Harvard, Vancouver, ISO, and other styles
44

Ikeda, Satoshi. "Essai d'unification des valeurs du verbe voler, précédé d'une étude méthodologique et d'une analyse des concepts." Paris 4, 1994. http://www.theses.fr/1994PA040253.

Full text
Abstract:
Le verbe voler en francais contemporain est traditionnellement considere comme un homonyme typique. Cette consideration provient d'une confusion entre le niveau lexical et le niveau de l'enonce. Dans notre etude, nous etablissons tout d'abord une distinction entre ces deux niveaux. Puis, nous analysons minutieusement toutes les valeurs de ce verbe. Enfi , nous degageons son sens lexical qui fonctionne comme une unite intrinseque pour ces valeurs observees. A partir de cette etude, le verbe voler ne peut plus etre considere comme homonymique, mais comme polysemique. Les valeurs apparemment tres eloignees les unes des autres venaient de l'appliation du meme mecanisme (le sens lexical) au domaine heterogene (au contexte)
Traditionally, in contemporary french, the verb voler is considered as a typical homonym. This idea derives from a particular confusion between the lexical and the contxtual values of the verb. In our study, firstly, we will make out the difference between these two different levels. After thjat, we will analyse meticulously all the values of this verb. And finally, we will single out its lexical meaning which works as an intrinsic unity common to all the values previously. According to this study, the verb voler can not be considered as a homonymous verb and should be regarded as a polysemous one. All these values, apperently, very different from one another, are drawn from the application of the same mecanism, to heterogenous sphears (contexts)
APA, Harvard, Vancouver, ISO, and other styles
45

Othmani, Imed. "Optimisation multicritère : fondements et concepts." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004900.

Full text
Abstract:
L'optimisation multicritère consiste à choisir, en présence de critères multiples, une (des) alternative(s) parmi un nombre infini d'alternatives qui varient généralement dans un domaine continu. Depuis une trentaine d'années, le domaine de l'optimisation multicritère connaît une évolution importante. Cette évolution s'est traduite par le développement d'un grand nombre de méthodes. La multitude des méthodes d'optimisation multicritère est perçue comme une richesse incontestable de ce domaine. D'ailleurs, certains la justifient par la diversité des problèmes ainsi que par l'existence de différentes approches de résolution possibles et légitimes de ces problèmes. Cependant, ce phénomène révèle aussi des faiblesses certaines. En effet, la plupart de ces méthodes manquent de fondements axiomatisés, et il est difficile de choisir la méthode à appliquer face à une situation donnée. Le travail présenté dans ce mémoire propose une approche axiomatisée d'optimisation multicritère. Cette approche est fondée sur des concepts tels que l'efficacité partielle qui sont motivés et justifiés par des interprétation intelligibles. Elle est Robuste par rapport aux paramètres utilisés, opérationnelle, et évolutive. Elle peut être utilisée dans la résolution de différentes situations multicritères tels que les problèmes comportant des critères nombreux et incommensurables et les problèmes de décisions publiques.
APA, Harvard, Vancouver, ISO, and other styles
46

Osta, Vélez Matías. "Inference and the structure of concepts." Thesis, Paris 1, 2020. http://www.theses.fr/2020PA01H206.

Full text
Abstract:
Cette thèse porte sur le rôle du contenu conceptuel dans l'inférence et le raisonnement. Les deux premiers chapitres offrent une analyse critique de la "thèse formaliste", i.e., l'idée selon laquelle l'inférence rationnelle est un mécanisme qui applique des règles syntaxiques à des pensées avec structure linguistique. Le Chapitre 3 porte sur la relation entre l'inférence et la représentation. Il est avancé que l'inférence doit être étudiée depuis une perspective pluraliste en raison de sa dépendance à l'égard de différents formats de représentation des informations qui caractérisent la cognition humaine. Les quatre chapitres suivants sont ceux de la mise en œuvre de la théorie des espaces conceptuels à trois types d'inférence basés sur des concepts. Tout d'abord, une explication formelle de la notion d'inférence matérielle chez Wilfrid Sellars est avancée. Ensuite, le modèle est étendu pour saisir l’inférence non monotone en étudiant le rôle des "attentes" (expectations) dans le raisonnement. Enfin, un nouveau modèle mathématique d'induction avec des concepts (category-based induction) est présenté. Il est indiqué que la fécondité explicative de cette approche novatrice montre l'échec de la thèse formaliste et appelle le développement d’un modèle unifié d'inférence rationnelle centré sur la sémantique. Le dernier chapitre de la thèse porte sur la manière dont l'inférence et les concepts interagissent dans le raisonnement scientifique, qui fait constamment appel à des structures symboliques hybrides pour représenter les informations conceptuelles
This thesis focuses on the role of conceptual content in inference and reasoning. The first two chapters offer a critical analysis of the " formalist thesis ", i.e., the idea that rational inference is a mechanism that applies syntactic rules to propositionally-structured thoughts. Chapter 3 deals with the relationship between inference and representation. It is argued that inference must be studied from a pluralistic perspective because of its dependence on different formats representation in which conceptual information can be encoded. The next four chapters apply Peter Gärdenfors’ theory of conceptual spaces to three types of concept-based inference. First, an explication of Wilfrid Sellars' notion of material inference is advanced. Second, the model is extended to capture non-monotonic inference by studying the role of "expectations" in reasoning. Finally, a new mathematical model of category-based induction is presented. It is argued that the explanatory fruitfulness of the conceptual spaces-approach shows the failure of the formalistic thesis and calls for a unified model of rational inference centered on semantics. The last chapter of the thesis focuses on how inference and concepts interact in scientific reasoning, which constantly uses hybrid symbolic structures to represent conceptual information
APA, Harvard, Vancouver, ISO, and other styles
47

Kuhn, Antony. "Contribution à la connaissance du management de la coopération intercommunale : approche contextuelle et analyse en termes de déterminants relationnels de la dynamique intercommunale du pays de Colombey-les-Belles." Nancy 2, 1999. http://www.theses.fr/1999NAN22004.

Full text
Abstract:
Les objectifs de cette recherche de management public sont, d'une part, d'élaborer un cadre d'analyse qui permette d'expliquer le développement récent de l'intercommunalité, d'autre part d'étudier la structuration de la coopération intercommunale et de mettre en relief les éléments spécifiques à son management. Après une définition de la coopération intercommunale, une synthèse des différentes justifications théoriques de ce phénomène est présentée. Puis l'analyse de la structuration de la coopération intercommunale est réalisée : empiriquement, elle se traduit par une étude clinique d'un territoire dont les communes ont développé des relations coopératives depuis une vingtaine d'années. L'importance des réseaux relationnels des élus ayant été mise en relief, l'étude se focalise en particulier sur les relations existant entre les réseaux relationnels des élus et les réseaux de coopération intercommunale en utilisant les outils méthodologiques de l'analyse de réseaux.
APA, Harvard, Vancouver, ISO, and other styles
48

Belbey, Hatem. "La problématique du dialogue dans le texte coranique : analyse parallèle des concepts de dialogue et de Jihâd." Grenoble 2, 2002. http://www.theses.fr/2002GRE29033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

MUZY, J. FRANCOIS. "Analyse de distributions fractales a partir de leur transformee en ondelettes. Des concepts mathematiques aux applications physiques." Nice, 1993. http://www.theses.fr/1993NICE4651.

Full text
Abstract:
La transformation en ondelettes continue est utilisee pour construire un formalisme qui permet une description statistique des singularites d'une distribution fractale. La methode que nous developpons constitue une generalisation du formalisme multifractal classiquement defini pour caracteriser les mesures singulieres. Notre propos est illustre par de nombreuses applications numeriques sur des signaux d'ecole ou des fonctions browniennes. Pour une certaine classe de distributions, nos considerations heuristiques sont appuyees par des resultats rigoureux. La deuxieme partie de ce memoire est consacree a diverses applications de ce nouveau formalisme. Celui-ci est utilise pour caracteriser les proprietes multifractales des ecoulements turbulents a grand nombre de reynolds. L'analyse en ondelettes est aussi utilisee pour caracteriser les proprietes d'auto-similarite des amas fractals generes par le modele dla d'agregation limitee par la diffusion. Enfin, nous presentons un montage qui permet de calculer la transformee en ondelettes par voie optique. Quelques applications viennent illustrer les capacites de cette transformee en ondelettes optique
APA, Harvard, Vancouver, ISO, and other styles
50

Codocedo-Henríquez, Víctor. "Contributions à l'indexation et à la recherche d'information avec l'analyse formelle de concepts." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0143/document.

Full text
Abstract:
Un des premiers modèles d'indexation de documents qui utilise des termes comme descripteurs était une structure de treillis, cela une vingtaine d'années avant l'arrivée de l'analyse formelle de concepts (FCA pour "Formal Concept Analysis"), qui s'affirme maintenant comme un formalisme théorique important et solide pour l'analyse de données et la découverte de connaissances. Actuellement, la communauté en recherche d'information (RI) s'intéresse particulièrement à des techniques avancées pour la recherche des documents qui relèvent des probabilités et des statistiques. En parallèle, l'intérêt de la communauté FCA au développement de techniques qui font avancer l'état de l'art en RI tout en offrant des fonctionnalités sémantiques lui est toujours bien vivant. Dans cette thèse, nous présentons un ensemble de contributions sur ce que nous avons appelé les systèmes FCA de recherche d'information ("FCA-based IR systems''). Nous avons divisé nos contributions en deux parties, à savoir l'extraction et l'indexation. Pour la récupération, nous proposons une nouvelle technique qui exploite les relations sémantiques entre les descripteurs dans un corpus de documents. Pour l'indexation, nous proposons un nouveau modèle qui permet de mettre en oeuvre un modèle vectoriel d'indexation des documents s'appuyant sur un treillis de concepts (ou treillis de Galois). En outre, nous proposons un modèle perfectionné pour l'indexation hétérogène dans lequel nous combinons le modèle vectoriel et le modèle de recherche booléen. Finalement, nous présentons une technique de fouille de données inspiré de l'indexation des documents, à savoir un modèle d'énumération exhaustive des biclusters en utilisant la FCA. Le biclustering est une nouvelle technique d'analyse de données dans laquelle les objets sont liés via la similitude dans certains attributs de l'espace de description, et non pas par tous les attributs comme dans le "clustering'' standard. En traduisant ce problème en termes d'analyse formelle de concepts, nous pouvons exploiter l'algorithmique associée à la FCA pour développer une technique d'extraction de biclusters de valeurs similaires. Nous montrons le très bon comportement de notre technique, qui fonctionne mieux que les techniques actuelles de biclustering avec énumération exhaustive
One of the first models ever to be considered as an index for documents using terms as descriptors, was a lattice structure, a couple of decades before the arrival of Formal Concept Analysis (FCA) as a solid theory for data mining and knowledge discovery.While the Information Retrieval (IR) community has shifted to more advanced techniques for document retrieval, like probabilistic and statistic paradigms, the interest of the FCA community on developing techniques that would improve the state-of-the-art in IR while providing relevance feedback and semantic based features, never decayed. In this thesis we present a set of contributions on what we call FCA-based IR systems. We have divided our contributions in two sets, namely retrieval and indexing. For retrieval, we propose a novel technique that exploits semantic relations among descriptors in a document corpus and a new concept lattice navigation strategy (called cousin concepts), enabling us to support classification-based reasoning to provide better results compared with state-of-the-art retrieval techniques. The basic notion in our strategy is supporting query modification using "term replacements'' using the lattice structure and semantic similarity. For indexing, we propose a new model that allows supporting the vector space model of retrieval using concept lattices. One of the main limitations of current FCA-based IR systems is related to the binary nature of the input data required for FCA to generate a concept lattice. We propose the use of pattern structures, an extension of FCA to deal with complex object descriptions, in order to support more advanced retrieval paradigms like the vector space model. In addition, we propose an advanced model for heterogeneous indexing through which we can combine the vector space model and the Boolean retrieval model. The main advantage of this approach is the ability of supporting indexing of convex regions in an arbitrary vectorial space built from a document collection. Finally, we move forward to a mining model associated with document indexing, namely exhaustive bicluster enumeration using FCA. Biclustering is an emerging data analysis technique in which objects are related by similarity under certain attributes of the description space, instead of the whole description space like in standard clustering. By translating this problem to the framework of FCA, we are able to exploit the robust machinery associated with the computation of concept lattices to provide an algorithm for mining biclusters based on similar values. We show how our technique performs better than current exhaustive enumeration biclustering techniques
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography