To see the other types of publications on this topic, follow the link: Analyse multidimensionnelle des donnees.

Dissertations / Theses on the topic 'Analyse multidimensionnelle des donnees'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse multidimensionnelle des donnees.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Drouet, d'Aubigny Gérard Romier Guy Van Cutsem Bernard. "L'analyse multidimensionnelle des données de dissimilarité." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00332393.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

HILLALI, YOUNES Diday Edwin. "ANALYSE ET MODELISATION DES DONNEES PROBABILISTES : CAPACITES ET LOIS MULTIDIMENSIONNELLES /." [S.l.] : [s.n.], 1998. ftp://ftp.inria.fr/INRIA/publication/Theses/TU-0513.ps.gz.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Goulard, Michel. "Champs spatiaux et statistique multidimensionnelle." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376138909.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Drouet, d'Aubigny Gérard. "L'analyse multidimensionnelle des données de dissimilarité : [thèse soutenue sur un ensemble de travaux]." Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00332393.

Full text
Abstract:
Trois objectifs sont poursuivis. Nous définissons d'abord un cadre algébrique suffisamment général pour unifier les deux classes de methodes d'analyse des donnees de dissimilarite connues. Le langage de la géométrie affine nous permet de montrer les correspondances entre les présentations française et anglo-américaine des méthodes tautologiques et d'enrichir la méthodologie par l'apport de méthodes issues de la tradition factorialiste et la proposition d'outils d'aide à l'interprétation des résultats. Les relations de dualité mises en évidence permettent de rendre compte des liens et différences entre ces méthodes et les techniques d'ajustement de modelés de description euclidienne des données de dissimilarite, dites de codage multidimensionnel. De plus une interprétation en terme de regression ridge du problème ainsi qu'une analogie aux methodes d'etude des réseaux électriques sont exploites. En deuxième lieu, nous étudions en détail l'introduction de contraintes. Tout d'abord les contraintes de configuration est replace dans le cadre du formalisme statistique d'analyse multivariée des courbes de croissance, et les méthodes sont affinées en conséquence. Le recourt au formalisme tensoriel permet de plus des solutions plus simples, des interprétations plus classiques des méthodes et la proposition d'évaluation de la qualité des solutions. Enfin nous proposons une méthodologie d'analyse des données de dissimilarite structurées, issue de plans d'expérience
APA, Harvard, Vancouver, ISO, and other styles
5

Salmi-Boukhari, Btissam. "Intégration de données pour la qualité de la viande chez le porc : Méta-analyse et analyse multidimensionnelle." Thesis, Paris, AgroParisTech, 2011. http://www.theses.fr/2011AGPT0060/document.

Full text
Abstract:
La qualité de la viande englobe des critères d'importance différente suivant l'espèce animale considérée. Chez le porc, la qualité de la viande a un impact économique important et de nombreux travaux ont pu montrer que les interactions entre le type génétique (particulièrement les gènes halothane et Rendement Napole), les conditions d'élevage et les conditions d'abattage des animaux déterminent la qualité de la viande de porc. L'Europe, longtemps leader du marché mondial des produits de la viande de porc, se trouve aujourd'hui confronté à la concurrence d'autres pays, notamment le Brésil, les Etats-unis et la Chine. Ce projet de thèse s'inscrit dans le cadre d'un projet européen multidisciplinaire portant sur l'amélioration de la qualité de la viande de porc et des produits dérivés pour le consommateur. Un des modules est dédié à l'intégration des connaissances passées et celles à venir afin de construire des modèles de prédiction des qualités technologiques et sensorielles de la viande de porc à partir des données se rapportant à l'animal, ainsi qu'aux conditions d'élevage et de pré-abattage. L'objectif de la thèse est d'intégrer l'ensemble des données bibliographiques et expérimentales relatives aux principaux facteurs influençant la qualité de viande dans le cadre d'une méta-analyse, qui est une démarche statistique combinant les résultats d'une série d'études indépendantes sur un problème donné. Les résultats obtenus ont permis de préciser l'effet du gène halothane, des temps de jeûne, de transport et de repos à l'abattoir sur les principaux paramètres d'évaluation de la qualité technologique de la viande de porc. En effet, nos résultats ont pu confirmer l'effet significatif du gène halothane sur l'ensemble des paramètres de qualité étudiés. Cependant, l'effet significatif du gène halothane a été associé à celui de la race uniquement pour expliquer les variations des paramètres suivants : L* (la réflectance), b* (indice de jaune) et les pertes d'exsudat (DL). La méta-régression a permis de mettre en évidence l'effet du poids à l'abattage sur les différences de pH ultime (pHu) entre les génotypes homozygotes NN et nn. Parmi les facteurs de pré-abattage analysés, nos résultats indiquent que le temps de jeûne affecte le pHu et le DL mesurés au niveau du muscle longissimus, alors que le temps de repos à l'abattoir affecte le pHu du muscle semimembranosus. Le transport et l'interaction transport x temps de jeûne n'avaient d'effet significatif que sur les variations de DL. L'effet significatif de l'apport en vitamine E sur le processus d'oxydation des lipides pendant la conservation de la viande, et par conséquent, sur la qualité technologique de la viande a pu être démontré en utilisant un modèle de régressionméta-analytique non linéaire. D'un point de vue statistique, la comparaison des méthodes statistiques de méta-analyse par approche bayésienne et fréquentiste a permis de mettre en évidence l'avantage de la première quant à l'obtention de résultats plus probants lorsqu'il s'agit de méta-analyse sur un nombre de données relativement limité. Parallèlement à l'approche méta-analytique, une étude exploratoire par analyse multivariée a été réalisée afin d'identifier les corrélations qui existent entre un très grand nombre de variables structurées en groupes distincts. Nos résultats ont montré que les variables discriminant les cinq classes de race (Large White et Basque) x système d'élevage (conventionnel, alternatif et extensif) étaient les mêmes que celles qui discriminaient les individus entre eux, en l'occurrence les variables transcriptomiques, chimiques et technologiques. Le groupe composé des variables relatives à la réactivité à l'abattage discriminaient principalement les systèmes d'élevage, en particulier la classe des porcs basques élevés dans le système extensif
Meat quality includes criteria of different importance depending on the animal species. Meat quality is a significant economic factor in pork production, and numerous publications have shown that it is strongly influenced by the interaction between genetic type (especially the halothane gene (Hal) and Napole yield gene (RN)), breeding conditions, and pre-slaughter and slaughter conditions of animals. The European Union, longtime leader of the globalmarket of pork and pork products, now faces increasing competition from other countries,including Brazil, the United States and China. This thesis project is part of a multidisciplinary European project on improving the quality of pork and pork products for the consumer. One of the modules of this project is dedicated to the integration of existing and upcoming data to produce a model for predicting technological and sensory pork quality, based on animal,production, and slaughter information. The objective of this thesis is to synthesize existing knowledge derived from bibliographic and experimental data relating to the main factors influencing meat quality within a meta-analysis, which is a statistical approach combining the results of a series of independent studies on a given problem. The results of this work have confirmed the effect of the halothane gene, as well as fasting, transport and lairage times on most of the analyzed parameters of technological pork meat quality. Indeed, our meta-analysis confirmed the significant effect of the halothane gene on all the analyzed meat quality attributes. However, the halothane gene effect was associated with the breed effect only for the following variables: L*-value (reflectance), b*-value (yellowness) and DL (drip loss). Slaughter weight contributed significantly only to the explanation of differences in ultimate pH between homozygous genotypes: NN and nn. Regarding the preslaughter conditions, the results of our meta-analysis showed that fasting time had a significant effect on pHu and DL measured in longissimus muscle. While, lairage affected only the pHu in semimembranosusmuscle. Interestingly, we found that DL was the lonely attribute significantly affected by transport time and its interaction with fasting time. The significant effect of the vitamin E supplementation on lipid oxidation process in pork and, therefore, affect the technological meat quality, was demonstrated by using a non linear meta-analytic regression model. Statistically, the comparison between the Bayesian and frequentist meta-analytic approaches has highlighted the ability of the hierarchical Bayesian model to reduce uncertainty in parameter estimates, especially when the number of studies included in the meta-analysis is relatively limited. In addition to the meta-analytic approach, an exploratory study by multivariate analyses was performed to identify the correlations among a large number of variables structured into separate groups. Our results showed that the variables which discriminated the five classes of breed (Large White and Basque pigs) x rearing system (conventional, alternative and extensive) were the same as those discriminating individuals. Indeed, a first group composed of transcriptomic, chemical and technological variables discriminated breeds. Slaughter reactivity variables discriminated rearing systems, especially the Basque pigs reared in the extensive system
APA, Harvard, Vancouver, ISO, and other styles
6

Laassel, El-Mostafa. "Analyse et modélisation multidimensionelles de la marche humaine." Valenciennes, 1992. https://ged.uphf.fr/nuxeo/site/esupversions/ad74bd8a-f01e-4436-b58d-831899774598.

Full text
Abstract:
L'objectif de cette recherche est d'analyser la marche normale en vue d'établir des résultats exploitables dans le cadre d'études ultérieures sur la marche pathologique. Les deux approches complémentaires utilisées sont d'une part l'analyse multidimensionnelle des données et d'autre part la modélisation biomécanique. Celles-ci ont nécessité la mise en œuvre d'un dispositif expérimental important et original comprenant un système d'analyse gestuelle Saga3 et une plate-forme de force Logabex. Les données sur lesquelles ont porté les traitements sont des variables angulaires des membres inférieurs et les composantes de la force d'appui. L'analyse a montré l'existence de trois classes de marcheurs dans la population étudiée et le résultat démontre qu'il serait abusif de vouloir définir une norme de la marche normale par simple moyennage d'enregistrements. L'étape suivante a concerné la construction d'un modèle biomécanique permettant d'estimer les forces aux articulations. La connaissance de ces efforts est nécessaire tant pour créer une prothèse que pour suivre une rééducation. L'aspect tridimensionnel du modèle constitue un apport important et sa structure est telle qu'on peut modifier les paramètres relatifs à l'anthropométrie du sujet étudié. Les résultats de vérification expérimentale des efforts calcules au niveau des articulations pour quelques sujets sont très encourageants pour la poursuite de cette recherche.
APA, Harvard, Vancouver, ISO, and other styles
7

Lassami, Nacerredine. "Représentations parcimonieuses et analyse multidimensionnelle : méthodes aveugles et adaptatives." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0139.

Full text
Abstract:
Au cours de la dernière décennie, l’étude mathématique et statistique des représentations parcimonieuses de signaux et de leurs applications en traitement du signal audio, en traitement d’image, en vidéo et en séparation de sources a connu une activité intensive. Cependant, l'exploitation de la parcimonie dans des contextes de traitement multidimensionnel comme les communications numériques reste largement ouverte. Au même temps, les méthodes aveugles semblent être la réponse à énormément de problèmes rencontrés récemment par la communauté du traitement du signal et des communications numériques tels que l'efficacité spectrale. Aussi, dans un contexte de mobilité et de non-stationnarité, il est important de pouvoir mettre en oeuvre des solutions de traitement adaptatives de faible complexité algorithmique en vue d'assurer une consommation réduite des appareils. L'objectif de cette thèse est d'aborder ces challenges de traitement multidimensionnel en proposant des solutions aveugles de faible coût de calcul en utilisant l'à priori de parcimonie. Notre travail s'articule autour de trois axes principaux : la poursuite de sous-espace principal parcimonieux, la séparation adaptative aveugle de sources parcimonieuses et l'identification aveugle des systèmes parcimonieux. Dans chaque problème, nous avons proposé de nouvelles solutions adaptatives en intégrant l'information de parcimonie aux méthodes classiques de manière à améliorer leurs performances. Des simulations numériques ont été effectuées pour confirmer l’intérêt des méthodes proposées par rapport à l'état de l'art en termes de qualité d’estimation et de complexité calculatoire
During the last decade, the mathematical and statistical study of sparse signal representations and their applications in audio, image, video processing and source separation has been intensively active. However, exploiting sparsity in multidimensional processing contexts such as digital communications remains a largely open problem. At the same time, the blind methods seem to be the answer to a lot of problems recently encountered by the signal processing and the communications communities such as the spectral efficiency. Furthermore, in a context of mobility and non-stationarity, it is important to be able to implement adaptive processing solutions of low algorithmic complexity to ensure reduced consumption of devices. The objective of this thesis is to address these challenges of multidimensional processing by proposing blind solutions of low computational cost by using the sparsity a priori. Our work revolves around three main axes: sparse principal subspace tracking, adaptive sparse source separation and identification of sparse systems. For each problem, we propose new adaptive solutions by integrating the sparsity information to the classical methods in order to improve their performance. Numerical simulations have been conducted to confirm the superiority of the proposed methods compared to the state of the art
APA, Harvard, Vancouver, ISO, and other styles
8

Ghalamallah, Ilhème. "Proposition d'un modèle d'analyse exploratoire multidimensionnelle dans un contexte d'intelligence économique." Toulouse 3, 2009. http://www.theses.fr/2009TOU30293.

Full text
Abstract:
La réussite d'une entreprise est souvent conditionnée par sa capacité à identifier, collecter, traiter et diffuser de l'information à des fins stratégiques. Par ailleurs, les technologies de l'information et de la connaissance apportent des contraintes auxquelles les entreprises doivent s'adapter : un flot continu, une circulation beaucoup plus rapide, des techniques toujours plus complexes. Le risque est d'être submergé par cette information et de ne plus pouvoir distinguer l'essentiel du négligeable. En effet, avec l'avènement de la nouvelle économie dominée par le marché, la problématique industrielle et commerciale de l'entreprise est devenue très complexe. Désormais, pour être compétitive, l'entreprise doit savoir gérer son capital immatériel. L'intelligence économique (IE) est une réponse aux bouleversements de l'environnement global des entreprises et plus largement de toute organisation. Dans une économie où tout se complexifie et bouge rapidement, la gestion stratégique de l'information est devenue l'un des moteurs essentiels de la performance globale des entreprises. L'IE est une démarche et un processus organisationnel qui permet d'être plus compétitif, par la surveillance de son environnement et de sa dynamique. Dans ce contexte, nous avons constaté qu'une grande part de l'information à portée stratégique vient du relationnel : liens entre acteurs du domaine, réseaux sémantiques, alliances, fusions, acquisitions, collaborations, cooccurrences de tous ordres. Nos travaux consistent à proposer un modèle d'analyse multidimensionnelle dédiée à l'IE. Cette approche repose sur l'extraction de connaissances par l'analyse de l'évolution des données relationnelles. Nous proposons un modèle permettant de mieux comprendre l'activité des acteurs d'un domaine donné, leurs interactions mais aussi leur évolution et leur stratégie, ceci dans une perspective décisionnelle. Cette démarche repose sur la conception d'un système d'information générique d'analyse en ligne permettant d'homogénéiser et d'organiser les données textuelles sous forme relationnelle et, de là, en extraire des connaissances implicites dont le contenu et la mise en forme sont adaptés à des décideurs non spécialistes du domaine de l'extraction des connaissances
A successful business is often conditioned by its ability to identify, collect, process and disseminate information for strategic purposes. Moreover, information technology and knowledge provide constraints that companies must adapt : a continuous stream, a circulation much faster techniques increasingly complex. The risk of being swamped by this information and no longer able to distinguish the essential from the trivial. Indeed, with the advent of new economy dominated by the market, the problem of industrial and commercial enterprise is become very complex. Now, to be competitive, the company must know how to manage their intangible capital. Competitive Intelligence (CI) is a response to the upheavals of the overall business environment and more broadly to any organization. In an economy where everything moves faster and more complex, management Strategic Information has become a key driver of overall business performance. CI is a process and an organizational process that can be more competitive, by monitoring its environment and its dynamics. In this context, we found that much information has strategic significance to the relationship: links between actors in the field, semantic networks, alliances, mergers, acquisitions, collaborations, co-occurrences of all kinds. Our work consists in proposing a model of multivariate analysis dedicated to the IE. This approach is based on the extraction of knowledge by analyzing the evolution of relational databases. We offer a model for understanding the activity of actors in a given field, but also their interactions their development and strategy, this decision in perspective. This approach is based on the designing a system of generic information online analysis to homogenize and organize text data in relational form, and thence to extract implicit knowledge of the content and formatting are adapted to non-specialist decision makers in the field of knowledge extraction
APA, Harvard, Vancouver, ISO, and other styles
9

Jausions-Picaud, Claire. "Analyse en composantes curvilignes et representation de donnees multidimensionnelles : application au routage adaptatif de messages." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0080.

Full text
Abstract:
Dans de nombreux cas, les donnees dont nous pouvons disposer sont de tres grande dimensionalite. Elles sont donc difficiles a apprehender. Les techniques d'analyse de donnees visent a reduire le nombre de dimensions d'un jeu de donnees, de maniere a ce qu'il puisse etre represente dans un espace de faible dimension (si possible deux ou trois), ou l'analyse visuelle est alors aisee. Dans ce travail, nous presentons des techniques classiques d'analyse de donnees et leurs equivalents neuronaux, limitees pour la plupart a la recherche de structures lineaires. Nous exposons d'autres methodes pouvant extraire des structures non lineaires. Parmi celles-ci, nous decrivons les cartes de kohonen en insistant sur leur point faible : la forme de la carte neuronale doit etre fixee a priori. Cette caracteristique, primordiale pour un bon traitement des donnees, est difficile a determiner. Ces methodes ont servi de base et d'inspiration pour la realisation de l'algorithme d'analyse en composantes curvilignes, qui depasse la majorite de leurs defauts. Il est concu pour extraire des donnees non-lineaires. Il determine de lui-meme la forme de la carte la plus appropriee pour traiter des donnees. Il permet de deplier une structure dans un espace de representation de dimension reduite. Nous detaillons les principes de cette methode et voyons quelques cas d'ecole ou elle est appliquee avec succes. Sont ensuite detaillees plusieurs applications de l'acc a des problemes reels. Cette methode novatrice s'attaque avec succes au traitement de problemes lies aussi bien a la classification de photographies de scenes qu'a des cartes routieres. Nous nous attardons sur l'application de cette methode au routage adaptatif de messages dans des reseaux de telecommunications. Ce cas grandeur reelle necessite une analyse et une modelisation des systemes physiques qui peuvent alors etre traites par l'acc.
APA, Harvard, Vancouver, ISO, and other styles
10

Urruty, Thierry. "Optimisation de l'indexation multidimensionnelle : application aux descripteurs multimédia." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Urruty.pdf.

Full text
Abstract:
L'importance des documents multimédia et audiovisuels ne cesse d'augmenter. La création, la modification et l'échange de ces documents sont devenus courants. Afin de rendre ces documents facilement accessibles pour tout utilisateur, il est nécessaire d'avoir des moteurs de recherche rapides et efficaces. Mes travaux de thèse s'inscrivent dans le domaine des documents multimédia, à travers un projet exploratoire nommé AVERROES. L'objectif principal est d'utiliser les descripteurs multimédia normalisés Mpeg-7 pour optimiser la gestion d'une base de données de films d'entreprise. Nous proposons dans ce mémoire deux approches différentes. La première utilise une structure d'indexation multidimensionnelle adaptée à une répartition des données dont la distribution est hétérogène. Pour cela, nos différentes méthodes combinent une technique de classification à une structure d'indexation multidimensionnelle. Dans une deuxième approche, nous proposons d'utiliser une distance structurelle entre deux documents XML pour obtenir une classification préliminaire sur l'ensemble des documents. Un moteur de recherche de séquences vidéo a été développé et permet de tester nos différentes structures d'indexation sur une base de données de films d'entreprises. Enfin, nous proposons d'améliorer l'indexation et la recherche en exploitant les retours des utilisateurs.
APA, Harvard, Vancouver, ISO, and other styles
11

Jean, Villerd. "Représentations visuelles adaptatives de connaissances associant projection multidimensionnelle (MDS) et analyse de concepts formels (FCA)." Paris, ENMP, 2008. https://pastel.archives-ouvertes.fr/pastel-00004559.

Full text
Abstract:
Les outils de recherche d'information sont confrontés à un accroissement constant à la fois du volume et du nombre de dimensions des données accessibles. La traditionnelle liste de résultats ne suffit plus. Un réel besoin en nouvelles techniques de représentation visuelle émerge. Ces nouvelles techniques doivent permettre d'appréhender de manière globale des données nombreuses et multidimensionnelles, en révélant les tendances et la structure générales. On souhaite également pouvoir observer de façon détaillée un ensemble plus restreint de données selon un certain point de vue correspondant à des dimensions particulières. Notre objectif principal est d'assister l'utilisateur dans sa tâche d'exploration de l'information par une articulation judicieuse entre vue globale et vues locales maintenant sa carte mentale. Pour atteindre cet objectif, nous allions des techniques d'analyse de données capables d'identifier des sous-ensembles pertinents, à des techniques de visualisation d'information permettant de naviguer dynamiquement et intuitivement parmi ces sous-ensembles. Une attention particulière est portée aux problèmes liés aux données manquantes, d'une part, et aux données indexées sur des dimensions mixtes (binaires, nominales, continues), d'autre part. De plus, conformément aux attentes de la communauté visualisation, nous définissons un cadre formel pour la spécification de visualisations à partir des données à représenter. Concrètement, nous proposons une méthode de navigation originale associant des techniques de FCA (Formal Concept Analysis) et de visualisation multidimensionnelle MDS (MultiDimensional Scaling). Cette méthode s'appuie sur le paradigme de visualisation « overview + detail » constitué d'une vue globale révélant la structure des données et d'une vue locale affichant les détails d'un élément de la vue globale. Nous tirons parti des propriétés de regroupement du treillis de Galois en l'utilisant comme vue globale pour représenter la structure des données et suggérer des parcours cohérents. La vue locale représente les objets en extension d'un concept sélectionné, projetés par MDS. Nous illustrons la pertinence de cette méthode sur des données concrètes, issues de nos partenariats industriels, et montrons en quoi les techniques de visualisation liées à FCA et la visualisation spatialisée de données par projection MDS, parfois jugées incompatibles, se révèlent complémentaires
Information retrieval tools are faced with the constant increase of data both in volume and in dimensionality and the traditional list of results no longer meet many applications' requirements. New visual representation techniques are needed. These new techniques have to provide an overview of large and multidimensional data sets that gives insights into the underlying trends and structures. They must also be able to represent, in detail, portions of the original data from different standpoints. The aim is to assist the user in her data exploration task by designing a shrewd link between general and local views, that maintains her mental map. In order to achieve this goal, we develop a combination of data analysis techniques that identify pertinent portions of data as well as information visualization techniques that intuitively and dynamically explore these portions of data in detail. In addition, a formalization of the visualization process is needed. We introduce a formal frame that is used to specify visualizations from data structures. Concretely, the solution proposed is an original navigation method that combines techniques from Formal Concept Analysis (FCA) and Multi-Dimensional Scaling (MDS) visualization approaches to suggest navigation paths in the data. This method is based on the "overview + detail" paradigm: One component is an overall view which summarises the underlying structure of the data. A second component is a local view showing an element of the overall view in detail. We take advantage of the classification skills of the Galois lattice by using it as the overall view that reveals the inner data structure and suggests possible navigation paths. The local view uses Multi-Dimensional Scaling to display the objects in the extent of a selected concept. We illustrate and discuss the pertinence of our method on concrete data sets, provided by our industrial partners, and show how hybridisation of FCA and traditional data visualization approaches, which have sometimes been considered distinct or incompatible, can be complementary
APA, Harvard, Vancouver, ISO, and other styles
12

Tournier, Ronan. "Analyse en ligne (OLAP) de documents." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00348094.

Full text
Abstract:
Les entrepôts de données et les systèmes d'analyse en ligne OLAP (On-Line Analytical Processing) fournissent des méthodes et des outils permettant l'analyse de données issues des systèmes d'information des entreprises. Mais, seules 20% des données d'un système d'information est constitué de données analysables par les systèmes OLAP actuels. Les 80% restant, constitués de documents, restent hors de portée de ces systèmes faute d'outils ou de méthodes adaptés. Pour répondre à cette problématique nous proposons un modèle conceptuel multidimensionnel pour représenter les concepts d'analyse. Ce modèle repose sur un unique concept, modélisant à la fois les sujets et les axes d'une analyse. Nous y associons une fonction pour agréger des données textuelles afin d'obtenir une vision synthétique des informations issues de documents. Cette fonction résume un ensemble de mots-clefs par un ensemble plus petit et plus général. Nous introduisons un noyau d'opérations élémentaires permettant la spécification d'analyses multidimensionnelles à partir des concepts du modèle ainsi que leur manipulation pour affiner une analyse. Nous proposons également une démarche pour l'intégration des données issues de documents, qui décrit les phases pour concevoir le schéma conceptuel multidimensionnel, l'analyse des sources de données ainsi que le processus d'alimentation. Enfin, pour valider notre proposition, nous présentons un prototype.
APA, Harvard, Vancouver, ISO, and other styles
13

Bouadi, Tassadit. "Analyse multidimensionnelle interactive de résultats de simulation : aide à la décision dans le domaine de l'agroécologie." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00933375.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à l'analyse des données de simulation issues du modèle agro-hydrologique TNT. Les objectifs consistaient à élaborer des méthodes d'analyse des résultats de simulation qui replacent l'utilisateur au coeur du processus décisionnel, et qui permettent d'analyser et d'interpréter de gros volumes de données de manière efficace. La démarche développée consiste à utiliser des méthodes d'analyse multidimensionnelle interactive. Tout d'abord, nous avons proposé une méthode d'archivage des résultats de simulation dans une base de données décisionnelle (i.e. entrepôt de données), adaptée au caractère spatio-temporel des données de simulation produites. Ensuite, nous avons suggéré d'analyser ces données de simulations avec des méthodes d'analyse en ligne (OLAP) afin de fournir aux acteurs des informations stratégiques pour améliorer le processus d'aide à la prise de décision. Enfin, nous avons proposé deux méthodes d'extraction de skyline dans le contexte des entrepôts de données afin de permettre aux acteurs de formuler de nouvelles questions en combinant des critères environnementaux contradictoires, et de trouver les solutions compromis associées à leurs attentes, puis d'exploiter les préférences des acteurs pour détecter et faire ressortir les données susceptibles de les intéresser. La première méthode EC2Sky, permet un calcul incrémental et efficace des skyline en présence de préférences utilisateurs dynamiques, et ce malgré de gros volumes de données. La deuxième méthode HSky, étend la recherche des points skyline aux dimensions hiérarchiques. Elle permet aux utilisateurs de naviguer le long des axes des dimensions hiérarchiques (i.e. spécialisation / généralisation) tout en assurant un calcul en ligne des points skyline correspondants. Ces contributions ont été motivées et expérimentées par l'application de gestion des pratiques agricoles pour l'amélioration de la qualité des eaux des bassins versants agricoles, et nous avons proposé un couplage entre le modèle d'entrepôt de données agro-hydrologiques construit et les méthodes d'extraction de skyline proposées.
APA, Harvard, Vancouver, ISO, and other styles
14

El, Haddadi Anass. "Fouille multidimensionnelle sur les données textuelles visant à extraire les réseaux sociaux et sémantiques pour leur exploitation via la téléphonie mobile." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1378/.

Full text
Abstract:
La concurrence est un concept fondamental de la tradition libérale et des sciences économiques qui oblige les entreprises à pratiquer l'Intelligence Economique (IE) pour bien se positionner sur le marché ou tout simplement pour survivre. Mais souvent, ce n'est pas le plus fort qui survit, ni le plus intelligent, mais celui qui est le plus sensible au changement, facteur dominant dans la société actuelle. Les changements proviennent de l'extérieur ou naissent au sein même de l'entreprise et peuvent l'affecter plus ou moins durablement. Dès lors, les entreprises sont appelées à rester constamment en veille pour guetter le moindre changement en vue d'y apporter la solution adéquate en temps réel. Cependant, pour une veille réussie, on ne doit pas se contenter uniquement de surveiller les opportunités, mais avant tout, d'anticiper les menaces. Malheureusement, cette veille se déroule en oubliant l'indispensable volet sécurité de l'IE à savoir la sécurité des données manipulées et celle des procédés suivis pour atteindre les objectifs de l'IE. Nos travaux de recherche consistent à proposer un Système d'Intelligence Economique (SIE) Généraliste et Mobile. Ce SIE intègre une approche de modélisation du contrôle d'accès aux données et aux traitements pour sécuriser toutes les informations et les flux d'interaction durant son cycle de vie. Le besoin en matière de sécurité dans un SIE provient du fait que les informations manipulées sont d'ordre stratégique ayant une valeur assez importante. Une telle sécurité ne doit pas être considérée comme une option supplémentaire qu'offre un SIE pour se distinguer d'un autre. D'autant plus que la fuite de ces informations n'est pas le fait de faiblesses inhérentes aux systèmes informatiques des entreprises, mais c'est avant tout une question organisationnelle. La mobilité présente un choix stratégique pour notre SIE ''XPlor EveryWhere'', dont le but est de permettre aux utilisateurs de nos solutions de veille de continuer à rechercher, surveiller, valider et rediffuser des informations stratégiques au cours de leurs déplacements. Ils n'ont ainsi plus besoin d'être assis face à leur ordinateur pour accéder à des données utiles dans l'instant (préparation d'une réunion, nouvel ordre du jour, information sur un interlocuteur, une technologie, un marché, demande urgente d'une analyse ou d'un focus spécifique). Il leur suffit simplement d'utiliser discrètement, et en tout sécurité, leur appareil mobile. Grâce à XPlor EveryWhere, ils sont en permanence au cœur de l'information pertinente
Competition is a fundamental concept of the liberal economy tradition that requires companies to resort to Competitive Intelligence (CI) in order to be advantageously positioned on the market, or simply to survive. Nevertheless, it is well known that it is not the strongest of the organizations that survives, nor the most intelligent, but rather, the one most adaptable to change, the dominant factor in society today. Therefore, companies are required to remain constantly on a wakeful state to watch for any change in order to make appropriate solutions in real time. However, for a successful vigil, we should not be satisfied merely to monitor the opportunities, but before all, to anticipate risks. The external risk factors have never been so many: extremely dynamic and unpredictable markets, new entrants, mergers and acquisitions, sharp price reduction, rapid changes in consumption patterns and values, fragility of brands and their reputation. To face all these challenges, our research consists in proposing a Competitive Intelligence System (CIS) designed to provide online services. Through descriptive and statistics exploratory methods of data, Xplor EveryWhere display, in a very short time, new strategic knowledge such as: the profile of the actors, their reputation, their relationships, their sites of action, their mobility, emerging issues and concepts, terminology, promising fields etc. The need for security in XPlor EveryWhere arises out of the strategic nature of information conveyed with quite a substantial value. Such security should not be considered as an additional option that a CIS can provide just in order to be distinguished from one another. Especially as the leak of this information is not the result of inherent weaknesses in corporate computer systems, but above all it is an organizational issue. With Xplor EveryWhere we completed the reporting service, especially the aspect of mobility. Lastly with this system, it's possible to: View updated information as we have access to our strategic database server in real-time, itself fed daily by watchmen. They can enter information at trade shows, customer visits or after meetings
APA, Harvard, Vancouver, ISO, and other styles
15

Brahimi, Lahcene. "Données de tests non fonctionnels de l'ombre à la lumière : une approche multidimensionnelle pour déployer une base de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0009/document.

Full text
Abstract:
Le choix d'un système de gestion de bases de données (SGBD) et de plateforme d'exécution pour le déploiement est une tâche primordiale pour la satisfaction des besoins non-fonctionnels(comme la performance temporelle et la consommation d'énergie). La difficulté de ce choix explique la multitude de tests pour évaluer la qualité des bases de données (BD) développées.Cette évaluation se base essentiellement sur l'utilisation des métriques associées aux besoins non fonctionnels. En effet, une mine de tests existe couvrant toutes les phases de cycle de vie de conception d'une BD. Les tests et leurs environnements sont généralement publiés dans des articles scientifiques ou dans des sites web dédiés comme le TPC (Transaction Processing Council).Par conséquent, cette thèse contribue à la capitalisation et l'exploitation des tests effectués afin de diminuer la complexité du processus de choix. En analysant finement les tests, nous remarquons que chaque test porte sur les jeux de données utilisés, la plateforme d'exécution, les besoins non fonctionnels, les requêtes, etc. Nous proposons une démarche de conceptualisation et de persistance de toutes .ces dimensions ainsi que les résultats de tests. Cette thèse a donné lieu aux trois contributions. (1) Une conceptualisation basée sur des modélisations descriptive,prescriptive et ontologique pour expliciter les différentes dimensions. (2) Le développement d'un entrepôt de tests multidimensionnel permettant de stocker les environnements de tests et leurs résultats. (3) Le développement d'une méthodologie de prise de décision basée sur un système de recommandation de SGBD et de plateformes
Choosing appropriate database management systems (DBMS) and/or execution platforms for given database (DB) is complex and tends to be time- and effort-intensive since this choice has an important impact on the satisfaction of non-functional requirements (e.g., temporal performance or energy consumption). lndeed, a large number of tests have been performed for assessing the quality of developed DB. This assessment often involves metrics associated with non-functional requirement. That leads to a mine of tests covering all life-cycle phases of the DB's design. Tests and their environments are usually published in scientific articles or specific websites such as Transaction Processing Council (TPC). Therefore, this thesis bas taken a special interest to the capitalization and the reutilization of performed tests to reduce and mastery the complexity of the DBMS/platforms selection process. By analyzing the test accurately, we identify that tests concem: the data set, the execution platform, the addressed non-functional requirements, the used queries, etc. Thus, we propose an approach of conceptualization and persistence of all dimensions as well as the results of tests. Conseguently, this thesis leads to the following contributions. (1) The design model based on descriptive, prescriptive and ontological concepts to raise the different dimensions. (2) The development of a multidimensional repository to store the test environments and their results. (3) The development of a decision making methodology based on a recommender system for DBMS and platforms selection
APA, Harvard, Vancouver, ISO, and other styles
16

Siani, Tchouamatieu Joseph. "Analyse de la pauvreté : de l'approche en termes d’utilité à l'approche par les capabilités d’Amartya Sen. Application sur les données Camerounaises." Caen, 2013. http://www.theses.fr/2013CAEN0708.

Full text
Abstract:
Après une période de crise économique qui a duré de 1987 à 1993, le Cameroun a retrouvé le chemin de la croissance à partir de 1994, du fait notamment de la dévaluation du FCFA et d’autres ajustements internes. Cette croissance s’est traduite par un recul de la pauvreté entre 2001 et 2007. Cependant, cette baisse de la pauvreté ne s’est pas accompagnée d’une amélioration des conditions de vie des populations, la majorité continuant de penser que la dégradation de la situation perdurait. L’objet de cette thèse est d’interroger le paradoxe suivant : d’une part une augmentation de la consommation des ménages s’accompagne d’une réduction de la pauvreté et d’autre part un sentiment très important de la dégradation de la situation persiste. Plus précisément, il s’agira pour nous de mesurer deux approches de la pauvreté que sont l’aspect monétaire et multidimensionnel. Pour ce faire, deux méthodes sont utilisées : les indices de pauvreté de Foster Greer Thorbecke (FGT) ainsi que l’indice de pauvreté multidimensionnel (IPM) proposé par Alkire et Foster pour estimer la pauvreté multidimensionnelle. Nous avons choisi 6 dimensions : le revenu, la santé, l’éducation, l’eau, l’électricité et l’assainissement. Les résultats confirment le paradoxe que nous avons évoqué plus haut : tout d’abord sur la période considérée, nous avons une baisse sensible de la pauvreté monétaire qui est passée de 40. 2 pour cent à 39. 9 pour cent. Parallèlement, nous enregistrons une augmentation plus qu’importante de la pauvreté multidimensionnelle qui elle est passée de 61. 3 pour cent à 71. 1 pour cent sur la même période. En outre, nos résultats suggèrent que les gens qui ont des revenus faibles ne sont pas obligatoirement ceux qui n’ont pas accès à certains services publics tels que l’éducation, la santé, l’eau ou l’électricité
Poverty analysis has always been confined to its monetary aspect. In the last decades however, thanks to the influential work of Amartya Sen (1992), awareness of the limitations of relying solely on income to measure poverty has become more widespread. As a consequence, there has been a shift of emphasis from a single dimension to a multidimensional framework. Poverty should therefore be defined as a situation where many dimensions of human well-being are not met. One way of making the multidimensional approach operational is to focus on the different dimensions that are essential for the quality of life. This thesis analyses multidimensional poverty in Cameroon based on data from a household survey conducted in 2001 and 2007 by the National Institute of Statistics. Starting with a more conventional income-based definition of poverty, poverty in Cameroon is presented. We then apply the approach recently developed by Alkire and Foster to estimate multidimensional indices. Six dimensions are considered for estimations: income, education, health, water, electricity and sanitation. The analysis seeks to overcome the limitations of the union and intersection approaches that have characterized many earlier studies. Multidimensional poverty is then decomposed in terms of the contribution of different dimensions to global poverty. The results suggest that people who are income-poor are not always the same as those who lack access to certain public service such as education, health, water, electricity. Monetary poverty thus may be misleading as it ignores individuals who are not income poor, even though they may be poor in another dimension
APA, Harvard, Vancouver, ISO, and other styles
17

Lanher, Bertrand S. "Spectrométrie infra-rouge à transformée de Fourier et analyse multidimensionnelle de données spectrales : application à la quantification et au contrôle de procédés dans le domaine des produits laitiers." Dijon, 1991. http://www.theses.fr/1991DIJOS054.

Full text
Abstract:
Ce projet de recherches fut proposé pour tenter de définir les champs d'applications scientifiques et industrielles potentielles de la spectrométrie IRTF. On propose un plan d'implantation de cette technologie au niveau des principales situations analytiques rencontrées dans l'industrie laitière (dosage des composés de produits laitiers en utilisant différentes méthodes d'échantillonnage spectroscopique et contrôle de procédés de fabrication laitière). Ce travail a impliqué la mise en place de nouvelles méthodologies d'acquisition et de traitements de données. On a développé des applications de procédures analytiques multidimensionnelles et on propose des solutions informatiques. On propose alors des applications pour cette méthode instrumentale tout au long de la chaine de transformation du lait, pratiquement de la vache au consommateur. Ce travail consiste en la détermination de l'âge et de la population bactérienne de laits crus, l'analyse qualitative et quantitative de lait liquide, le suivi de cinétique de coagulation enzymatique du lait avec la définition d'un nouveau paramètre rhéologique, l'analyse qualitative et quantitative de fromage frais et le suivi de l'affinage de plusieurs fromages avec la prédiction de leur âge ainsi que leur teneur en azote soluble. Aucun de ces résultats n'a actuellement quitté le laboratoire de R. Et D. Toutefois, le travail reporté dans cette thèse pourrait être considéré comme une étude de faisabilité de la méthode et comme une base possible pour de nouveaux travaux de recherche et développement utilisant la spectrométrie IRTF.
APA, Harvard, Vancouver, ISO, and other styles
18

Tréguier, Erwan. "Etude de la diversité géochimique de la surface de Mars, à partir des données de spectrométrie X de la mission Mars Exploration Rover ; Modélisation de l'altération des roches martiennes." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00319744.

Full text
Abstract:
Depuis 2004, les rovers Spirit et Opportunity de la mission MER (Mars Exploration Rover) explorent leurs sites d'atterrissage respectifs, le cratère Gusev et les plaines de Meridiani. Ces travaux de thèse portent sur l'analyse et l'interprétation des données de l'instrument APXS (Alpha-Particle X-ray Spectrometer), situé au bout du bras articulé de chacun des rovers, dont le rôle est de déterminer la composition chimique des roches et des sols martiens par spectrométrie X. Grâce à leur surprenante longévité, Spirit et Opportunity ont pu s'éloigner à plusieurs km de leurs lieux d'atterrissage initiaux et les APXS ont analysé de nombreux échantillons fournissant des indices sur le rôle que l'eau a pu jouer dans le passé martien. J'ai d'abord choisi d'étudier cette diversité d'échantillons à l'aide d'une approche d'analyse multidimensionnelle. Ceci m'a permis de réaliser une classification des échantillons et de mettre en évidence les relations pétrogénétiques entre les roches et les sols de Gusev et Meridiani. Je présenterai les principaux résultats obtenus grâce à cette méthode ainsi que leur lien avec l'organisation spatiale et stratigraphique des échantillons. Je montrerai ensuite comment ces résultats m'ont incité à tester un modèle géochimique numérique d'altération de basalte martien par un brouillard acide de SO3. Je décrirai les hypothèses de ce modèle avant d'en comparer les résultats avec les données MER. Nous verrons enfin quelles en sont les implications, au niveau de la géologie des sites de Gusev et Meridiani et plus généralement vis-à-vis de l'histoire géologique de Mars et des conditions qui ont prévalu à sa surface dans le passé.
APA, Harvard, Vancouver, ISO, and other styles
19

Gonzalez, Ignacio Baccini Alain Leon José. "Analyse canonique régularisée pour des données fortement multidimensionnelles." Toulouse (Université Paul Sabatier, Toulouse 3), 2008. http://thesesups.ups-tlse.fr/99.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Gonzalez, Ignacio. "Analyse canonique régularisée pour des données fortement multidimensionnelles." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/99/.

Full text
Abstract:
Motivé par la mise en évidence des relations entre l'expression de gènes et d'autres variables biologiques, notre travail consiste à présenter et développer une méthodologie répondant à ce problème. Parmi les méthodes statistiques abordant ce sujet, l'Analyse Canonique (AC) semblait bien appropriée, mais la haute dimensionalité est actuellement l'un des obstacles majeurs pour les techniques statistiques d'analyse de données issues de biopuces. Naturellement l'axe de ce travail a été la recherche de solutions tenant compte de cet aspect crucial dans la mise en oeuvre de l'AC. Parmi les approches envisagées pour contourner ce problème, nous nous sommes intéressés à des méthodes de régularisation. Ainsi, la méthode développée ici, appelée Analyse Canonique Régularisée (ACR), est basée sur le principe de régularisation ridge introduit initialement en régression linéaire multiple. L'ACR nécessitant le choix de deux paramètres de réglage pour sa mise en oeuvre, nous avons proposé la méthode de validation croisée par sous-groupes pour traiter ce problème. Nous avons présenté en détail des applications de l'ACR à des données fortement multidimensionnelles provenant d'études génomiques ainsi qu'à des données provenant d'autres domaines. Sur ce point on s'est intéressé à une visualisation des données aidant à l'interprétation des résultats obtenus. À cet effet, nous avons proposé un certaine nombre de méthodes graphiques : représentations des variables (graphiques des corrélations), représentations des individus ainsi que des représentations alternatives comme les graphiques de réseaux et les cartes de double classification (heatmaps). Pour la mise en oeuvre de l'AC, nous avons développé le package CCA (disponible en ligne sur le site cran. R-project. Org). Ce package permet le traitement de données avec plus de variables que d'unités expérimentales par l'ACR, la manipulation des valeurs manquantes et la réalisation des graphiques aidant à l'interprétation des résultats. .
Motivated by the study of relationships between gene expressions and other biological variables, our work consists in presenting and developing a methodology answering this problem. Among the statistical methods treating this subject, Canonical Analysis (CA) seemed well adapted, but the high dimension is at present one of the major obstacles for the statistical techniques of analysis data coming from microarrays. Typically the axis of this work was the research of solutions taking into account this crucial aspect in the implementation of the CA. Among the approaches considered to handle this problem, we were interested in the methods of regularization. The method developed here, called Regularised Canonical Analysis (RCA), is based on the principle of ridge regularization initially introduced in multiple linear regression. RCA needing the choice of two parameters of regulation for its implementation, we proposed the method of M-fold cross-validation to handle this problem. We presented in detail RCA applications to high multidimensional data coming from genomic studies as well as to data coming from other domains. Among other we were interested in a visualization of the data in order to facilitate the interpretation of the results. For that purpose, we proposed some graphical methods: representations of variables (correlations graphs), representations of individuals as well as alternative representations as networks and heatmaps. .
APA, Harvard, Vancouver, ISO, and other styles
21

Diop, Mayoro. "De l'approche monétaire à l'approche par les capabilités : une analyse multidimensionnelle de la pauvreté au Sénégal sur les données de l'Enquête de Suivi de la Pauvreté au Sénégal (ESPS2)." Thesis, Reims, 2014. http://www.theses.fr/2014REIME003.

Full text
Abstract:
L'objectif de cette thèse est de proposer une analyse multidimensionnelle de la pauvreté au Sénégal, et de montrer l'intérêt d'intégrer l'approche par les capabilités dans l'analyse de la pauvreté. Cette thèse vise à faire valoir que l'approche par les capabilités est un cadre adéquat et pertinent pour l'identification des pauvres et présente un grand intérêt pour l'élaboration de meilleures politiques publiques de lutte contre la pauvreté en rapport avec les OMD.Pour mener à bien ce travail, la thèse s'organise en deux temps. Dans un premier, il est question de traiter du concept de pauvreté en confrontant l'approche monétaire traditionnelle et l'approche par les capabilités, et de montrer l'intérêt de l'économie du bonheur dans l'analyse de la pauvreté et du bien-être. Dans un second temps, il s'agit d'éclairer les options méthodologiques pour traiter empiriquement la mesure de la pauvreté et d'apporter les arguments en faveur de l'approche par les capabilités.Les traits essentiels de cette thèse s'organisent autour de trois apports principaux. Le premier est d'ordre théorique. Il propose une analyse de la pauvreté au Sénégal en termes de capabilités. Le second est d'ordre empirique et fournit une mesure multidimensionnelle basée sur la théorie des ensembles flous à partir de l'enquête de suivi de la pauvreté au Sénégal (ESPS 2). Le troisième est méthodologique et propose une démarche originale qui consiste à construire un noyau dur de la pauvreté utilitariste (en confrontant les pauvretés monétaire et subjective), puis d'analyser l'évolution de ce noyau dur selon la distribution des degrés de pauvreté des capabilités
The aim of this thesis is to propose a multidimensional analysis of poverty in Senegal, and to show the importance of integrating the capability approach in the analysis of poverty. This thesis aims at showing that the capability approach is an adequate and appropriate framework for identifying the poor and proves to be of real interest in setting up better public policies in order to fight against poverty relating to the MDGs.This study is divided in two parts. The first part deals with the concept of poverty confronting the traditional monetary approach with the capability approach, and shows the interest of the economics of happiness in the analysis of poverty and well being. In a second phase, the objective is to illuminate methodological options in order to treat the extent of poverty empirically and bring the arguments in favor of the capability approach.The essential features of this thesis revolve around three main contributions. The first one is theoretical. It offers an analysis of poverty in Senegal in terms of capabilities. The second is empirical and provides a multidimensional measure based on the theory of fuzzy sets from the monitoring survey of poverty in Senegal (MSPS 2). The third one is methodological and proposes an original approach consisting of building a core of utilitarian poverty (by comparing the monetary and subjective poverty) and then analyzing the evolution of the core according to the distribution of the degrees of poverty capabilities
APA, Harvard, Vancouver, ISO, and other styles
22

Hillali, Younès. "Analyse et modélisation des données probabilistes : capacités et lois multidimensionnelles." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090015.

Full text
Abstract:
Ce travail traite de la réduction d’un tableau de données probabilistes. Nous présentons un modèle statistique qui permet de résumer les descriptions aléatoires d’une classe d’individus par rapport à toutes les variables descriptives, tout en conservant le caractère aléatoire de la description de chaque individu avec un minimum de perte d’information. Nous proposons plusieurs mesures de généralisation et de spécialisation stochastiques basées sur des opérateurs d’union ou d’intersection entre distributions de probabilité et sur des méthodes de construction de lois multi dimensionnelles à marges unidimensionnelles fixées. Nous montrons que ces mesures possèdent les mêmes propriétés que les mesures de capacité au sens de Choquet. Nous présentons également une nouvelle famille de lois multidimensionnelles paramétriques qui permet d’étendre le procédé de généralisation et de spécialisation à un tableau de données probabilistes de grande taille, dans lequel chaque individu est décrit par plusieurs variables aléatoires de dépendances quelconques. Nous proposons trois algorithmes d’estimation de ses paramètres et nous étudions leur comportement dans la pratique. A partir des mesures de généralisation et de spécialisation d’un tableau de données probabilistes, nous proposons une méthode de classification d’individus décrits par des lois de probabilité. Des éléments de recherche qui devraient permettre d’étendre ce travail à des données probabilistes plus complexes, par exemple à des tableaux de données où chaque case contient une loi multidimensionnelle, sont également présentés.
APA, Harvard, Vancouver, ISO, and other styles
23

Arnaud, Laurent. "Analyses multidimensionnelles des données cliniques et biologiques en immunologie." Paris 6, 2011. http://www.theses.fr/2011PA066693.

Full text
Abstract:
Les méthodes dites multidimensionnelles permettent d'analyser simultanément de multiples observations, définies chacune par un ensemble de variables. L'objectif principal de ces techniques est de réduire le nombre de dimensions utiles à la représentation graphique et à l'interprétation des données, par une projection des variables d'intérêt dans un sous-espace de dimension réduite. Nous présentons successivement les différentes méthodes permettant d'étudier les données complexes (analyse en composantes principales, analyse des correspondances multiples), puis les techniques de classification (classification hiérarchique ascendante, clustering k-means). Ces différentes stratégies analytiques ont été successivement appliquées à l'identification d'une signature cytokinique caractéristique de la maladie d'Erdheim-Chester, une histiocytose non-Langerhansienne rare. Nous montrons ensuite que, contrairement aux données de la littérature, il n'est pas possible de distinguer les différentes complications du sepsis à partir de l'étude de la signature cytokinique sérique. Enfin, nous avons appliqué les techniques de classification à l'identification objective des sous-populations lymphocytaires T CD4+, en montrant qu'il est possible de distinguer objectivement les populations Th1, Th2, Tr1, Th17 et Th22, sur la base de leur profil cytokinique, ce qui constitue une approche novatrice. Au total, les méthodes multidimensionnelles permettent de générer des représentations graphiques intuitives et de classer objectivement de grandes quantités d'informations complexes. Au travers d'exemples divers, nous soulignons la contribution de ces stratégies analytiques en sciences du vivant
APA, Harvard, Vancouver, ISO, and other styles
24

Jerbi, Houssem. "Personnalisation d'analyses décisionnelles sur des données multidimensionnelles." Phd thesis, Toulouse 1, 2012. http://tel.archives-ouvertes.fr/tel-00695371.

Full text
Abstract:
Le travail présenté dans cette thèse aborde la problématique de la personnalisation des analyses OLAP au sein des bases de données multidimensionnelles. Une analyse OLAP est modélisée par un graphe dont les noeuds représentent les contextes d'analyse et les arcs traduisent les opérations de l'utilisateur. Le contexte d'analyse regroupe la requête et le résultat. Il est décrit par un arbre spécifique qui est indépendant des structures de visualisation des données et des langages de requête. Par ailleurs, nous proposons un modèle de préférences utilisateur exprimées sur le schéma multidimensionnel et sur les valeurs. Chaque préférence est associée à un contexte d'analyse particulier. En nous basant sur ces modèles, nous proposons un cadre générique comportant deux mécanismes de personnalisation. Le premier mécanisme est la personnalisation de requête. Il permet d'enrichir la requête utilisateur à l'aide des préférences correspondantes afin de générer un résultat qui satisfait au mieux aux besoins de l'usager. Le deuxième mécanisme de personnalisation est la recommandation de requêtes qui permet d'assister l'utilisateur tout au long de son exploration des données OLAP. Trois scénarios de recommandation sont définis : l'assistance à la formulation de requête, la proposition de la prochaine requête et la suggestion de requêtes alternatives. Ces recommandations sont construites progressivement à l'aide des préférences de l'utilisateur. Afin valider nos différentes contributions, nous avons développé un prototype qui intègre les mécanismes de personnalisation et de recommandation de requête proposés. Nous présentons les résultats d'expérimentations montrant la performance et l'efficacité de nos approches. Mots-clés: OLAP, analyse décisionnelle, personnalisation de requête, système de recommandation, préférence utilisateur, contexte d'analyse, appariement d'arbres de contexte.
APA, Harvard, Vancouver, ISO, and other styles
25

Botte-Lecocq, Claudine. "L'analyse de données multidimensionnelles par transformations morphologiques binaires." Lille 1, 1991. http://www.theses.fr/1991LIL10142.

Full text
Abstract:
Le travail présenté concerne une nouvelle approche pour la classification automatique, basée sur la théorie de la morphologie mathématique. Comme le langage de la morphologie mathématique est celui de la théorie des ensembles, nous montrons comment un ensemble d'observations multidimensionnelles à valeurs réelles peut être transformé en un ensemble discret d'éléments à valeurs binaires. La méthodologie de classification que nous présentons dans ce mémoire peut être décomposée en deux étapes successives: une étape de détection des modes et une étape de classification des observations s'appuyant sur les modes détectés. Dans la deuxième partie du mémoire, nous présentons quatre méthodes distinctes de détection des modes. Les deux premières ont pour but d'extraire les modes par une analyse morphologique des données à classer en combinant deux opérateurs morphologiques de base, les deux dernières sont basées sur l'analyse morphologique de la connexité des points de l'ensemble discret. Dans la dernière partie de ce mémoire, nous définissons et comparons plusieurs procédures de classification à partir des modes extraits, qui aboutissent à des partitions de l'ensemble des observations. Nous illustrons enfin cette approche morphologique à l'aide d'ensembles de données générées artificiellement. Une comparaison des différents résultats obtenus avec ceux obtenus par deux méthodes bien établies en classification automatique permet de mettre en évidence l'intérêt des outils de la morphologie mathématique en analyse de données
APA, Harvard, Vancouver, ISO, and other styles
26

Khrouf, Kaïs. "Entrepôts de documents : de l'alimentation à l'exploitation." Toulouse 3, 2004. http://www.theses.fr/2004TOU30109.

Full text
Abstract:
Nous proposons dans le cadre de cette thèse le concept d'entrepôt de documents permettant le stockage de documents hétérogènes, sélectionnés et filtrés, ainsi que leur classification selon des structures logiques génériques (structures communes à un ensemble de documents). Une telle organisation des entrepôts permet de faciliter l'exploitation des informations documentaires intégrées au travers de plusieurs techniques complémentaires : la recherche d'information qui consiste à restituer des granules de documents en réponse à une requête formulée à l'aide de mots-clés (langage libre), l'interrogation des données qui consiste à récupérer des données factuelles (de structure ou de contenu) en utilisant un langage déclaratif, l'analyse multidimensionnelle qui consiste à manipuler les informations de l'entrepôt selon des dimensions non prédéfinies. Pour valider nos propositions, nous avons développé un outil DOCWARE (DOCument WAREhouse) d'aide à l'intégration et à l'analyse de documents
In this thesis, we propose the concept of document warehouse which consists in the storage of heterogeneous, selected and filtered documents, and their classification according to generic logical structures (common structures to a set of documents). Such warehouses organization facilitates the exploitation of the integrated documentary information through several complementary techniques : the information retrieval which consists in the restitution document granules in response to a query formulated with keywords (free language), the data interrogation which consists in the restitution factual data (structure or content) by using a declarative language, the multidimensional analysis which consists in the manipulation of warehouse information according to not-predefined dimensions. To validate our propositions, we developed an aid tool DOCWARE (DOCument WAREhouse) for the integration and the analysis of documents
APA, Harvard, Vancouver, ISO, and other styles
27

Marcel, Patrick. "Manipulations de données multidimensionnelles et langages de règles." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0093.

Full text
Abstract:
Ce travail est une contribution à 1' étude des manipulations dans les entrepôts de données. Dans la première partie, nous présentons un état de l'art concernant les langages de manipulations de données multidimensionnelles dans les systèmes d'analyse en ligne de données (systèmes OLAP). Nous mettons en évidence des possibilités de combinaisons intéressantes qui n'ont pas été étudiées. Ces pistes sont utilisées dans la deuxième partie pour proposer un langage de manipulation de données simple à base de règles, qui permet de spécifier les traitements typiques dans les systèmes OLAP. Dans une troisième partie, nous illustrons l'exploitation de ce langage pour décrire des traitements de type OLAP dans les tableurs, et automatiser en partie la génération des feuilles de calcul
This works is a contribution to the study of the manipulations in data warehouses. In the first part, we present a state of the art about multidimensional data manipulation languages in systems dedicated to On-Line analytical Processing (OLAP systems). We point out interesting combinations that haven't been studied. These conclusions are used in the second part to propose a simple rule-based language allowing specifying typical treatments arising in OLAP systems. In a third part, we illustrate the use of the language to describe OLAP treatments in spreadsheets, and to generate semi automatic spreadsheet programs
APA, Harvard, Vancouver, ISO, and other styles
28

Rambaud, Fabienne. "Caractérisation, Analyse et Modélisation statistiques de fragments osseux crâniens pour la prédiction de paramètres mécaniques lésionnels." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2007. http://tel.archives-ouvertes.fr/tel-00290942.

Full text
Abstract:
Les accidents de la circulation, fléau de la société, représentent un sérieux problème de santé. En France, 105980 usagers de la route ont été blessés au cours de l'année 2006, et 4942 tués. La tête représente un des segments corporels les plus vulnérables.
Cette thèse est une contribution à l'amélioration de la connaissance du comportement mécanique des os crâniens, en particulier dans le contexte accidentologique.
Les mécanismes de fractures du crâne ont été étudiés par un grand nombre de chercheurs. De multiples techniques et approches ont été élaborées pour la modélisation du comportement mécanique des os crâniens ; ces modèles ne permettent cependant pas de pallier aux problèmes de dispersions inter et intra individuelles propres aux sujets humains.
Dans un premier temps, selon un protocole expérimental, 289 éprouvettes prélevées sur différentes zones osseuses de 17 calottes crâniennes humaines sont testées en essais de flexion trois points quasi-statiques. La force de rupture obtenue à partir des courbes effort/déplacement représente le paramètre mécanique à prédire dans nos modèles statistiques. A partir de mesures morphométriques obtenues par analyse d'images et tests expérimentaux, 15 paramètres morphométriques et densitométriques sont définis pour chaque éprouvette.
Ensuite, une analyse de données exploratoire multidimensionnelle est réalisée sur le tableau de données préalablement fuzzifiées. Cette analyse a permis de nous orienter sur les liaisons linéaires et non linéaires existant entre les paramètres. Des régressions multiples linéaires et curvilinéaires sont réalisées par ajustement des paramètres jugés pertinents. Les modèles sont choisis par la méthode de validation croisée, et par une étude complète de diagnostic des résidus.
L'élaboration de modèles statistiques a permis, selon un sexe et une classe d'âge, de prédire le comportement mécanique de fragments osseux crâniens soumis à des sollicitations de flexion quasi-statique de manière personnalisée.
APA, Harvard, Vancouver, ISO, and other styles
29

Hassan, Ali. "Modélisation des bases de données multidimensionnelles : analyse par fonctions d'agrégation multiples." Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10034/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Gilbert, Frédéric. "Méthodes et modèles pour la visualisation de grandes masses de données multidimensionnelles nominatives dynamiques." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14498/document.

Full text
Abstract:
La visualisation d'informations est un domaine qui connaît un réel intérêt depuis une dizaine d'années. Dernièrement, avec l'explosion des moyens de communication, l'analyse de réseaux sociaux fait l'objet de nombreux travaux de recherches. Nous présentons dans cette thèse des travaux sur l'analyse de réseaux sociaux dynamiques, c'est à dire que nous prenons en compte l'aspect temporel des données. [...]
Since ten years, informations visualization domain knows a real interest.Recently, with the growing of communications, the research on social networks analysis becomes strongly active. In this thesis, we present results on dynamic social networks analysis. That means that we take into account the temporal aspect of data. We were particularly interested in communities extraction within networks and their evolutions through time. [...]
APA, Harvard, Vancouver, ISO, and other styles
31

Loslever, Pierre. "Étude ergonomique du poste bureautique : Approche par les méthodes multidimensionnelles d'analyse des données." Valenciennes, 1988. https://ged.uphf.fr/nuxeo/site/esupversions/0fb2137f-578e-43ec-9bea-1ae708b27a3a.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Mohamed, Saleem Mohamed Ashick. "Pipeline intégratif multidimensionnel d'analyse de données NGS pour l'étude du devenir cellulaire." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAJ072/document.

Full text
Abstract:
L'épigénomique pourrait nous aider à mieux comprendre pourquoi différents types cellulaires montrent différents comportements. Puisque, dans le cadre d'études épigénétiques, il peut êtrenécessaire de comparer plusieurs profils de séquençage, il y a un besoin urgent en nouvelles approches et nouveaux outils pour pallier aux variabilités techniques sous-jacentes. Nous avons développé NGS-QC, un système de contrôle qualité qui détermine la qualité de données et Epimetheus, un outil de normalisation d'expériences de modifications d'histones basé sur les quartiles afin de corriger les variations techniques entre les expériences. Enfin, nous avons intégré ces outils dans un pipeline d'analyse allèle-spécifique afin de comprendre le statut épigénétique de XCI dans le cancer du sein où la perte du Xi est fréquent. Notre analyse a dévoilé des perturbations dans le paysage épigénétique du X et des réactivations géniques aberrantes dans le Xi, dont celles associées au développement du cancer
Epigenomics would help us understand why various cells types exhibit different behaviours. Aberrant changes in reversible epigenetic modifications observed in cancer raised focus towards epigenetic targeted therapy. As epigenetic studies may involve comparing multi-profile sequencing data, thereis an imminent need for novel approaches and tools to address underlying technical variabilities. Wehave developed NGS-QC, a QC system to infer the experimental quality of the data and Epimetheus, a quantile-based multi-profile normalization tool for histone modification datasets to correct technical variation among samples. Further, we have employed these developed tools in an allele-specific analysis to understand the epigenetic status of X chromosome inactivation in breast cancer cells where disappearance of Xi is frequent. Our analysis has revealed perturbation in epigenetic landscape of X and aberrant gene reactivation in Xi including the ones that are associated with cancer promotion
APA, Harvard, Vancouver, ISO, and other styles
33

Blanchard, Frédéric Herbin Michel. "Visualisation et classification de données multidimensionnelles Application aux images multicomposantes /." Reims : S.C.D. de l'Université, 2005. http://scdurca.univ-reims.fr/exl-doc/GED00000287.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Tall, Aguibou Bougobaly. "Intéressement, actionnariat et conflits dans l'entreprise : études sur données d'entreprises françaises." Thesis, Paris 2, 2016. http://www.theses.fr/2016PA020026/document.

Full text
Abstract:
L'idée de base des contrats incitatifs est celle de la réalisation d'intérêts communs provoquant des changements dans le comportement des salariés et l'amélioration de la performance de l'entreprise. Les résultats et les succès de l'entreprise dépendent également du climat des relations professionnelles. Dans ce contexte, l'objectif de cette thèse est de contribuer à la compréhension de la participation financière (l'intéressement et l'actionnariat salarié) et ses liens avec les conflits à partir de données d'entreprises françaises. La recherche sur ces deux thèmes est d'une importance pratique et novatrice. Tout d'abord, il existe au sein de l'entreprise une multitude de types de conflits. Nous nous intéressons principalement aux conflits collectifs. Ensuite, la plupart des études sur les conflits collectifs se concentre uniquement sur les grèves, en ignorant les autres formes d'actions collectives, et très peu d'études font le lien avec les systèmes d'incitations collectives au sein de l'entreprise. Ainsi, ce travail se décompose en quatre études empiriques. La première vise à analyser les différentes formes de conflits au sein de l'entreprise. La deuxième analyse l'effet de la participation financière sur les conflits collectifs. La troisième étude s'intéresse à l'impact de la négociation et de la participation financière sur la résolution des conflits collectifs. Enfin, la dernière examine la performance des entreprises en fonction de la participation financière et des conflits collectifs. Nos recherches reposent sur des outils d'analyse multidimensionnelle et économétriques. L'approche multidimensionnelle fait appel à l'Analyse des Correspondances Multiples et à la Classification Hiérarchique Ascendante.L'approche économétrique fait usage de méthodes d'estimations classiques (OLS,Probit Simple, Probit Multinomial, Probit Ordonné), de modèles à sélection (Heckman), et des techniques d'estimations de modèles récursifs à équations simultanées traitant ainsi les problèmes d'endogénéité et la mixture (quantitative et qualitative) des variables dépendantes (Roodman, Conditional Mixed Process)
The basic idea of incentive contracts is that of achieving common interests causing changes in the behavior of employees and improving firm performance.The firms' outputs and success also depend on the industrial relation climate. In this context, the aim of this thesis is to contribute to the understanding offinancial participation (profit sharing and employee share ownership) and its links with the conflicts using data on French firms. Research on these topics isinnovative and highly recommended. First, there exists within the firm a multitude of types of conflicts. We are primarily concerned with collective conflicts. Most of studies on collective conflicts focuses only on strikes, ignoring other forms of collective actions. Very few studies make the link between collective incentive schemes and collective conflicts. Thus, this work is dividedinto four empirical studies. The first one analyzes the different forms of conflicts within the firm. The second one analyzes the effect of financial participation on collective conflicts. The third study focuses on the impact of bargaining and financial participation on the resolution of collective conflicts. The last one examines firm's performance based on financial participation and collective conflicts. Our research is based on multidimensional analysis and econometric tools. The multidimensional approach uses the Multiple Correspondence Analysis and Ascending Hierarchical Clustering. The econometric approach usesclassical estimation methods (OLS, Probit, Mutinomial Probit, Ordered Pobit),selection models (Heckman), and methods estimating simultaneous and recursive equations, treating the endogeneity problems and the mixture (quantitative and qualitative) of the dependent variables (Roodman, Conditional Mixed Process)
APA, Harvard, Vancouver, ISO, and other styles
35

Tabti, Saïd. "Modélisation macroscopique de l'écoulement du trafic aérien : une approche par analyse de données multidimensionnelles." Lyon 1, 1999. http://www.theses.fr/1999LYO10055.

Full text
Abstract:
La simulation par ordinateur est tres utilisee, dans le domaine du trafic aerien. Les besoins en sont nombreux : la prevision, la regulation, le controle du trafic et l'aide a la decision. Bien que les outils connus, dans ce domaine, soient tres nombreux et tres varies, il reste que certains problemes ne sont pas encore totalement resolus. Il s'agit, notamment de tout ce qui a trait a l'amelioration de l'ecoulement des flux de trafic, que ce soit au niveau des grands aeroports, ou de l'espace en route, et ce dans un horizon de temps a court terme (i. E. Moins d'une heure). Les principales causes des difficultes rencontrees sont l'augmentation continue de la demande de trafic aerien, la limitation operationnelle de la capacite de l'espace en route et des aeroports, sans oublier bien sur les innombrables incertitudes sur la demande et la capacite. La limite de capacite est due, en partie, a la presence dans le systeme, d'operateurs humains (controleurs). Les modeles d'ecoulement du trafic aerien, connus en litterature sous le nom de modeles de simulation rapide, sont generalement bases sur des techniques de simulation a evenements discrets. Ils sont, de ce fait, microscopiques (i. E. L'entite simulee est l'avion). Comme ils sont assez precis et utilisent un jeux important de donnees, ils sont assez lourds a manipuler et ils sont longs en terme de temps de calcul. Nous proposons, dans cette recherche, une autre approche de modelisation de l'ecoulement du trafic aerien. Le modele propose utilise des concepts, plus au moins opposes a ceux des modeles actuels, c'est a dire : _ il est concu sous une approche macroscopique, mais il supporte des demandes de trafic, aussi bien exprimees sous forme de flux de trafic, ou d'avions individuels. _ il est analytique, c'est a dire il est base sur un jeux d'equations mathematiques, _ il est rapide en temps de calcul, _ il est utilisable dans une boucle de controle (en trafic aerien, on dit regulation), a court terme, des flux de trafic, notamment par le biais d'un jeux de variables de commande inherentes au modele. _ ses parametres internes de base sont estimes dynamiquement, avec des modeles de decision statistique (bases sur des archives de trafic operationnel) qui sont independants du modele. Ceci lui procure une certaine flexibilite quant au choix du modele de decision le plus approprie.
APA, Harvard, Vancouver, ISO, and other styles
36

Esson, François. "Un logiciel de visualisation et de classification interactives de données quantitatives multidimensionnelles." Lille 1, 1997. http://www.theses.fr/1997LIL10089.

Full text
Abstract:
Les travaux concernent le développement d'un logiciel de classification de données multidimensionnelles interactif basé sur une nouvelle méthode de représentation plane non linéaire. Les techniques d'analyse de données ont pour but de séparer un ensemble d'observations multidimensionnelles en différents sous groupes ou classes, ayant des propriétés voisines, ou des similarités. Dans notre cas, les données brutes ou observations sont quantitatives, obtenues à partir des mesures de n variables sur p échantillons d'une population d'objets donnée. Dans un problème en deux dimensions, les données peuvent être examinées visuellement et formeront un nuage de points sur un diagramme ; ainsi les différentes classes de données présentes pourront être identifiées sans description mathématique formelle de la similarité entre les observations, ni une définition précise de ce qu'est une classe. Notre nouveau mode de représentation plane, permet d'exploiter d'une manière similaire, les capacités discriminatoires de l'opérateur humain dans le cas de données multidimensionnelles. Prenons tout d'abord le cas d'un observateur virtuel évoluant dans l'espace tridimensionnel. Sa position dans l'espace sera définie en tant que point de vue, l'axe de son regard étant la direction de vue. Les coordonnées rectangulaires de la représentation plane d'un point dans l'espace seront d'une part la distances euclidienne entre le point de vue et ce point, d'autre part l'angle entre l'axe du regard de l'observateur virtuel, ou direction de vue, et la droites joignant ce point et le point de vue
A chaque nouvelle configuration du référentiel (point de vue, direction de vue) correspondra une représentation plane différente de l'ensemble des points de données. C'est la généralisation à la dimension n de ce concept qui est à la base du travail effectue. Le logiciel issu de cette nouvelle approche interactive dans le domaine de la classification multidimensionnelle et de la représentation plane de données multidimensionnelles devrait apporter un outil de travail intéressant pour des chercheurs qui sans être des spécialistes en analyse de données ou en programmation, seraient amenés à utiliser l'approche de la classification, pour leur travail
APA, Harvard, Vancouver, ISO, and other styles
37

Blanchard, Frédéric. "Visualisation et classification de données multidimensionnelles : Application aux images multicomposantes." Reims, 2005. http://theses.univ-reims.fr/exl-doc/GED00000287.pdf.

Full text
Abstract:
L'analyse des images multicomposantes est un problème crucial. Les questions de la visualisation et de la classification pour ces images sont importantes. Nous nous sommes intéressés à ces deux problèmes en nous plaçant dans le cadre plus général de l'analyse des données multidimensionnelles, et avons apporté deux éléments de réponses. Avant de traiter ces questions, nous nous sommes intéressés aux problèmes pratiques et théoriques liés à la dimensionnalité et étudions quelques unes des techniques courantes de réduction de dimensionnalité. La question de la visualisation est alors exposée et une nouvelle méthode utilisant l'image couleur est proposée. Cette technique permet une visualisation immédiate et synthétique des données, sans connaissance a priori. Elle est illustrée par des applications. Nous présentons également une contribution à la classification non supervisée de données qui se situe en amont du processus de classification proprement dit. Nous avons conçu une nouvelle façon de représenter les données et leurs liens à l'aide de la théorie des ensembles flous. Cette méthode permet, en classification, de traiter avec succès des échantillons de données dont les classes sont d'effectifs et de densités différents, sans faire d'a priori sur leur forme. Un algorithme de classification et des exemples de son application sont proposés. Ce travail présente deux contributions importantes aux problématiques de la visualisation et la classification, et fait intervenir des concepts issus de thématiques diverses comme l'analyse de données ou la théorie des ensembles flous. Il peut ainsi être utilisé dans d'autres contextes que celui de l'analyse d'images multicomposantes
The analysis of multicomponent images is a crucial problem. Visualization and clustering problem are two relevant questions about it. We decided to work in the more general frame of data analysis to answer to these questions. The preliminary step of this work is describing the problems induced by the dimensionality and studying the current dimensionality reduction methods. The visualization problem is then considered and a contribution is exposed. We propose a new method of visualization through color image that provides an immediate and sythetic image od data. Applications are presented. The second contribution lies upstream with the clustering procedure strictly speaking. We etablish a new kind of data representation by using rank transformation, fuzziness and agregation procedures. Its use inprove the clustering procedures by dealing with clusters with dissimilar density or variant effectives and by making them more robust. This work presents two important contributions to the field of data analysis applied to multicomponent image. The variety of the tools involved (originally from decision theory, uncertainty management, data mining or image processing) make the presented methods usable in many diversified areas as well as multicomponent images analysis
APA, Harvard, Vancouver, ISO, and other styles
38

Barsoum, Baher Albert. "Classification automatique par amincicement de l'histogramme multidimensionnel." Lille 1, 1994. http://www.theses.fr/1994LIL10195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Chao, Christina. "Étude des propriétés émollientes de biomolécules commerciales et synthétisées en vue de la substitution du décaméthylcyclopentasiloxane (D5)." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2379/document.

Full text
Abstract:
L’émollience est un terme définissant la capacité d’une matière première à adoucir, amollir, ou lubrifier la peau. Dans le domaine de la cosmétique, les émollients sont utilisés pour modifier la consistance, la viscosité ou la polarité d’une formulation. Il existe un nombre non négligeable d’émollients pouvant être utilisés en cosmétique. Cependant, les données aussi bien physico-chimiques que sensorielles disponibles dans la littérature sont encore très rares, rendant le choix des émollients complexe. De plus, les analyses sensorielles habituellement réalisées par les fournisseurs constituent une méthode de caractérisation particulièrement chronophage et coûteuse.Parmi les différents types d’émollients, les dérivés siliconés se démarquent par des propriétés bien spécifiques. Il s’agit notamment d’un très bon étalement, un toucher doux, non huileux et non collant, ou encore d’un effet sec sans effet de fraicheur. Cependant, malgré ces propriétés sensorielles exceptionnelles, de récentes études soulèvent la question de la toxicité d’un dérivé cyclique particulièrement utilisé dans les produits cosmétiques : le décaméthylcyclopentasiloxane (D5). Ainsi, deux problématiques font le sujet de ces travaux : une portant sur la recherche d’un substituant biosourcé au D5 et pour laquelle des molécules commerciales et synthétisées ont été caractérisés et comparés par des mesures physico-chimiques et sensorielles. La seconde problématique repose sur la recherche de corrélations entre les données physico-chimiques et sensorielles dans le but de faciliter le travail des formulateurs lors du screening des émollients par la prédiction de certaines de leurs propriétés sensorielles
Emolliency is a word used to define the ability of a compound to soften or lubricate the skin. ln the cosmetic field, emollients are used to modify the consistency, the viscosity or the polarity of a formulation. Many emollients can be used in cosmetic products. However, in the literature both physicochemical and sensory data ar still lacking, making it difficult to choose an emollient. Furthermore, the sensory analysis usually performed to characterize emollients are particularly time-consuming and thus, expensive. Among the different chemical families of emollients, silicone derivatives stand out thanks to their specific properties. Indeed, they are characterized by an excellent spreading on skin and hair, a smooth skin feel, non-greasy and non-sticky, or by a dry skin feel without a fresh effect. However, even though these sensory properties are exceptional, recent studies wonder about the toxicity of a cyclic silicone particularly used in cosmetic products: the decamethylcyclopentasiloxane (D5). Thus, this work deals With two main objectives. The first one consists in the research of a bio-based alternative to the D5 For this purpose, a number of commercial and synthesized molecules were characterized and compared With physicochemical measurements and sensory analysis, allowing the observations of trends between structures and properties. The second objective relies on the study of correlations between physico-chemical and sensory data in order to predict the emollient properties of cosmetic ingredients. This would ease the work of formulators during the screening of ingredients
APA, Harvard, Vancouver, ISO, and other styles
40

Casali, Alain. "Treillis cubes contraints et fermés dans la fouille de bases de données multidimensionnelles." Aix-Marseille 2, 2004. http://www.theses.fr/2004AIX22078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

DOUZAL, VINCENT. "Analyse de donnees d'evaluation sensorielle." Paris 6, 1998. http://www.theses.fr/1998PA066658.

Full text
Abstract:
Le profil sensoriel descriptif est une methode codifiee d'emploi repandu dans les industries alimentaires. C'est un moyen d'obtenir une representation de ce qu'eprouvent des sujets, comme tel il passe de maniere incontournable par une introspection. On se demande s'il est possible de faire une typologie de gouteurs a partir de donnees de profil. On traite des profils descriptifs de petits pots pour bebes. La question passe par une definition du gouteur a travers les donnees. En etudiant ce prealable, on se rend compte que les methodes classiques d'analyse sont impropres pour etudier la repetabilite des sujets. En posant desormais les questions en termes de symetries et de relativites, il devient possible de tenir pleinement compte de ce que toute perception soit relative a un sujet, qui rencontre un phenomene. Une reflexion sur la physiologie de la perception, sur la theorie du mesurage, enfin sur la description et la reconnaissance de forme permet de cerner quel type d'invariance on peut rechercher entre les profils de differents sujets. Le modele qui en decoule permet d'etablir des symetries entre sujets, base de la classification recherchee. Il apparait comme le moyen privilegie pour l'analyse de donnees de profil, de nature a faire progresser reellement la pratique. Il y a plusieurs niveaux de conclusion, sur la pratique de l'analyse sensorielle descriptive, sur l'analyse des donnees et la modelisation, sur la structure d'une theorie scientifique apte a rendre compte d'un phenomene comme la perception. Aussi inattendu que cela puisse paraitre, c'est la theorie de l'evolution, en contraste avec les theories formalistes pouvant se ramener a un developpement a partir d'axiomes, comme les theories physiques, qui possede la structure adequate.
APA, Harvard, Vancouver, ISO, and other styles
42

Biela, Philippe. "Classification automatique d'observations multidimensionnelles par réseaux de neurones compétitifs." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-469.pdf.

Full text
Abstract:
L'objet du travail présenté dans ce mémoire est la classification d'observations multidimensionnelles à l'aide d'outils connexionistes appelés réseaux de neurones compétitifs. Le premier chapitre expose les principales techniques dites classique dédiées à la classification automatique d'un ensemble d'observations. Le second chapitre positionne le champ d'investigation de nos recherches dans le domaine de la classification automatique par réseaux de neurones. Nous y présentons quelques développements récents faits en classification dans le domaine cognitif en distinguant les techniques probabilistes utilisant une approche statistique et celles dédiées au domaine métrique avec une approche itérative. Le troisième chapitre présente dans le détail l'architecture et les spécificités comportementales de l'outil que nous avons développé à des fins de classification : le réseau de neurones compétitif. Enfin, le dernier chapitre montre comment, par l'action simultanée et coopérative des réseaux compétitifs, nous pouvons engendrer une action de classification cohérente parmi un ensemble d'observations disponibles d'origines inconnues. Pour illustrer et valider notre méthode nous utilisons différents échantillons d'observations issus de la simulation ou d'applications réelles comme le contrôle qualité de bouteilles en verre par vision artificielle.
APA, Harvard, Vancouver, ISO, and other styles
43

TRIBOULEY, KARINE. "Estimation de densite : analyse multidimensionnelle et methodes d'ondelettes." Paris 7, 1993. http://www.theses.fr/1993PA077103.

Full text
Abstract:
Cette these est consacree a l'estimation de densites multivariees. Elle se decompose en trois parties: les deux premieres concernent les methodes d'ondelettes, la derniere expose une methode utilisant des ridges approximations. La premiere partie presente une methode pratique d'estimation de densite par ondelettes. L'indice de lissage de la methode (le niveau de resolution de l'analyse) est determine par un critere de crossvalidation type moindres carres. La technique d'estimation que nous avons developpee consiste a evaluer empiriquement la regularite de la fonction que l'on veut estimer et a choisir une ondelette de meme regularite pour faire le travail d'estimation. Plusieurs simulations ainsi que des etudes pratiques ont ete effectuees. La seconde partie est consacree a l'etude theorique des methodes par ondelettes lorsqu'on suppose que la densite a estimer a une regularite connue. On y montre que les methodes par ondelettes sont optimales au sens ou leur risque associe atteint la vitesse optimale theorique. Cette partie generalise en dimension quelconque les resultats de donoho-johnstone-kerkyacharian-picard. Enfin, dans la derniere partie, une methode differente d'estimation pour des densites bivariees est presentee: une echelle a ete construite qui permet de predire les reactions de la methode par ridge approximation sur une fonction donnee en fonction de certaines de ses proprietes differentielles. L'aspect biais de l'estimation est tres precisement etudie; l'aspect variance est plus delicat du fait que l'on ne dispose que d'une majoration de l'erreur attendue. Cette partie prolonge une etude de donoho et johnstone sur la comparaison entre methode par ridge approximation et methode de noyaux
APA, Harvard, Vancouver, ISO, and other styles
44

Ciry, Guillaume. "Analyse multidimensionnelle des marqueurs discursifs commençant par "si"." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0028.

Full text
Abstract:
Dans une perspective résolument classificatoire, cette thèse propose une analyse multidimensionnelle de la sous-classe de marqueurs discursifs qui ont la particularité de commencer par « si » : si je veux, si tu veux / si vous voulez, si on veut, si tu permets, si tu me permets, si vous permettez, si vous me permettez, si je puis / peux dire, si on peut dire, si j’ose dire et si on ose dire. La multidimensionnalité de l’étude tient au fait que ces marqueurs sont polyfonctionnels : une même unité, en effet, peut, par exemple, tantôt remplir la fonction d’atténuateur, tantôt celle de durcisseur. L’étude que nous proposons est structurellement multidimensionnelle dans la mesure où elle articule une approche à la fois diachronique et synchronique. En diachronie, nous montrons tout d’abord les périodes auxquelles les marqueurs sont apparus pour ensuite en proposer une analyse positionnelle et combinatoire détaillée. Dans cette même perspective diachronique, nous traitons également la question de la sélection du verbe dire pour les marqueurs étant formés avec cet archiverbe, le patron syntaxique à l’origine des unités étudiées évoluant effectivement du schéma Si+Personne+Verbe au schéma Si+Personne+Verbe+(Dire). Nous avons pour ce faire utilisé les nouvelles fonctionnalités de la base Frantext 2 et, dans le cadre de cette exploitation, nous avons mis en place une méthodologie que nous décrivons et dont nous présentons les résultats. En synchronie, et sur la base de l’exploration de plusieurs corpus oraux, nous proposons un focus sur deux marqueurs fréquents, remarqués et remarquables en français moderne et contemporain, à savoir si tu veux / si vous voulez et si je puis dire. Cette démarche nous permet in fine de mettre l’existence du couple pragmatico-modal vouloir / pouvoir en relief
From a resolutely classificatory perspective, this thesis proposes a multidimensional analysis of the subclass of French discourse markers which have the particularity of starting with “si” : si je veux, si tu veux / si vous voulez, si on veut, si tu permets, si tu me permets, si vous permettez, si vous me permettez, si je puis / peux dire, si on peut dire, si j’ose dire and si on ose dire. The multidimensional aspect of the study is due to the fact that these markers are polyfunctional: the same unit, in fact, can, for example, sometimes fulfill the function of softener, sometimes that of hardener. The study we propose is structurally multidimensional in that it articulates an approach that is both diachronic and synchronic. In diachrony, we first show the periods in which the markers appeared and then propose a detailed positional and combinatorial analysis. In this same diachronic perspective, we also deal with the question of the selection of the French verb dire for the markers being formed with this archiverb, the syntactic pattern at the origin of the studied units effectively evolving from the Si + Person + Verb scheme to the Si + Person + Verb + (Dire) scheme. To do this, we used the new functionalities of the Frantext 2 database and, within the framework of this exploitation, we set up a methodology that we describe and whose results we present. In synchrony, and on the basis of the exploration of several oral corpora, we offer a focus on two frequent, noticed and remarkable markers in modern and contemporary French, namely si tu veux / si vous voulez and si je puis dire. This approach ultimately allows us to highlight the existence of the French pragmatic-modal couple of vouloir/ pouvoir
APA, Harvard, Vancouver, ISO, and other styles
45

Allanic, Marianne. "Gestion et visualisation de données hétérogènes multidimensionnelles : application PLM à la neuroimagerie." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2248/document.

Full text
Abstract:
La neuroimagerie est confrontée à des difficultés pour analyser et réutiliser la masse croissante de données hétérogènes qu’elle produit. La provenance des données est complexe – multi-sujets, multi-analyses, multi-temporalités – et ces données ne sont stockées que partiellement, limitant les possibilités d’études multimodales et longitudinales. En particulier, la connectivité fonctionnelle cérébrale est analysée pour comprendre comment les différentes zones du cerveau travaillent ensemble. Il est nécessaire de gérer les données acquises et traitées suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractéristiques. Cette thèse a pour objectif de permettre l’exploration de relations complexes entre données hétérogènes, ce qui se décline selon deux axes : (1) comment gérer les données et leur provenance, (2) comment visualiser les structures de données multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont présentées à l’issue d’un état de l’art sur les domaines de la gestion de données hétérogènes et de la visualisation de graphes. Le modèle de données BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des données de neuroimagerie en fonction des étapes d’une étude et prend en compte le caractère évolutif de la recherche grâce à l’association de classes spécifiques à des objets génériques. L’implémentation de ce modèle au sein d’un système PLM (Product Lifecycle Management) montre que les concepts développés depuis vingt ans par l’industrie manufacturière peuvent être réutilisés pour la gestion des données en neuroimagerie. Les GMD (Graphes Multidimensionnels Dynamiques) sont introduits pour représenter des relations complexes entre données qui évoluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a été créé pour permettre le stockage et l’échange de GMD entre applications. La méthode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la préservation partielle de la carte mentale de l’utilisateur et l’alternance de vues complètes et réduites des données. La méthode OCL est appliquée à l’étude de la connectivité fonctionnelle cérébrale au repos de 231 sujets représentées sous forme de GMD – les zones du cerveau sont représentées par les nœuds et les mesures de connectivité par les arêtes – en fonction de l’âge, du genre et de la latéralité : les GMD sont obtenus par l’application de chaînes de traitement sur des acquisitions IRM dans le système PLM. Les résultats montrent deux intérêts principaux à l’utilisation de la méthode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre états du GMD
Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization. The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states
APA, Harvard, Vancouver, ISO, and other styles
46

Mure, Simon. "Classification non supervisée de données spatio-temporelles multidimensionnelles : Applications à l’imagerie." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI130/document.

Full text
Abstract:
Avec l'augmentation considérable d'acquisitions de données temporelles dans les dernières décennies comme les systèmes GPS, les séquences vidéo ou les suivis médicaux de pathologies ; le besoin en algorithmes de traitement et d'analyse efficaces d'acquisition longitudinales n'a fait qu'augmenter. Dans cette thèse, nous proposons une extension du formalisme mean-shift, classiquement utilisé en traitement d'images, pour le groupement de séries temporelles multidimensionnelles. Nous proposons aussi un algorithme de groupement hiérarchique des séries temporelles basé sur la mesure de dynamic time warping afin de prendre en compte les déphasages temporels. Ces choix ont été motivés par la nécessité d'analyser des images acquises en imagerie par résonance magnétique sur des patients atteints de sclérose en plaques. Cette maladie est encore très méconnue tant dans sa genèse que sur les causes des handicaps qu'elle peut induire. De plus aucun traitement efficace n'est connu à l'heure actuelle. Le besoin de valider des hypothèses sur les lésions de sclérose en plaque nous a conduit à proposer des méthodes de groupement de séries temporelles ne nécessitant pas d'a priori sur le résultat final, méthodes encore peu développées en traitement d'images
Due to the dramatic increase of longitudinal acquisitions in the past decades such as video sequences, global positioning system (GPS) tracking or medical follow-up, many applications for time-series data mining have been developed. Thus, unsupervised time-series data mining has become highly relevant with the aim to automatically detect and identify similar temporal patterns between time-series. In this work, we propose a new spatio-temporal filtering scheme based on the mean-shift procedure, a state of the art approach in the field of image processing, which clusters multivariate spatio-temporal data. We also propose a hierarchical time-series clustering algorithm based on the dynamic time warping measure that identifies similar but asynchronous temporal patterns. Our choices have been motivated by the need to analyse magnetic resonance images acquired on people affected by multiple sclerosis. The genetics and environmental factors triggering and governing the disease evolution, as well as the occurrence and evolution of individual lesions, are still mostly unknown and under intense investigation. Therefore, there is a strong need to develop new methods allowing automatic extraction and quantification of lesion characteristics. This has motivated our work on time-series clustering methods, which are not widely used in image processing yet and allow to process image sequences without prior knowledge on the final results
APA, Harvard, Vancouver, ISO, and other styles
47

LESERVOT, ARNAULD. "Analyse interprocedurale du flot des donnees." Paris 6, 1996. http://www.theses.fr/1996PA066252.

Full text
Abstract:
L'apparition des ordinateurs paralleles pose le probleme de la reutilisation des programmes sequentiels. Les supercompilateurs actuels tentent d'y repondre en parallelisant automatiquement ces programmes. Ils se basent pour cela sur le graphe de dependance, qui fournit pour chaque valeur lue du programme l'instruction qui l'ecrit. De la precision de ce graphe depend le taux de parallelisme du cod genere. Le graphe du flot des donnees (dfg) permet le calcul exact de ces dependances pour les programmes a controle statique, principalement constitues de boucles do simples et d'assignations avec acces lineaires aux tableaux, sans appel de procedures. La these leve cette derniere restriction en trois etapes. D'abord, nous definissons precisement ce qu'est un programme a controle statique contenant des appels de procedure. Nous fournissons un algorithme qui detecte les zones a controle statique et permet une classification de programme. Nous montrons ensuite que les regions de tableau entrantes et sortantes des procedures appelees sont calculables en introduisant des instructions fictives a l'entree et a la sortie des procedures. Ces regions apparaissent initialement comme l'intersection d'un polyedre et d'une liste de complementaires de polyedres, que nous transformons en une union d'un faible nombre de polyedres. Les appels de procedure apparaissent alors comme des instructions generalisees qui lisent et ecrivent des regions de tableaux. Notre extension du dfg, le graphe du flot des regions, est un graphe de dependance exact pour les programmes contenant de telles instructions. Nous montrons enfin comment regenerer un code parallele a partir de ce graphe
APA, Harvard, Vancouver, ISO, and other styles
48

Ho, Tu Bao. "Systemes experts et analyse de donnees." Paris 6, 1987. http://www.theses.fr/1987PA066128.

Full text
Abstract:
Le travail concerne: 1) la construction d'un moteur d'inference adapte aux logiciels statistiques avec une contribution au formalisme de raisonnement; 2) la mise en oeuvre d'un systeme expert guidant l'utilisation du logiciel sicla, permettant aux non statisticiens d'utiliser facilement les methodes d'analyse des donnees; 3) la construction d'une base de regles a partir de donnees observees par la methode de classification conceptuelle cabro; 4) la simplification d'une base de regles a l'aide du tableau rpcb et de regles intermediaires detectees
APA, Harvard, Vancouver, ISO, and other styles
49

ZAAMOUN, SAAD. "Fonctions splines en analyse des donnees." Paris, CNAM, 1989. http://www.theses.fr/1989CNAM0100.

Full text
Abstract:
L'etude qu'on presente porte sur l'analyse non lineaire de donnees. Ce type d'analyse etait jusqu'a recemment aborde de facon assez simple en transformant les variables a l'aide de fonctions indicatrices; ce qui necessite des decoupages en classes des valeurs prises par les variables et ne permet pas de tenir compte du comportement de celles-ci a l'interieur des classes. Pour remedier a ce defaut, on propose l'utilisation de fonctions splines dont le choix est renforce par leur stabilite numerique et la facilite des calculs qu'elles engendrent. Le chapitre i comporte un resume des resultats de m. Duc jacquet utilises dans la suite de la these. Le chapitre ii est consacre a l'analyse en composantes principales non lineaires avec fonctions splines. L'a. C. P. Lineaire classique apparait alors comme un cas particulier correspondant au degre zero. La formule d'inertie est aussi generalisee dans ce cadre. Le chapitre iii traite de l'a. C. P. En dimension infinie. Le recours aux espaces de sobolev vient alors naturellement. Une application de cette methode concerne l'etude du calendrier de constitution des familles (j. C. Deville) comme exemple de donnees temporelles. Le chapitre iv est relatif a la regression non lineaire et une generalisation des regressions simple et multiple est proposee. Le chapitre v concerne l'analyse canonique avec fonctions splines et l'on generalise encore la formule d'inertie expliquee par les facteurs. L'analyse des correspondances multiples lineaire classique apparait alors comme un cas particulier correspondant au degre zero des splines utilisees. Enfin au chapitre vi, on fait l'extension de l'analyse en composantes principales de variables instrumentales a l'aide de fonctions splines
APA, Harvard, Vancouver, ISO, and other styles
50

OUALI, ALLAH MOHAMED. "Analyse en preordonnances des donnees qualitatives. Applications aux donnees numeriques et symboliques." Rennes 1, 1991. http://www.theses.fr/1991REN10116.

Full text
Abstract:
Dans le domaine du traitement de l'information, quelque soit l'approche adoptee, l'objectif est le meme; extraire des connaissances explicatives ou decisionnelles a partir de donnees. Or, les parametres descriptifs qui vehiculent l'information sont souvent de type qualitatif. Dans notre approche, chaque variable qualitative est representee au moyen d'un graphe value, generant ainsi, une preordonnance quantifiee par la notion de rang moyen. Cette representation autorise non seulement le traitement de donnees heterogenes, mais elle possede en outre, la faculte d'adapter l'echelle des modalites au caractere conceptuel defini par l'expert. Cette demarche a permis dans le cadre d'un rapprochement entre l'analyse des donnees et l'apprentissage d'integrer le symbolique. Nous proposons dans ce sens, une extension des descripteurs qualitatifs aux donnees symboliques, en definissant un nouveau concept: variable a modalites non disjointes. Pour comparer deux descripteurs qualitatifs, nous considerons un coefficient d'association general, dont la normalisation, par rapport a une hypothese d'independance, est de nature combinatoire et statistique. Ce critere se presente dans sa formulation relationnelle sous une forme complexe, necessitant l'elaboration d'expressions synthetiques et denses, qui ont permis notamment, l'etude de son comportement asymptotique. Pour le calcul de la matrice des coefficients, nous utilisons les formulations contingentielles, qui ont l'avantage de reduire significativement la complexite spatiale. Le volet logiciel comprend deux programmes, un pour les donnees qualitatives, et l'autre pour les donnees symboliques. Ils ont ete appliques respectivement, a des donnees issues d'une enquete sur l'opinion publique en france, et a une base de connaissances sur les phlebotomes de la guyane francaise
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography