To see the other types of publications on this topic, follow the link: Structure - méthodes : analyse de données.

Dissertations / Theses on the topic 'Structure - méthodes : analyse de données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Structure - méthodes : analyse de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Raynaud, Jean-Louis. "Exploitation simultanée des données spatiales et fréquentielles dans l'identification modale linéaire et non-linéaire." Besançon, 1986. http://www.theses.fr/1987BESA2013.

Full text
Abstract:
Les méthodes d'identification des solutions propres des structures mécaniques utilisent principalement des techniques d'appropriation ou de lissage de fonctions de transfert. Ces méthodes sont longues et n'utilisent pas simultanément toutes les mesures faites sur la structure. Il en résulte des erreurs ou des incohérences. Les méthodes temporelles, récemment développées prennent en compte simultanément toutes les informations délivrées dans une bande de fréquence par l'ensemble des capteurs places sur la structure. Ces méthodes nécessitent le calcul par transformées de Fourier inverses des réponses fréquentielles. La méthode proposée présente les mêmes avantages mais opère directement sur les réponses fréquentielles. A partir de deux développements, on transforme les déplacements et vitesses observes en un problème généralise aux valeurs propres caractérise par deux matrices complexes singulières. La résolution de ce problème conduit aux solutions propres contenues dans la bande fréquentielle observée. Elle a été validée : -sur des structures mécaniques linéaires simples présentant plusieurs modes propres fortement couples. -sur des structures mécaniques simples faiblement non-linéaires pour tester sa sensibilité aux non-linéarités de raideurs et d'amortissements. -sur des structures industrielles. Ce travail a permis la mise au point au L. M. A. D'un logiciel d'identification
APA, Harvard, Vancouver, ISO, and other styles
2

Ilponse, Fabrice. "Analyse du bruit dû aux couplages capacitifs dans les circuits intégrés numériques fortement submicroniques." Paris 6, 2002. http://www.theses.fr/2002PA066417.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Buzmakov, Aleksey. "Analyse formelle de concepts et structures de patrons pour la fouille de données structurées." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0112/document.

Full text
Abstract:
Aujourd'hui de plus en plus de données de différents types sont accessibles. L’Analyse Formelle de Concepts (AFC) et les pattern structures sont des systèmes formels qui permettent de traiter les données ayant une structure complexe. Mais le nombre de concepts trouvé par l’AFC est fréquemment très grand. Pour faire face à ce problème, on peut simplifier la représentation des données, soit par projection de pattern structures, soit par introduction de contraintes pour sélectionner les concepts les plus pertinents. Le manuscrit commence avec l'application de l’AFC à l’exploration de structures moléculaires et la recherche de structures particulières. Avec l’augmentation de la taille des ensembles de données, de bonnes contraintes deviennent essentielles. Pour cela on explore la stabilité d'un concept et on l'applique à l’exploration d'un ensemble de données de substances chimiques mutagènes. La recherche de concepts stables dans cet ensemble de données nous a permis de trouver de nouveaux candidats mutagènes potentiels qui peuvent être interprétés par les chimistes. Cependant, pour les cas plus complexes, la représentation simple par des attributs binaires ne suffit pas. En conséquence, on se tourne vers des pattern structures qui peuvent traiter différents types de données complexes. On étend le formalisme original des projections pour avoir plus de liberté dans la manipulation de données. On montre que cette extension est essentielle pour analyser les trajectoires de patients décrivant l’historique de l’hospitalisation des patients. Finalement, le manuscrit se termine par une approche originale et très efficace qui permet de trouver directement des motifs stables
Nowadays, more and more data of different kinds is becoming available. Formal concept analysis (FCA) and pattern structures are theoretical frameworks that allow dealing with an arbitrary structured data. But the number of concepts extracted by FCA is typically huge. To deal with this problem one can either simplify the data representation, which can be done by projections of pattern structures, or by introducing constraints to select the most relevant concepts. The manuscript starts with application of FCA to mining important pieces of information from molecular structures. With the growth of dataset size good constraints begin to be essential. For that we explore stability of a concept, a well-founded formal constraint. Finding stable concepts in this dataset allows us finding new possible mutagenetic candidates that can be further interpreted by chemists. However for more complex cases, the simple attribute representation of data is not enough. Correspondingly, we turn to pattern structures that can deal with many different kinds of descriptions. We extend the original formalism of projections to have more freedom in data simplification. We show that this extension is essential for analyzing patient trajectories, describing patients hospitalization histories. Finally, the manuscript ends by an original and very efficient approach that enables to mine stable patterns directly
APA, Harvard, Vancouver, ISO, and other styles
4

Jean, Villerd. "Représentations visuelles adaptatives de connaissances associant projection multidimensionnelle (MDS) et analyse de concepts formels (FCA)." Paris, ENMP, 2008. https://pastel.archives-ouvertes.fr/pastel-00004559.

Full text
Abstract:
Les outils de recherche d'information sont confrontés à un accroissement constant à la fois du volume et du nombre de dimensions des données accessibles. La traditionnelle liste de résultats ne suffit plus. Un réel besoin en nouvelles techniques de représentation visuelle émerge. Ces nouvelles techniques doivent permettre d'appréhender de manière globale des données nombreuses et multidimensionnelles, en révélant les tendances et la structure générales. On souhaite également pouvoir observer de façon détaillée un ensemble plus restreint de données selon un certain point de vue correspondant à des dimensions particulières. Notre objectif principal est d'assister l'utilisateur dans sa tâche d'exploration de l'information par une articulation judicieuse entre vue globale et vues locales maintenant sa carte mentale. Pour atteindre cet objectif, nous allions des techniques d'analyse de données capables d'identifier des sous-ensembles pertinents, à des techniques de visualisation d'information permettant de naviguer dynamiquement et intuitivement parmi ces sous-ensembles. Une attention particulière est portée aux problèmes liés aux données manquantes, d'une part, et aux données indexées sur des dimensions mixtes (binaires, nominales, continues), d'autre part. De plus, conformément aux attentes de la communauté visualisation, nous définissons un cadre formel pour la spécification de visualisations à partir des données à représenter. Concrètement, nous proposons une méthode de navigation originale associant des techniques de FCA (Formal Concept Analysis) et de visualisation multidimensionnelle MDS (MultiDimensional Scaling). Cette méthode s'appuie sur le paradigme de visualisation « overview + detail » constitué d'une vue globale révélant la structure des données et d'une vue locale affichant les détails d'un élément de la vue globale. Nous tirons parti des propriétés de regroupement du treillis de Galois en l'utilisant comme vue globale pour représenter la structure des données et suggérer des parcours cohérents. La vue locale représente les objets en extension d'un concept sélectionné, projetés par MDS. Nous illustrons la pertinence de cette méthode sur des données concrètes, issues de nos partenariats industriels, et montrons en quoi les techniques de visualisation liées à FCA et la visualisation spatialisée de données par projection MDS, parfois jugées incompatibles, se révèlent complémentaires
Information retrieval tools are faced with the constant increase of data both in volume and in dimensionality and the traditional list of results no longer meet many applications' requirements. New visual representation techniques are needed. These new techniques have to provide an overview of large and multidimensional data sets that gives insights into the underlying trends and structures. They must also be able to represent, in detail, portions of the original data from different standpoints. The aim is to assist the user in her data exploration task by designing a shrewd link between general and local views, that maintains her mental map. In order to achieve this goal, we develop a combination of data analysis techniques that identify pertinent portions of data as well as information visualization techniques that intuitively and dynamically explore these portions of data in detail. In addition, a formalization of the visualization process is needed. We introduce a formal frame that is used to specify visualizations from data structures. Concretely, the solution proposed is an original navigation method that combines techniques from Formal Concept Analysis (FCA) and Multi-Dimensional Scaling (MDS) visualization approaches to suggest navigation paths in the data. This method is based on the "overview + detail" paradigm: One component is an overall view which summarises the underlying structure of the data. A second component is a local view showing an element of the overall view in detail. We take advantage of the classification skills of the Galois lattice by using it as the overall view that reveals the inner data structure and suggests possible navigation paths. The local view uses Multi-Dimensional Scaling to display the objects in the extent of a selected concept. We illustrate and discuss the pertinence of our method on concrete data sets, provided by our industrial partners, and show how hybridisation of FCA and traditional data visualization approaches, which have sometimes been considered distinct or incompatible, can be complementary
APA, Harvard, Vancouver, ISO, and other styles
5

Limasset, Benjamin. "Action des flavonoïdes et de leurs métabolites au cours du stress oxydant : étude des relations structure activité sur le modèle de la chimiluminescence des polymorphonucléaires et analyse des données par des méthodes multiparamétriques." Montpellier 1, 1994. http://www.theses.fr/1994MON13521.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Marchal, Antoine. "On the multiphase structure of the turbulent neutral interstellar medium." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS249.

Full text
Abstract:
La formation des étoiles dans les galaxies est intimement liée aux processus physiques qui régissent l'évolution du milieu interstellaire. Les étoiles se forment dans les nuages moléculaires par effondrement gravitationnel de structures denses et froides, mais le processus qui mène à la formation de ces surdensités est encore relativement mal compris. Un des élément clé semble être lié à l'efficacité de la formation de nuages froids d'hydrogène neutre (HI), également appelé "Cold neutral Medium" (CNM).Plusieurs études ont visé à comprendre la production du CNM par condensation du "Warm Neutral Medium" (WNM) dans un écoulement turbulent et thermiquement instable à l'aide de simulations numériques. De façon générale, ces études indiquent la présence d'une fraction significative de la masse dans le régime instable (c'est-à-dire avec une température à mi-chemin entre les états stables CNM et WNM). Cependant, les conditions thermodynamiques du gaz restent largement inexplorées du point de vue de l'observation : pour aller plus loin, et comparer réellement avec les simulations numériques, il est nécessaire de cartographier la structure de densité des colonnes de chaque phase et d'étudier les variations spatiales de leurs champs de vitesse et de dispersion des vitesses. Par nature, cela nécessite le développement de méthodes pouvant extraire ces informations de données entièrement échantillonnées spatialement: l'émission de la raie à 21 cm.Un nouvel algorithme de décomposition en Gaussiènne, appelé ROHSA, est présenté dans cette thèse. Basée sur un processus multi-résolution, et utilisant un critère de moindres carrés non-linéaires régularisés prenant en compte simultanément la cohérence spatiale de l'émission et la nature multiphase du gaz, cette méthode nous permet d'inférer une vision spatialement cohérente des phases milieu interstellaire neutre.Une analyse détaillée est ensuite présentée sur un champ à haute latitude centré sur le pôle nord écliptique. En particulier, nous apportons de nouvelles contraintes sur les propriétés thermodynamiques du WNM, ainsi que sur les propriétés statistiques de la cascade turbulente agissant dans le fluide. Enfin, nous discutons dans quelles conditions l'instabilité thermique peut se développer dans ce milieu et converger vers la phase froide du milieu interstellaire neutre, le CNM
Star formation in galaxies is strongly linked to the physical processes that govern the evolution of the interstellar medium. Stars form by gravitational collapse of dense and cold structures in molecular clouds but the process that leads to the formation of these over-densities is still unclear. One key element seems to be related to the efficiency of the formation of cold clouds of neutral hydrogen (HI) also called the Cold Neutral Medium (CNM).Several studies have aimed at understanding the production of the CNM through the condensation of the Warm Neutral Medium (WNM) in a turbulent and thermally unstable flow using numerical simulations. In general, these studies indicate the presence of a significant fraction of the mass being in the thermally unstable regime, (i.e., with a temperature mid-way between the CNM and WNM stable states). However, the thermodynamical conditions of the gas remain largely unexplored from the observational point of view.To go further, and really compare with numerical simulation that are, for now, under-constrained by observation, it is mandatory to map the column density structure of each phase and study the spatial variations of their centroid velocity and velocity dispersion. This calls for methods that can extract the information of each HI phase from fully sampled 21 cm emission data only.An original Gaussian decomposition algorithm, named ROHSA, is presented is this thesis. Based on a multi-resolution process from coarse to fine grid, and using a regularized non-linear least-square criterion to take into account simultaneously the spatial coherence of the emission and the multiphase nature of the gas, this method allows us to infer a spatially coherent vision of the three-phase neutral ISM.A detailed analysis is then presented on a high latitude HI field centred on the North Ecliptic Pole. In particular we provide new constraints on the thermodynamical properties of the WNM, and the statistical properties of the turbulent cascade acting in the fluid. Finally, we discuss under which condition the condensation mode of the thermal instability can grow in this medium and converge toward the cold phase of the neutral ISM, the CNM
APA, Harvard, Vancouver, ISO, and other styles
7

Cury, Alexandre. "Techniques d'anormalité appliquées à la surveillance de santé structurale." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00581772.

Full text
Abstract:
Le paradigme de la surveillance de santé structurale repose sur l'introduction d'indicateurs fiables et robustes permettant de détecter, localiser, quantifier et prédire un endommagement de manière précoce. En effet, la détection d'une modification structurale susceptible de devenir critique peut éviter l'occurrence de dysfonctionnements majeurs associés à des conséquences sociales, économiques et environnementales très importantes.Ces dernières années, de nombreuses recherches se fait de l'évaluation dynamique un élément de diagnostic. La plupart des méthodes reposent sur une analyse temporelle ou fréquentielle des signaux pour en extraire une information compressée au travers de quelques caractéristiques modales ou d'indicateurs évolués construits sur ces caractéristiques. Ces indicateurs ont montré leur efficacité, mais le problème de leur sensibilité, de la nécessité de disposer d'un état de référence, et de leur fiabilité en terme de la probabilité de détection et de fausses alarmes, reste entier. De plus, le fait d'utiliser des mesures dynamiques (particulièrement si plusieurs voies de mesures sont considérées) mène au stockage de grands volumes de données.Dans ce contexte, il est important d'employer des techniques permettant d'utiliser autant des données brutes que les propriétés modales de manière pratique et pertinente. Pour cela, des représentations adaptées ont été développées pour améliorer la manipulation et le stockage des données. Ces représentations sont connues sous le nom de og données symboliques fg . Elles permettent de caractériser la variabilité et l'incertitude qui entachent chacune des variables. Le développement de nouvelles méthodes d'analyse adéquates pour traiter ces données est le but de l'Analyse de Données Symboliques (ADS).L'objectif de cette thèse est double : le premier consiste à utiliser différentes méthodes couplées à l'ADS pour détecter un endommagement structural. L'idée est d'appliquer des procédures de classification non supervisée (e.g. divisions hiérarchiques, agglomérations hiérarchiques et nuées dynamiques) et supervisée (e.g., arbres de décision Bayésiens, réseaux de neurones et machines à vecteurs supports) afin de discriminer les différents états de santé d'une structure. Dans le cadre de cette thèse, l'ADS est appliquée aux mesures dynamiques acquises emph{in situ} (accélérations) et aux paramètres modaux identifiés. Le deuxième objectif est la compréhension de l'impact des effets environnementaux, notamment de ceux liés à la variation thermique, sur les paramètres modaux. Pour cela, des techniques de régression des données sont proposées.Afin d'évaluer la pertinence des démarches proposées, des études de sensibilité sont menées sur des exemples numériques et des investigations expérimentales. Il est montré que le couplage de l'ADS aux méthodes de classification de données permet de discriminer des états structuraux avec un taux de réussite élevé. Par ailleurs, la démarche proposée permet de vérifier l'importance d'utiliser des techniques permettant de corriger les propriétés modales identifiées des effets thermiques, afin de produire un processus de détection d'endommagements efficace
APA, Harvard, Vancouver, ISO, and other styles
8

Maciejewski, Michal. "Structures de l'espace des phases des halos de matière noire." Paris 6, 2008. http://www.theses.fr/2008PA066476.

Full text
Abstract:
Durant les trois dernières décennies, la cosmologie et le paradigme de la matière noire ont été étudiés grâce au développement des simulations cosmologiques à N-corps et, parallèlement, à l'acquisition de nouvelles données observationnelles impressionnantes (WMAP, SDSS, HST). Durant mon travail de thèse, j'ai étudié les structures internes des halos de matière noire des galaxies provenant des simulations numériques par une nouvelle méthode appliquée à l'espace des phases à six dimensions. Dans un premier temps, j'ai évalué différentes méthodes utilisées pour l'estimation de la densité de l'espace des phases comme la tessellation de Delaunay, les méthodes SPH et d'autres encore. En particulier, j'ai montré les avantages des analyses de la densité de l'espace des phases par rapport aux estimations de densité 3D habituelles. J'ai étudié différentes méthodes pour résoudre le problème de mise à l'echelle entre l'espace des vitesses et celui des positions comme l'emploi du critère d'entropie locale. Dans un deuxième temps, j'ai implémenté un nouveau chercheur hiérarchique de structures (HSF en anglais) multi-dimensionnel en introduisant des critères de coupe et de croissance originaux pour séparer efficacement les différentes structures dans l'espace des phases. J'ai passé en revue ses avantages et inconvénients par rapport aux algorithmes actuellement utilisés en analysant un large halo dans la Simulation Millenium. J'ai ensuite étudié les propriétés dynamiques et physiques des structures trouvées par mon algorithme. J'ai trouvé de nouvelles classes de structures tels que les queues de marée et les courants locaux, ce qui est très important dans le contexte cosmologique.
APA, Harvard, Vancouver, ISO, and other styles
9

Telle, Emmanuel. "Parallélisation du traitement de la méthode du lancer de rayons : définition d'une structure de données adaptée à une architecture de type réseau." Compiègne, 1987. http://www.theses.fr/1987COMPD077.

Full text
Abstract:
Le travail, qui s’inscrit dans le domaine de la synthèse d’images a consisté à définir une procédure qui accélère le traitement de la méthode du Lancer de Rayons. Dans un premier temps, une procédure de sélection des données a été mise en œuvre afin d’accélérer le traitement de chaque rayon dans les cas de scènes complexes. Dans un second temps, une structure de données adaptée à une architecture de type réseau dans laquelle les données de la scène sont réparties entre différents processeurs, est présentée. Cette structure de données, qui est basée sur la procédure de sélection des données, est définie de manière à ce que le traitement soit « équilibré » entre les différents processeurs du réseau et telle que le traitement de chaque rayon fasse intervenir le moins de processeurs possibles.
APA, Harvard, Vancouver, ISO, and other styles
10

El, Shabrawy Atef. "Comportement des ouvrages historiques soumis à des sollicitations sismiques : apport de la modélisation numérique par la méthode des éléments distincts." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL121N.

Full text
Abstract:
La méthode des éléments distincts est devenue l'une des méthodes de modélisation numériques les mieux adaptées à l'analyse du comportement des massifs rocheux fractures. Principalement dédiée à l'analyse des milieux discontinus, la méthode des éléments distincts est utilisée ici pour étudier le comportement d'ouvrages réalisées en maçonnerie et soumis à des sollicitations sismiques. Une méthodologie s'appuyant sur cette méthode de modélisation est donc proposée pour l'analyse de la vulnérabilité sismique des ouvrages historiques. Après avoir rappelé les fondements du génie parasismique en général, nous nous attachons a présenter de façon exhaustive les difficultés liées à l'analyse structurale des ouvrages historiques en maçonnerie et les méthodes jusqu'à maintenant employées pour réaliser ces analyses. Vient ensuite une présentation des méthodes de modélisation numérique et en particulier de la méthode des éléments distincts dont nous décrivons les principes de fonctionnement. Puis, nous expliquons comment il est possible d'utiliser cette méthode pour l'analyse structurale, en particulier dans le cas de sollicitations dynamiques, des ouvrages historiques réalisés en maçonnerie. Nous mettons notamment l'accent sur l'apport de cette méthode par rapport aux méthodes de modélisation plus traditionnelles telles que la méthode des éléments finis. Nous présentons ensuite une validation de notre approche s'appuyant sur la comparaison entre un modèle numérique simple et un modèle analytique reconnu. L’analyse systématique de cas simples telles que murs et arches, mise en rapport avec des observations réelles, nous permet ensuite de conclure à l'efficacité de la démarche et de la méthode employées. Enfin, nous présentons l'analyse dynamique de cas réels (égyptiens et grecs principalement), choisis pour leur représentativité de l'ensemble des ouvrages historiques ainsi que pour les problèmes particulier qu'ils posent
APA, Harvard, Vancouver, ISO, and other styles
11

Corus, Mathieu. "Amélioration de méthodes de modification structurale par utilisation de techniques d'expansion et de réduction de modèle." Phd thesis, Ecole Centrale Paris, 2003. http://tel.archives-ouvertes.fr/tel-00011298.

Full text
Abstract:
Les méthodes de modification structurale sont l'ensemble des techniques qui permettent d'estimer l'influence d'une modification quelconque sur le comportement dynamique d'une structure. Dans le cadre général, le modèle de comportement de la structure cible, comme celui de la modification, peut être aussi bien numérique qu'expérimental. Dans le cadre de ce travail, seul le cas particulier du couplage d'un modèle expérimental de la structure et d'un modèle numérique de la modification sera traité.
Les concepts fondamentaux utilisés dans cette thèse sont ensuite présentés. Les relations de la dynamique des structures pour les problèmes discrets sont rappelées, ainsi que les principes de la synthèse modale, de la sous-structuration dynamique et de la réduction de modèle, tout comme la notion de modes d'interface. Les formulations classiques des méthodes de modification structurale sont ensuite détaillées pour en illustrer les limitations et les restrictions.
Une formulation originale permettant de prendre en compte les incompatibilités entre les mesures et les DDL de l'interface structure/modification et de régulariser la construction d'un modèle de comportement couplé est alors proposée. Cette première contribution de la thèse repose sur l'utilisation des techniques d'expansion de données et de réduction de modèle. Des indicateurs sont également construits pour estimer la cohérence de la prédiction réalisée. Les évolutions sont appliquées au cas d'un démonstrateur numériques et les résultats sont comparés avec les prédictions réalisées par les méthodes classiques. La méthodologie associée à cette nouvelle formulation est alors largement exposée.
L'influence des différents facteurs intervenant dans la construction du modèle couplé et la qualité de la prédiction est ensuite analysée en détail. Cette analyse permet de dresser une liste non exhaustive des précautions à prendre lors de la mise en œuvre de la méthode proposée, depuis la réalisation pratique de l'analyse modale expérimentale jusqu'à l'interprétation des premiers résultats.
Enfin, plusieurs applications sont présentées. Une première structure académique démontre la faisabilité de la méthode. Une deuxième étude, réalisée sur un cas industriel, illustre les gains de temps potentiels en comparant la prédiction avec les résultats d'une étude basée sur un modèle EF recalé de la structure. La troisième étude illustre l'application de la méthode dans un cas type. L'analyse modale de la structure cible permet de comprendre le problème, une modification est conçue, réalisée et mise en place. La prédiction est ensuite comparée aux résultats de l'analyse modale de la structure modifiée. Enfin, la dernière application montre les limites de la méthodologie. L'étude multi-objectifs sur une large bande de fréquences d'une structure industrielle permet de faire une ouverture vers la suite des travaux et montre la nature des difficultés à surmonter.
APA, Harvard, Vancouver, ISO, and other styles
12

Bertoglio, Cristobal. "Problèmes Directs et Inverses en Interaction Fluide-Structure. Application à l'hémodynamique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00768188.

Full text
Abstract:
Dans cette thèse nous traitons de la simulation d'interaction fluide- structure (FSI) dans les problèmes en hémodynamique, en mettant l'accent sur l'assimilation de données et sur la simulation dans les conditions physiologiques. La première partie présente et analyse un schéma de couplage semi-implicite des équations de Navier-Stokes (NSE) et d'un modèle de conditions aux limites réduit, lorsque les NSE sont résolues avec une méthode de projection. Cela permet de simuler des problèmes de mécanique de fluides et de FSI de fac ̧on plus robuste, c'est à dire en évitant les possibles instabilités associées à des cas-tests réalistes. La deuxième partie est consacrée à l'assimilation des données avec des méthodes séquentielles en FSI. Nous présentons d'abord une étude sur l'application d'un fil- tre de Kalman réduit pour l'estimation efficace des paramètres physiques d'intérêt, comme la distribution de la rigidité de la paroi de l'artère et la résistance proximale dans le fluide, à partir des mesures de deplacement à l'interface fluide-structure. Ensuite, nous analysons certains observateurs de Luenberger utilisés pour la mé- canique des solides en FSI, dans le but de construire des estimateurs d'état efficaces pour des problèmes FSI de grande taille. Dans la troisième et dernière partie, nous appliquons les méthodologies mention- nées ci-dessus aux problèmes physiques réels. Tout d'abord, la rigidité de la paroi est estimée (pour des modèles solides linéaires et non linéaires) à partir de données provenant d'un tube de silicone simulant une aorte. Pour finir, nous analysons une aorte réelle avec une coarctation réparée, nous testons les techniques d'estimation avec des données synthétiques et nous montrons quelques résultats obtenues à partir de données issues du patient.
APA, Harvard, Vancouver, ISO, and other styles
13

Kodi, Ramanah Doogesh. "Bayesian statistical inference and deep learning for primordial cosmology and cosmic acceleration." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS169.

Full text
Abstract:
Cette thèse a pour vocation le développement et l’application de nouvelles techniques d’inférence statistique bayésienne et d’apprentissage profond pour relever les défis statistiques imposés par les gros volumes de données complexes des missions du fond diffus cosmologique (CMB) ou des relevés profonds de galaxies de la prochaine génération, dans le but d'optimiser l’exploitation des données scientifiques afin d’améliorer, à terme, notre compréhension de l’Univers. La première partie de cette thèse concerne l'extraction des modes E et B du signal de polarisation du CMB à partir des données. Nous avons développé une méthode hiérarchique à haute performance, nommée algorithme du dual messenger, pour la reconstruction du champ de spin sur la sphère et nous avons démontré les capacités de cet algorithme à reconstruire des cartes E et B pures, tout en tenant compte des modèles de bruit réalistes. La seconde partie porte sur le développement d’un cadre d'inférence bayésienne pour contraindre les paramètres cosmologiques en s’appuyant sur une nouvelle implémentation du test géométrique d'Alcock-Paczyński et nous avons présenté nos contraintes cosmologiques sur la densité de matière et l'équation d'état de l'énergie sombre. Etant donné que le contrôle des effets systématiques est un facteur crucial, nous avons également présenté une fonction de vraisemblance robuste, qui résiste aux contaminations inconnues liées aux avant-plans. Finalement, dans le but de construire des émulateurs de dynamiques complexes dans notre modèle, nous avons conçu un nouveau réseau de neurones qui apprend à peindre des distributions de halo sur des champs approximatifs de matière noire en 3D
The essence of this doctoral research constitutes the development and application of novel Bayesian statistical inference and deep learning techniques to meet statistical challenges of massive and complex data sets from next-generation cosmic microwave background (CMB) missions or galaxy surveys and optimize their scientific returns to ultimately improve our understanding of the Universe. The first theme deals with the extraction of the E and B modes of the CMB polarization signal from the data. We have developed a high-performance hierarchical method, known as the dual messenger algorithm, for spin field reconstruction on the sphere and demonstrated its capabilities in reconstructing pure E and B maps, while accounting for complex and realistic noise models. The second theme lies in the development of various aspects of Bayesian forward modelling machinery for optimal exploitation of state-of-the-art galaxy redshift surveys. We have developed a large-scale Bayesian inference framework to constrain cosmological parameters via a novel implementation of the Alcock-Paczyński test and showcased our cosmological constraints on the matter density and dark energy equation of state. With the control of systematic effects being a crucial limiting factor for modern galaxy redshift surveys, we also presented an augmented likelihood which is robust to unknown foreground and target contaminations. Finally, with a view to building fast complex dynamics emulators in our above Bayesian hierarchical model, we have designed a novel halo painting network that learns to map approximate 3D dark matter fields to realistic halo distributions
APA, Harvard, Vancouver, ISO, and other styles
14

Tami, Myriam. "Approche EM pour modèles multi-blocs à facteurs à une équation structurelle." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT303/document.

Full text
Abstract:
Les modèles d'équations structurelles à variables latentes permettent de modéliser des relations entre des variables observables et non observables. Les deux paradigmes actuels d'estimation de ces modèles sont les méthodes de moindres carrés partiels sur composantes et l'analyse de la structure de covariance. Dans ce travail, après avoir décrit les deux principales méthodes d'estimation que sont PLS et LISREL, nous proposons une approche d'estimation fondée sur la maximisation par algorithme EM de la vraisemblance globale d'un modèle à facteurs latents et à une équation structurelle. Nous en étudions les performances sur des données simulées et nous montrons, via une application sur des données réelles environnementales, comment construire pratiquement un modèle et en évaluer la qualité. Enfin, nous appliquons l'approche développée dans le contexte d'un essai clinique en cancérologie pour l'étude de données longitudinales de qualité de vie. Nous montrons que par la réduction efficace de la dimension des données, l'approche EM simplifie l'analyse longitudinale de la qualité de vie en évitant les tests multiples. Ainsi, elle contribue à faciliter l'évaluation du bénéfice clinique d'un traitement
Structural equation models enable the modeling of interactions between observed variables and latent ones. The two leading estimation methods are partial least squares on components and covariance-structure analysis. In this work, we first describe the PLS and LISREL methods and, then, we propose an estimation method using the EM algorithm in order to maximize the likelihood of a structural equation model with latent factors. Through a simulation study, we investigate how fast and accurate the method is, and thanks to an application to real environmental data, we show how one can handly construct a model or evaluate its quality. Finally, in the context of oncology, we apply the EM approach on health-related quality-of-life data. We show that it simplifies the longitudinal analysis of quality-of-life and helps evaluating the clinical benefit of a treatment
APA, Harvard, Vancouver, ISO, and other styles
15

Carvalho, Francisco de. "Méthodes descriptives en analyse de données symboliques." Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090025.

Full text
Abstract:
L'analyse des données symboliques se propose d'étendre la problématique, les méthodes et les algorithmes de l'analyse des données au traitement de connaissances souvent complexes, représentées par les objets symboliques. Dans ce cadre, nous étendons des outils de description couramment utilisés en analyse des données, tels que des histogrammes et des indices de proximité, à la description d'une base de connaissances d'objets symboliques. A partir de l'étude du potentiel de description d'un objet symbolique, nous avons étendu la notion d'histogramme aux variables choisies pour décrire une base de connaissances d'objets symboliques. Nous avons constaté l'importance de certains types de dépendance logique entre les variables sur les résultats obtenus. Nous avons également étudié l'interprétation de ces histogrammes. Pour mesurer la proximité entre les objets symboliques nous avons pu, sous l'angle du potentiel de description, adapter à ces objets les indices de proximité conçus pour les variables binaires, ainsi que l'indice de Minkowski. Cette approche nous a permis d'utiliser la même mesure de proximité indépendamment du type de variable. Nous avons étudié quelques propriétés des indices proposés et nous avons pu établir l'équivalence entre quelques-uns de ces indices. Ces indices tiennent compte des dépendances logiques entre variables. Enfin, nous avons adapté l'algorithme général de classification ascendante hiérarchique pour obtenir une classification d'objets symboliques. Par rapport aux méthodes usuelles de l'analyse des données, nous obtenons une description immédiate de chaque palier par un objet symbolique, nous avons un indice d'agrégation qui est le même aussi bien pour les singletons que pour les paliers, et nous employons un indicage basé sur le potentiel de description de l'objet symbolique décrivant le palier. Nous fournissons aussi une aide à l'interprétation de l'arbre de classification basée sur la re-description des fils de chaque nœud de l'arbre par les variables qui les discriminent
APA, Harvard, Vancouver, ISO, and other styles
16

Belghiti, Moulay Tayeb. "Modélisation et techniques d'optimisation en bio-informatique et fouille de données." Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0002.

Full text
Abstract:
Cette thèse est particulièrement destinée à traiter deux types de problèmes : clustering et l'alignement multiple de séquence. Notre objectif est de résoudre de manière satisfaisante ces problèmes globaux et de tester l'approche de la Programmation DC et DCA sur des jeux de données réelles. La thèse comporte trois parties : la première partie est consacrée aux nouvelles approches de l'optimisation non convexe. Nous y présentons une étude en profondeur de l'algorithme qui est utilisé dans cette thèse, à savoir la programmation DC et l'algorithme DC (DCA). Dans la deuxième partie, nous allons modéliser le problème clustering en trois sous-problèmes non convexes. Les deux premiers sous-problèmes se distinguent par rapport au choix de la norme utilisée, (clustering via les normes 1 et 2). Le troisième sous-problème utilise la méthode du noyau, (clustering via la méthode du noyau). La troisième partie sera consacrée à la bio-informatique. On va se focaliser sur la modélisation et la résolution de deux sous-problèmes : l'alignement multiple de séquence et l'alignement de séquence d'ARN par structure. Tous les chapitres excepté le premier se terminent par des tests numériques
This Ph.D. thesis is particularly intended to treat two types of problems : clustering and the multiple alignment of sequence. Our objective is to solve efficiently these global problems and to test DC Programming approach and DCA on real datasets. The thesis is divided into three parts : the first part is devoted to the new approaches of nonconvex optimization-global optimization. We present it a study in depth of the algorithm which is used in this thesis, namely the programming DC and the algorithm DC ( DCA). In the second part, we will model the problem clustering in three nonconvex subproblems. The first two subproblems are distinguished compared to the choice from the norm used, (clustering via norm 1 and 2). The third subproblem uses the method of the kernel, (clustering via the method of the kernel). The third part will be devoted to bioinformatics, one goes this focused on the modeling and the resolution of two subproblems : the multiple alignment of sequence and the alignment of sequence of RNA. All the chapters except the first end in numerical tests
APA, Harvard, Vancouver, ISO, and other styles
17

Lazar, Cosmin. "Méthodes non supervisées pour l’analyse des données multivariées." Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000846.pdf.

Full text
Abstract:
Tous les domaines de la science nécessitent d’analyser des données qu’il s’agisse des sciences humaines ou des sciences exactes et naturelles. Ces données peuvent être de nature différente et dans des nombreuses situations elles représentent plusieurs enregistrements du même phénomène physique, elles sont regroupées dans des bases des données multivariées que l’on cherche à interpréter. Leur interprétation requiert la connaissance du domaine d’application qui sert de guide afin d’extraire l’information utile pour la compréhension des phénomènes étudiés. Une étape essentielle dans ce processus est le regroupement des données ayant des caractéristiques similaires dans des classes ; cette étape est appelée classification non supervisée (ou automatique) ou clustering. Concernant ce domaine d’analyse, des questions restent ouvertes comme la dimension intrinsèque et la réduction de dimension des données multivariées, le choix de la mesure de similarité ou la validation du nombre de classes. Ce travail apporte des contributions aux deux questions précédentes : le choix de la mesure de similarité pour la classification non supervisée et la réduction de dimension de données multivariées. Le phénomène de concentration des métriques est étudié et la pertinence de métriques non euclidiennes comme mesure de similarité dans de problèmes de classification est testée. Des indices prenant en compte la distance interclasse sont proposés pour choisir la métrique optimale si les classes sont gaussiennes. Les méthodes de séparation aveugle de sources sont étudiées dans le contexte de la réduction de dimension ; une méthode de SAS basée sur une interprétation géométrique du modèle de mélange linéaire est proposée. Des méthodes de SAS prenant en compte les contraintes des applications sont utilisées pour la réduction de dimension dans deux applications en imagerie multivariée. Celles-ci permettent la mise en évidence de facteurs physiquement interprétables ainsi que la réduction de la complexité des algorithmes de classification utilisés pour l’analyse. Les travaux sont illustrés sur deux applications sur des données réelles
Many scientific disciplines deal with multivariate data. Different recordings of the same phenomenon are usually embedded in a multivariate data set. Multivariate data analysis gathers efficient tools for extracting relevant information in order to comprehend the phenomenon in study. Gathering data into groups or classes according to some similarity criteria is an essential step in the analysis. Intrinsic dimension or dimension reduction of multivariate data, the choice of the similarity criterion, cluster validation are problems which still let open questions. This work tries to make a step further concerning two of the problems mentioned above: the choice of the similarity measure for data clustering and the dimension reduction of multivariate data. The choice of the similarity measure for data clustering is investigated from the concentration phenomenon of metrics point of view. Non Euclidean metrics are tested as alternative to the classical Euclidian distance as similarity measure. We tested if less concentrated metrics are more discriminative for multivariate data clustering. We also proposed indices which take into account the inter-classes distance (e. G. Davies-Bouldin index) in order to find the optimal metric when the classes are supposed to be Gaussian. Blind Source Separation (BSS) methods are also investigated for dimension reduction of multivariate data. A BSS method based on a geometrical interpretation of the linear mixing model is proposed. BSS methods which take into account application constraints are used for dimension reduction in two different applications of multivariate imaging. These methods allow the extraction of meaningful factors from the whole data set; they also allow reducing the complexity and the computing time of the clustering algorithms which are used further in analysis. Applications on multivariate image analysis are also presented
APA, Harvard, Vancouver, ISO, and other styles
18

Tang, Ahanda Barnabé. "Extension des méthodes d'analyse factorielle sur des données symboliques." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090047.

Full text
Abstract:
Le but de ce travail est d'étendre les méthodes classiques d'analyse factorielle (ACP, AFC, AFM) a un tableau de données symboliques (TDS). Dans ce tableau, l'élément numérique habituel du modèle tabulaire classique est remplacé par une application mesurable. Ce modèle introduit une définition naturelle d'un individu par un objet assertion Diday, 95. Dans une première partie, nous améliorons l'algorithme d'ACP sur un tableau de données intervalles dans trois directions. D'une part, on propose une ACP duale en introduisant la notion d'assertion de variable par une lecture en colonne du TDS. Ensuite nous présentons plusieurs aides à l'interprétation que nécessitent cette nouvelle approche. Enfin, nous généralisons l'algorithme au cas de l'AFM, si l'on suppose les données structurées en groupes. La deuxième partie de cette thèse est consacrée à l'extension de l'analyse des correspondances. Dans le cas où on ne considère que la variation, on présente une correspondance entre deux variables dans le cas où la base de données comporte deux descripteurs, puis dans un cas plus général. Cette correspondance tient compte de la mesure associée à l'espace de description. Les divers thèmes de cette thèse sont illustrés par des applications sur des données réelles ou simulées.
APA, Harvard, Vancouver, ISO, and other styles
19

Royer, Jean-Jacques. "Analyse multivariable et filtrage des données régionalisées." Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10312.

Full text
Abstract:
Ce travail est consacré à l'analyse multivariable et au filtrage des données régionalisées. On définit un indice de proximité entre échantillons. Une technique de filtrage basée sur l'analyse structurale, la déconvolution géostatistique, a été utilisée pour estimer la fonction de transfert ou identifier le signal de sortie. Le principe de la méthode repose sur le calcul au préalable des fonctions de covariance des signaux d'entrée et de sortie. Par ailleurs une relation théorique reliant la matrice de covariance des erreurs à la granulométrie du milieu étudié est démontrée
APA, Harvard, Vancouver, ISO, and other styles
20

Tu, Xiao-Wei. "Détection et estimation des objets mobiles dans une séquence d'images." Compiègne, 1987. http://www.theses.fr/1987COMPD063.

Full text
Abstract:
Une méthodologie d’analyse d’une séquence d’images, contenant des objets relativement simples tels que des polyédres mobiles (Blocs), est présentée. Pourquoi les objets polyédriques ? Simplement, parce qu’une scène assez complexe peut être décrite par un ensemble de blocs et qu’un site naturel peut être décomposé en objet approximativement polyédriques. En ce qui concerne les algorithmes de traitements, on sait que les primitives associées aux blocs sont très faciles à extraire (notion de segments de droites, notion d’aire d’une forme polygonale et notion de contour ou de frontière de l’objet). Cette méthodologie permet de détecter des objets mobiles et éventuellement d’estimer les paramètres du mouvement ou de l’objet en mouvement. L’approche générale comporte quatre étapes : la première consiste à appliquer des opérations linéaires et non-linéaires sur les images acquises (par une caméra de type CCD), afin d’éliminer le bruit et d’obtenir des images plus contrastées. Ensuite, le renforcement de contours ayant été effectué par une méthode de relaxation, on applique des procédures de détection, de suivi et de codage de contours qui débouchent sur l’extraction de primitives (segments de droites, angles,. . . ). Parallèlement, un système de contours d’image 3-D est réalisé pour tester le comportement des algorithmes. La deuxième étape permet de construire une structure de données de type « multilistes », déduite des éléments significatifs correspondant aux primitives détectées dans la première étape. Cette structure est bien adaptée à une mise en correspondance ultérieure des primitives. La segmentation est généralement effectuée selon une approche descendante par création d’une structure de donnée « quadtree » qui permet de compléter l’information de la scène. Dans la troisième étape, on effectue la mise en correspondance par une méthode de relaxation discrète, des éléments des structures précédemment construite. A la dernière étape, les primitives, plus précisément les pixels mis en correspondance, sont choisis et utilisés pour estimer les paramètres de mouvement des objets considérés. Des essais expérimentaux effectués sur chaque étape donnent des résultats satisfaisants. Il semble donc que cette démarche soit intéressante.
APA, Harvard, Vancouver, ISO, and other styles
21

Aboa, Yapo Jean-Pascal. "Méthodes de segmentation sur un tableau de variables aléatoires." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Bar, Romain. "Développement de méthodes d'analyse de données en ligne." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00943148.

Full text
Abstract:
On suppose que des vecteurs de données de grande dimension arrivant en ligne sont des observations indépendantes d'un vecteur aléatoire. Dans le second chapitre, ce dernier, noté Z, est partitionné en deux vecteurs R et S et les observations sont supposées identiquement distribuées. On définit alors une méthode récursive d'estimation séquentielle des r premiers facteurs de l'ACP projetée de R par rapport à S. On étudie ensuite le cas particulier de l'analyse canonique, puis de l'analyse factorielle discriminante et enfin de l'analyse factorielle des correspondances. Dans chacun de ces cas, on définit plusieurs processus spécifiques à l'analyse envisagée. Dans le troisième chapitre, on suppose que l'espérance θn du vecteur aléatoire Zn dont sont issues les observations varie dans le temps. On note Zn_tilde = Zn − θn et on suppose que les vecteurs Zn_tilde forment un échantillon indépendant et identiquement distribué d'un vecteur aléatoire Z_tilde. On définit plusieurs processus d'approximation stochastique pour estimer des vecteurs directeurs des axes principaux d'une analyse en composantes principales (ACP) partielle de Z_tilde. On applique ensuite ce résultat au cas particulier de l'analyse canonique généralisée (ACG) partielle après avoir défini un processus d'approximation stochastique de type Robbins-Monro de l'inverse d'une matrice de covariance. Dans le quatrième chapitre, on considère le cas où à la fois l'espérance et la matrice de covariance de Zn varient dans le temps. On donne finalement des résultats de simulation dans le chapitre 5.
APA, Harvard, Vancouver, ISO, and other styles
23

Jeria, Caceres Maria. "Représentations simultanées en analyse de données structurées : étude de diverses solutions." Paris, EHESS, 1994. http://www.theses.fr/1994EHES0059.

Full text
Abstract:
Cette these trouve sa problematique autour des methodes d'analyse statistique de donnees structurees en sciences sociale s. Elle detaille l'etude de tableaux binaires carres et ternaires cubiques non symetriques afin de passer en revue les differentes representations de profils ligne et colonne dans un meme espace. Dans ces analyses une place de choix est faite aux methodes francaises d'analyse de donnees. Une comparaison est faite avec la methode anglo-saxonne mds, employee dans des cas semblables. On procede egalement a la comparaison de modeles log-lineaires et lineaires. Ces comparaisons s'appuient sur une methode unique d'interpretation a posteriori des analyses. En effet, methodes francaises et anglo-saxonnes produisent in fine une representation geometrique dans le cadre euclidien dont l'interpreta tion se fait en termes de distances beneficiant ainsi des resultats mis en oeuvre par le gmp autour du langage d'interrogation des donnees. Ainsi, une demande fait l'objet d'une exploration visuelle detaillee des donnees en parallele de tous les calculs de contributions et d'importance des effets. Cette methode est utilisee ici dans l'exploration des donnees, aussi bien que comme outil de comparaison des methodes
This dissertation deals with methods of structured data analysis in social sciences. It examines in detail non-symmetric binary square and ternary cubic tables in order to review the different representations of lines and collumns profiles in a same space. In those analyses a proeminent place is given to the french methods of data analysis. A comparison is made with mds, used by anglo-saxons in similar cases. We also compare the log-linear and linear models on a sociological set of secondary data. All those comparisons are based on a same single posterior method of interpretation. Both french and anglo-saxon methods produce geometric representations in a a euclidean framework whose interpretation is made in terms of distances along the line of research developed by the group mathematics and psychology around the language for interrogating data. Thus a request of this language generates a detailed visual exploration of the data in parallel with calculations of contributions and importances of effects (analysis of variance is here used as a post-factorial method). This strategy is used here not only for data exploration but also as a tool for comparing methods
APA, Harvard, Vancouver, ISO, and other styles
24

Afonso, Filipe. "Méthodes prédictives par extraction de règles en présence de données symboliques." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090067.

Full text
Abstract:
Nous commençons par étendre la régression linéaire aux cas des variables symboliques intervalles, diagrammes, histogrammes, taxonomiques et hiérarchiques. Dans un deuxième temps, les travaux étendent les règles d'association aux cas des données symboliques diagrammes, intervalles, hiérarchiques et taxonomiques. La méthode proposée nous permet de découvrir des règles d'association au niveau des concepts. Notamment, plutôt que d'extraire des règles d'association entre différents articles du panier de la ménagère comme dans le cas classique, nous extrayons des règles d'association au niveau des clients afin d'étudier leurs comportements d'achat. L'algorithme Apriori d'extraction des règles d'association est étendu à ses données symboliques. La régression linéaire symbolique est, alors, utilisée pour étudier la qualité des règles d'association symboliques découvertes et pour les sélectionner. Nous proposons, ensuite, un support mathématique pour les règles d'association découvertes à l'aide de la théorie des treillis de Galois
We first extend linear regression methods to the case of interval, diagram, histogram, taxonomical and hierarchical variables. Second, association rules are extended to the case of interval, diagram, taxonomical and hierarchical variables. We will be able to discover rules at the level of the concepts thanks to these methods. For example, instead of mining rules between different items of some transactions recorded in a retail organization like in the classical case, we discover rules at the level of the customers in order to study their purchase behavior. The Apriori algorithm for the extraction of association rules is extended to these symbolic data. The symbolic linear regression is, then, used in order to study and select the symbolic association rules. Afterwards, we give a mathematical support to these association rules using Galois lattices theory
APA, Harvard, Vancouver, ISO, and other styles
25

Betta, Mohammed. "Les données évolutives et le décalage : l'analyse statique et l'analyse dynamique." Rennes 2, 1995. http://www.theses.fr/1995REN20010.

Full text
Abstract:
L'objet de cette thèse est l'analyse des tableaux de donnes à trois indices (voies). On s'intéresse particulièrement à l'analyse de telles données dans le cas ou le troisième indice désigne le temps. Dans la première partie de ce travail, nous présentons quelques unes des méthodes d'analyse des données ternaires. Nous consacrons un chapitre à celles qui intègrent dans leurs approches une structure de contiguïté quelconque. Dans la deuxième partie, nous proposons et développons une nouvelle méthode d'analyse de données évolutives sous contrainte de continuité temporelle. Cette méthode est élaborée en deux étapes indépendantes et complémentaires. Elle est caractérisée par la prise en compte de la structure d'ordre du facteur temps. Nous introduisons et justifions, dans la première étape, la notion de matrice de décalage à gauche ou à droite sur les données. Cette nouvelle notion nous permet de définir une famille d'indices de similarités sur l'ensemble des tableaux "individuels" fournissant ainsi une typologie des individus. C'est ce que l'on appelle analyse statique. Dans la deuxième étape, nous suggérons un nouveau critère qui permet de déterminer le sous-espace de représentation des "parcours individuels" à l'aide des trajectoires. Ce critère est aussi défini de manière à tenir compte de la structure d'ordre du temps, autrement dit la contiguïté temporelle. C'est l'analyse dynamique. Nous concluons cette thèse par le traitement de deux exemples de données évolutives avec notre approche d'une part, et la méthode Statis d'autre part. Enfin, une comparaison des résultats des deux méthodes est proposée
The objective of this thesis is to analyse three index data tables. We are especially interested in the analysis of these data in the case where the third index indicates time. In the first part of this study, we present some of methods used for anlysing three way data. One chapter will be given over to all those that incorporate contiguity structure in their approach. In the second part, we develop a new method of evolutive data analysis under a temporal contiguity constraint. This method is elaborated in two indepedent and complementary steps. First, we introduce the notion of an interval matrix on the left or the right which is used to define a group of similarity indices on individual tables. This is known as static analysis in the second stage, we suggest a new critiria which allows us to determine the subspace where trajectories are represented. This critiria is also defined taking the order structure of time into considerations. We call this dynamic analysis. This thesis concludes by anamysing two examples of evolutive data using two methods, the one we developed and the statis method. A comparison of the obtained results using the two methods is given
APA, Harvard, Vancouver, ISO, and other styles
26

Gu, Co Weila Vila. "Méthodes statistiques et informatiques pour le traitement des données manquantes." Phd thesis, Conservatoire national des arts et metiers - CNAM, 1997. http://tel.archives-ouvertes.fr/tel-00808585.

Full text
Abstract:
Cette thèse est consacrée au traitement des données manquantes. Des méthodes descriptives (analyse en composantes principales, analyse des correspondances dont analyse homogène et la classification automatique) sont étudiées dans le cadre des données incomplètes. La seconde partie est consacrée à des problèmes de fusion de fichiers et analyses homogène y est introduite.
APA, Harvard, Vancouver, ISO, and other styles
27

Khamlichi, Jamal. "Modélisation de déformations d'images tridimensionnelles : application aux structures de données de visages." La Rochelle, 1995. http://www.theses.fr/1995LAROS002.

Full text
Abstract:
Nous adoptons d'abord un point de vue descriptif et présentons une étude théorique de la modélisation des déformations. En particulier l'application de l'analyse modale à la synthèse de visages 3D. Une nouvelle méthode de maillage a été développée en vue de calculs de déformations adaptés à notre problématique. Elle consiste à mailler les visages avec des pentagones et des hexagones. Le modèle permet de définir des classes et des variantes de visages. Les classes sont discriminées par une mesure de déformation. On voit deux applications potentielles à ce travail. L’une dans le domaine des bases de données de visages, avec prise en compte des spécificités du modèle théorique. L’autre dans le domaine des sciences cognitives où l'on confronterait les mesures objectives du modèle théorique aux mesures subjectives déduites de l'observation des visages.
APA, Harvard, Vancouver, ISO, and other styles
28

Sabatier, Robert. "Méthodes factorielles en analyse des données : approximation et prise en compte de variables concomitantes." Montpellier 2, 1987. http://www.theses.fr/1987MON20256.

Full text
Abstract:
On demontre un theoreme d'approximation general pour une application lineaire dans les espaces vectoriels euclidiens de dimension finie. Applique a l'analyse factorielle, on en deduit de nouvelles methodes permettant la prise en compte d'une structure sur les unites statistiques. Les structures envisagees sont de type factoriel, temporel ou de graphe
APA, Harvard, Vancouver, ISO, and other styles
29

Rigouste, Loïs. "Méthodes probabilistes pour l'analyse exploratoire de données textuelles." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002424.

Full text
Abstract:
Nous abordons le problème de la classification non supervisée de documents par des méthodes probabilistes. Notre étude se concentre sur le modèle de mélange de lois multinomiales avec variables latentes thématiques au niveau des documents. La construction de groupes de documents thématiquement homogènes est une des technologies de base de la fouille de texte, et trouve de multiples applications, aussi bien en recherche documentaire qu'en catégorisation de documents, ou encore pour le suivi de thèmes et la construction de résumés. Diverses propositions récentes ont été faites de modèles probabilistes permettant de déterminer de tels regroupements. Les modèles de classification probabilistes peuvent également être vus comme des outils de construction de représentations numériques synthétiques d'informations contenues dans le document. Ces modèles, qui offrent des facilités pour la généralisation et l'interprétation des résultats, posent toutefois des problèmes d'estimation difficiles, dûs en particulier à la très grande dimensionnalité du vocabulaire. Notre contribution à cette famille de travaux est double: nous présentons d'une part plusieurs algorithmes d'inférence, certains originaux, pour l'estimation du modèle de mélange de multinomiales; nous présentons également une étude systématique des performances de ces algorithmes, fournissant ainsi de nouveaux outils méthodologiques pour mesurer les performances des outils de classification non supervisée. Les bons résultats obtenus par rapport à d'autres algorithmes classiques illustrent, à notre avis, la pertinence de ce modèle de mélange simple pour les corpus regroupant essentiellement des documents monothématiques.
APA, Harvard, Vancouver, ISO, and other styles
30

Guedj, Mickaël. "Méthodes Statistiques pour l’analyse de données génétiques d’association à grande échelle." Evry-Val d'Essonne, 2007. http://www.biblio.univ-evry.fr/theses/2007/2007EVRY0015.pdf.

Full text
Abstract:
Les avancées en Biologie Moléculaire ont accéléré le développement de techniques de génotypage haut-débit et ainsi permis le lancement des premières études génétiques d'association à grande échelle. La dimension et la complexité des données issues de ce nouveau type d'étude posent aujourd'hui de nouvelles perspectives statistiques et informatiques nécessaires à leur analyse, constituant le principal axe de recherche de cette thèse. Après une description introductive des principales problématiques liées aux études d'association à grande échelle, nous abordons plus particulièrement les approches simple-marqueur avec une étude de puissance des principaux test d’association, les approches multi-marqueurs avec le développement d’une méthode fondée sur la statistique du Score Local, et enfin le problème du test-multiple avec l'estimation du Local False Discovery Rate à travers un simple modèle de mélange gaussien
The increasing availability of dense Single Nucleotide Polymorphisms (SNPs) maps due to rapid improvements in Molecular Biology and genotyping technologies have recently led geneticists towards genome-wide association studies with hopes of encouraging results concerning our understanding of the genetic basis of complex diseases. The analysis of such high-throughput data implies today new statistical and computational problematic to face, which constitute the main topic of this thesis. After a brief description of the main questions raised by genome-wide association studies, we deal with single-marker approaches by a power study of the main association tests. We consider then the use of multi-markers approaches by focusing on the method we developed which relies on the Local Score. Finally, this thesis also deals with the multiple-testing problem: our Local Score-based approach circumvents this problem by reducing the number of tests; in parallel, we present an estimation of the Local False Discovery Rate by a simple Gaussian mixed model
APA, Harvard, Vancouver, ISO, and other styles
31

Machmouchi, Mouzid. "Contributions à la mise en oeuvre des méthodes d'analyse des données de dissimilarité." Grenoble 2, 1992. http://www.theses.fr/1992GRE21025.

Full text
Abstract:
Ce travail presente une etude comparative d'un ensemble de methodes de resolution du probleme de codage multidimensionnel (multidimensionel scaline ou mds dans la litterature en langue anglaise), et propose de nouvelles methodes et de nouvelles strategies de resolution. En premier lieu, nous presentons plusieurs methodes fondees sur l'optimisation de la fonction stress due a kruskal. Le developpement de ces methodes , pose d'importants problemes de mise en oeuvre, provenant de la necessite d'optimiser des fonctions non convexes non differentiables en tout point. Nous proposons ensuite un algorithme, fonde sur l'iteration alternee de deux phases. La premiere resout un probleme de programmation non differentiable par l'introduction d'un pas heuristique propose par kruskal. La deuxieme phase resout un probleme de regression. Nous montrons ensuite qu'en adaptant les methodes de recuit simule a ce probleme, nous ameliorons la qualite numerique des solutions, nous proposons une strategie efficace de sortie des situations d'optima locaux posees par l'utilisation des methodes classiques d'optimisation et trouvons surtout une demarche qui resout de facon elegante les problemes poses dans le passe par la necessite d'activer les algorithmes actuels de mds a partir de plusieurs configurations initiales suffisamment distinctes. Puis, nous suggerons une nouvelle serie de resolution du probleme de mds par la mise en oeuvre de l'algorithme s. E. M. Scal
This work presents a comparative study of several methods for resolving problem of multidimensional scaling (mds), and proposes new methods and new solving strategies. First, we present many methods based on the optimisation of the function kruskal stress. The development of these methods shows important problems due to the necessity of the optimisation of no convex and no differentiable functions. Next, we propose an algorithm based on the two phases alternate iteration. The first one solves a no differentiable programmation problem by introducing an heuristic step proposed by. Kruskal. The second phase solves a regression problem. Then, we prove by using simulated annealing methods that we improve the numerate quality of solutions, we propose an efficace strategy to exit from situations of local optimates, and we find especially a way to solve elegantly past problems caused by the necessity to activate present mds algorithms from many initial configurations sufficiently distinct. Then, we suggest a new resolving strategy of mds problem with the creation of algorithm s. E. M. Scal. This igorithm applies the method s. E. M. (stochastique estimation, maximisation) by estimating the configuration matrix x with maximise the likelihood of observed dissimilarities
APA, Harvard, Vancouver, ISO, and other styles
32

Rebecq, Antoine. "Méthodes de sondage pour les données massives." Thesis, Paris 10, 2019. http://www.theses.fr/2019PA100014/document.

Full text
Abstract:
Cette thèse présente trois parties liées à la théorie des sondages. La première partie présente deux résultats originaux de sondages qui ont eu des applications pratiques dans des enquêtes par sondage de l'Insee. Le premier article présente un théorème autorisant un plan de sondage stratifié constituant un compromis entre la dispersion des poids et l'allocation de précision optimale pour une variable d'intérêt spécifique. Les données d’enquête sont souvent utilisées pour estimer nombre de totaux ou modèles issus de variables exclues du design. La précision attendue pour ces variables est donc faible, mais une faible dispersion des poids permet de limiter les risques qu'une estimation dépendant d'une de ces variables ait une très mauvaise précision. Le second article concerne le facteur de repondération dans les estimateurs par calage. On propose un algorithme efficace capable de calculer les facteurs de poids les plus rapprochés autour de 1 tels qu'une solution au problème de calage existe. Cela permet de limiter les risques d'apparition d'unités influentes, particulièrement pour l'estimation sur des domaines. On étudie par simulations sur données réelles les propriétés statistiques des estimateurs obtenus. La seconde partie concerne l'étude des propriétés asymptotique des estimateurs sur données issues de sondage. Celles-ci sont difficiles à étudier en général. On présente une méthode originale qui établit la convergence faible vers un processus gaussien pour le processus empirique d'Horvitz-Thompson indexé par des classes de fonction, pour de nombreux algorithmes de sondage différents utilisés en pratique. Dans la dernière partie, on s'intéresse à des méthodes de sondage pour des données issues de graphes, qui ont des applications pratiques lorsque les graphes sont de taille telles que leur exploitation informatique est coûteuse. On détaille des algorithmes de sondage permettant d'estimer des statistiques d'intérêt pour le réseaux. Deux applications, à des données de Twitter puis à des données simulées, concluent cette partie
This thesis presents three different parts with ties to survey sampling theory. In the first part, we present two original results that led to practical applications in surveys conducted at Insee (French official statistics Institute). The first chapter deals with allocations in stratified sampling. We present a theorem that proves the existence of an optimal compromise between the dispersion of the sampling weights and the allocation yielding optimal precision for a specific variable of interest. Survey data are commonly used to compute estimates for variables that were not included in the survey design. Expected precision is poor, but a low dispersion of the weights limits risks of very high variance for one or several estimates. The second chapter deals with reweighting factors in calibration estimates. We study an algorithm that computes the minimal bounds so that the calibration estimators exist, and propose an efficient way of resolution. We also study the statistical properties of estimates using these minimal bounds. The second part studies asymptotic properties of sampling estimates. Obtaining asymptotic guarantees is often hard in practice. We present an original method that establishes weak convergence for the Horvitz-Thompson empirical process indexed by a class of functions for a lot of sampling algorithms used in practice. In the third and last part, we focus on sampling methods for populations that can be described as networks. They have many applications when the graphs are so big that storing and computing algorithms on them are very costly. Two applications are presented, one using Twitter data, and the other using simulated data to establish guidelines to design efficient sampling designs for graphs
APA, Harvard, Vancouver, ISO, and other styles
33

De, Vitis Alba Chiara. "Méthodes du noyau pour l’analyse des données de grande dimension." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4034.

Full text
Abstract:
Les nouvelles technologies permettant la collecte de données dépendant d’un nombre de plus en plus important de paramètres, les ensembles de données voient leur dimension devenir de plus en plus grande. Les problèmes théoriques, qui dépendent notamment de la dimension intrinsèque de l’ensemble des données, et les problèmes de calcul, liés à la dimension de l’espace où vivent les données, affectent l’analyse de données en grandes dimensions. Dans cette thèse, nous étudions le problème de l’analyse de données en grandes dimensions en nous plaçant dans le cadre des espaces métriques mesurés. Nous utilisons la concentration de la mesure pour produire des outils capables de décrire la structure des ensembles de données de grandes dimensions. Nous visons à introduire un nouveau point de vue sur l’utilisation des distances et des mesures de probabilité définies sur les données. Plus précisément, nous montrons que les méthodes de noyau, déjà utilisées en petites dimensions intrinsèques pour réduire la dimensionnalité, peuvent être utilisées en grandes dimensions et appliquées à des cas non traités dans la littérature
Since data are being collected using an increasing number of features, datasets are of increasingly high dimension. Computational problems, related to the apparent dimension, i.e. the dimension of the vectors used to collect data, and theoretical problems, which depends notably on the effective dimension of the dataset, the so called intrinsic dimension, have affected high dimensional data analysis. In order to provide a suitable approach to data analysis in high dimensions, we introduce a more comprehensive scenario in the framework of metric measure spaces. The aim of this thesis, is to show how to take advantage of high dimensionality phenomena in the pure high dimensional regime. In particular, we aim at introducing a new point of view in the use of distances and probability measures defined on the data set. More specifically, we want to show that kernel methods, already used in the intrinsic low dimensional scenario in order to reduce dimensionality, can be investigated under purely high dimensional hypotheses, and further applied to cases not covered by the literature
APA, Harvard, Vancouver, ISO, and other styles
34

Zinovieva-Leroux, Eléna. "Méthodes symboliques pour la génération de tests de systèmes réactifs comportant des données." Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00142441.

Full text
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans ledéveloppement de tels système. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérifier si les comportements d'un système sous test sont corrects par rapport à sa spécification. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de testse sont développées. Dans ces théories et algorithmes, les spécifications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitementtoutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
APA, Harvard, Vancouver, ISO, and other styles
35

Guillemot, Vincent. "Application de méthodes de classification supervisée et intégration de données hétérogènes pour des données transcriptomiques à haut-débit." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00481822.

Full text
Abstract:
Les méthodes d'apprentissage supervisé sont appliquées depuis récemment à des jeux de données de puces à ADN, afin d'une part d'extraire des gènes impliqués dans les différences entre les classes d'individus étudiés et d'autre part de construire une fonction de classification permettant de prédire la classe d'un nouvel individu. Ces données de puces à ADN peuvent être accompagnées d'une information précieuse décrivant les interactions entre les variables (les gènes). Cette information est regroupée sous la forme de réseaux de régulations génétiques (RRG). L'objectif de la thèse est de réaliser l'intégration de l'information contenue dans ces RRGs dans une méthode de classification supervisée binaire. Nous proposons une nouvelle méthode, graph Constrained Discriminant Analysis (gCDA), basée sur l'analyse discriminante de Fisher. Les méthodes de la littérature se proposent d'implémenter la contrainte suivante : les gènes qui sont voisins dans le RRG doivent avoir des poids proches, voire identiques, dans la fonction de classification. À contrepoint de ces méthodes, gCDA est basée sur l'estimation régularisée des matrices de variance covariance qui sont utilisées dans l'analyse discriminante de Fisher. Les estimateurs utilisés dans gCDA prennent en compte l'information contenue dans les RRGs disponibles a priori grâce aux propriétés des modèles graphiques gaussiens. gCDA est comparée aux méthodes de la littérature sur des données simulées, données pour lesquelles le graphe sous-jacent est parfaitement connu. Dans le cas de données réelles, le graphe sous-jacent décrivant les interactions entre variables n'est pas connu. Nous nous sommes donc également intéressés à des méthodes permettant d'inférer de tels graphes à partir de données transcriptomiques. Enfin, des résultats sont obtenus sur trois jeux de données réelles. Les RRG ont été inférés soit sur des jeux de données de même nature mais indépendants (c'est-à-dire concernant des individus qui ne sont pas utilisés pour en classification), soit sur une partie indépendante du jeu de données étudié. Nous montrons une amélioration notable des performances de classification sur ces jeux de données lorsque gCDA est utilisée par rapport à l'utilisation des méthodes de la littérature décrites dans la deuxième partie.
APA, Harvard, Vancouver, ISO, and other styles
36

Elhadji, Ille Gado Nassara. "Méthodes aléatoires pour l’apprentissage de données en grande dimension : application à l'apprentissage partagé." Thesis, Troyes, 2017. http://www.theses.fr/2017TROY0032.

Full text
Abstract:
Cette thèse porte sur l’étude de méthodes aléatoires pour l’apprentissage de données en grande dimension. Nous proposons d'abord une approche non supervisée consistant en l'estimation des composantes principales, lorsque la taille de l'échantillon et la dimension de l'observation tendent vers l'infini. Cette approche est basée sur les matrices aléatoires et utilise des estimateurs consistants de valeurs propres et vecteurs propres de la matrice de covariance. Ensuite, dans le cadre de l’apprentissage supervisé, nous proposons une approche qui consiste à, d'abord réduire la dimension grâce à une approximation de la matrice de données originale, et ensuite réaliser une LDA dans l’espace réduit. La réduction de dimension est basée sur l’approximation de matrices de rang faible par l’utilisation de matrices aléatoires. Un algorithme d'approximation rapide de la SVD, puis une version modifiée permettant l’approximation rapide par saut spectral sont développés. Les approches sont appliquées à des données réelles images et textes. Elles permettent, par rapport à d’autres méthodes, d’obtenir un taux d’erreur assez souvent optimal, avec un temps de calcul réduit. Enfin, dans le cadre de l’apprentissage par transfert, notre contribution consiste en l’utilisation de l'alignement des sous-espaces caractéristiques et l’approximation de matrices de rang faible par projections aléatoires. La méthode proposée est appliquée à des données de référence ; elle présente l’avantage d’être performante et adaptée à des données de grande dimension
This thesis deals with the study of random methods for learning large-scale data. Firstly, we propose an unsupervised approach consisting in the estimation of the principal components, when the sample size and the observation dimension tend towards infinity. This approach is based on random matrices and uses consistent estimators of eigenvalues and eigenvectors of the covariance matrix. Then, in the case of supervised learning, we propose an approach which consists in reducing the dimension by an approximation of the original data matrix and then realizing LDA in the reduced space. Dimension reduction is based on low–rank approximation matrices by the use of random matrices. A fast approximation algorithm of the SVD and a modified version as fast approximation by spectral gap are developed. Experiments are done with real images and text data. Compared to other methods, the proposed approaches provide an error rate that is often optimal, with a small computation time. Finally, our contribution in transfer learning consists in the use of the subspace alignment and the low-rank approximation of matrices by random projections. The proposed method is applied to data derived from benchmark database; it has the advantage of being efficient and adapted to large-scale data
APA, Harvard, Vancouver, ISO, and other styles
37

Hebert, Pierre-Alexandre. "Analyse de données sensorielles : une approche ordinale floue." Compiègne, 2004. http://www.theses.fr/2004COMP1542.

Full text
Abstract:
L'analyse de profils sensoriels vise à décrire la façon dont un ensemble de produits est perçu par un groupe d'individus entraînés, ou juges, selon un ensemble de descripteurs sensoriels. Les évaluations, consistant en l'attribution de notes, sont répétées. L'approche proposée doit son originalité à une modélisation ordinale floue de l'information exprimée. Dans une première étape, une relation floue de dominance faible entre produits est synthétisée par répétition. Puis une procédure d'agrégation sur les répétitions permet de résumer la perception de chaque juge. Une agrégation similaire sur les juges conduit à la synthèse d'une relation consensuelle, caractéristique du descripteur traité. Les procédures d'extraction et de fusion s'inscrivent dans le cadre de la théorie des préférences floues, de façon à faciliter l'interprétation des relations obtenues. Leur analyse mono ou multidimensionnelle est finalement conduite par un ensemble d'outils de représentation graphique
Sensory profile data aims at describing the sensory perceptions of human subjects. Such a data is composed of scores attributed by human sensory experts (or judges) in order to describe a set of products according to sensory descriptors. AlI assessments are repeated, usually three times. The thesis describes a new analysis method based on a fuzzy modelling of the scores. The first step of the method consists in extracting and encoding the relevant information of each replicate into a fuzzy weak dominance relation. Then an aggregation procedure over the replicates allows to synthesize the perception of each judge into a new fuzzy relation. Ln a similar way, a consensual relation is finally obtained for each descriptor by fusing the relations of the judges. So as to ensure the interpretation of fused relations, fuzzy preference theory is used. A set of graphical tools is then proposed for the mono and multidimensional analysis of the obtained relations
APA, Harvard, Vancouver, ISO, and other styles
38

Le, Floch Edith. "Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00753829.

Full text
Abstract:
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée.
APA, Harvard, Vancouver, ISO, and other styles
39

Yahia, Hussein. "Analyse des structures de données arborescentes représentant des images." Paris 11, 1986. http://www.theses.fr/1986PA112292.

Full text
Abstract:
Nous sommes conduits à introduire une notion d'image aléatoire qui permet, grâce à la technique des fonctions génératrices, d'obtenir les moments des principaux paramètres associes aux algorithmes manipulant de telles structures de données. Les modèles introduits sont suffisamment souples pour contenir virtuellement tous les modèles déjà existants. Nous analysons alors les performances des quadtrees et des octrees du point de vue de l'occupation mémoire puis nous étudions la complexité moyenne des algorithmes de recherche des voisins, de passage inter-représentations, et d'intersection ou de superposition d'images
APA, Harvard, Vancouver, ISO, and other styles
40

Limam, Mohamed Mehdi. "Méthodes de description de classes " minimisant " le débordement combinant classification et discrimination en analyse de données symboliques." Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090053.

Full text
Abstract:
Dans ce travail, nous nous intéressons au problème d'une classe d'individus issue d'une population. Pour cela, notre intérêt se porte sur deux familles de méthodes apportant un grand potentiel descriptif qui sont les méthodes descendantes de classification et les méthodes descendantes de discrimination ou de segmentation. En effet, les méthodes de classification ont été conçues pour diviser une population d'individus afin d'obtenir une partition en plusieurs classes homogènes par rapport aux variables décrivant ces individus. Les méthodes de segmentation consistent à diviser une population afin d'obtenir une partition en plusieurs classes homogènes par rapport à une variable à expliquer. La recherche d'une description d'une classe d'individus en utilisant l'une de ces deux familles est alors basée sur la recherche de groupes ayant l'une des qualités suivantes: les groupes sont homogènes soit par rapport à une variable à expliquer soit par rapport aux variables descriptives. Nous proposons alors dans ce travail une méthode permettant de trouver une description à partir d'une recherche de classes ayant ces deux qualités simultanément. De plus, la description recherchée doit inclure le moins possible d'individus n'appartenant pas à la classe à décrire. Notre approche est basée sur une méthode descendante, qui divise successivement la population en deux classes. On utilise une approche monothétique donnant une interprétation claire des classes trouvées. La division repose sur une combinaison de trois sous-critères: un critère d'inertie, un critère d'impureté et un critère de débordement. La description recherchée doit pouvoir exprimer la variation interne à la classe d'individus. Pour cela, nous plongeons la problématique ci-dessus dans le cadre de l'analyse de données symboliques qui permet une meilleure modélisation des variations et des imprécisions des données réelles. Une seconde contribution porte sur le résumé d'une information détaillée stockée dans une base de données et structurée en groupes disjoints d'individus, à une information résumée de chacun de ces groupes sous forme de données symboliques. Lorsque les données à résumer sont hétérogènes, les données symboliques obtenues incluent des observations potentielles. Nous proposons alors une méthode d'extraction de descriptions symboliques par partitionnement de chacun des groupes à résumer en groupes homogènes. Cette méthode est basée sur l'approche présentée ci-dessus. Chaque groupe est résumé par plusieurs descriptions symboliques qui ont la particularité d'exprimer les caractéristiques qui soit distinguent soit rapproche ce groupe des autres. Analyse de données, analyse de données symboliques, classification automatique, discrimination, segmentation, arbre de décision, dissimilarité, base de données relationnelles.
APA, Harvard, Vancouver, ISO, and other styles
41

Lagarde, Thierry. "Nouvelle approche des méthodes d'assimilation de données : les algorithmes de point selle." Toulouse 3, 2000. http://www.theses.fr/2000TOU30113.

Full text
Abstract:
L'assimilation de donnees consiste a fournir la meilleure estimation de l'etat d'un systeme physique etant donnes des observations et un modele numerique. Cette these enrichit la famille des methodes habituellement utilisees et les compare entre elles. Nous proposons tout d'abord un formalisme graphique permettant de decrire une grande partie des algorithmes existants. Cette lecture des methodes d'assimilation permet de visualiser et comprendre leur structure. Parallelement, nous utilisons les transformations de legendre afin de generaliser les formules de certaines methodes dites duales au cas des statistiques d'erreur non gaussiennes. Grace a ces deux outils, nous avons decouvert une nouvelle categorie de methodes baptisees 4d-selle (en reference au probleme d'optimisation associe qui est un point selle), qui englobe et generalise celles deja connues (4d-var et 4d-psas). Nous avons ensuite effectue une comparaison numerique entre trois algorithmes d'assimilation fournissant le meme etat optimal, mais par trois voies differentes. Le premier est un 4d-var avec modele imparfait. Le second est le dual du precedent (4d-psas). Enfin, le troisieme est l'algorithme decouvert au cours de cette these (4d-selle) et donc teste pour la premiere fois. L'etude comparative a montre que les methodes etaient techniquement realisables et pouvaient reduire fortement le laps de temps necessaire a l'assimilation de donnees. Pour conclure, ce travail ouvre des perspectives interessantes en proposant dans le domaine pratique un moyen d'accelerer le processus d'assimilation des donnees et dans le domaine theorique, une nouvelle categorie de methodes variationelles associee a une nouvelle formule du lissage de kalman.
APA, Harvard, Vancouver, ISO, and other styles
42

Bailleul, Marc. "Analyse statistique implicative : variables modales et contribution des sujets : application a la modelisation de l'enseignant dans le systeme didactique." Rennes 1, 1994. http://www.theses.fr/1994REN10061.

Full text
Abstract:
Cette these, dans sa partie mathematique, se situe dans la lignee des travaux entrepris par r. Gras et ses eleves, a. Larher, s. Ag almouloud, a. Totohasina et h. Ratsimba rajohn a l'universite de rennes i. Elle etend, de facon originale, les apports des chercheurs precedents aux variables ordinales et developpe la notion de contribution des individus au phenomene d'implication statistique entre variables modales. Ces outils mathematiques sont utilises ensuite pour etudier, a partir d'un questionnaire sous forme de choix ordonne de mots dans un corpus propose, les representations de l'enseignement des mathematiques chez des enseignants de cette discipline au college et au lycee. On verra apparaitre dans les graphes implicatifs des structures que l'on cherchera a caracteriser du point de vue du mode de fonctionnement de l'enseignement qu'elles sous-tendent. On etudiera leur environnement c'est-a-dire le terrain sur lequel elles se sont construites et les effets qu'elles produisent dans des discours d'enseignants et des cahiers d'eleves. L'ensemble de ce travail est place dans le cadre plus large d'une contribution a la didactique de la formation des enseignants de mathematiques et plus precisement a l'etude du pole enseignant, sous son double aspect: maitre dans la situation didactique de classe et eleve dans la situation didactique de formation
APA, Harvard, Vancouver, ISO, and other styles
43

Vo-Van, Claudine. "Analyse de données pharmacocinétiques fragmentaires : intégration dans le développement de nouvelles molécules." Paris 5, 1994. http://www.theses.fr/1994PA05P044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Le, floch Edith. "Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112214/document.

Full text
Abstract:
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée
Brain imaging is increasingly recognised as an interesting intermediate phenotype to understand the complex path between genetics and behavioural or clinical phenotypes. In this context, a first goal is to propose methods to identify the part of genetic variability that explains some neuroimaging variability. Classical univariate approaches often ignore the potential joint effects that may exist between genes or the potential covariations between brain regions. Our first contribution is to improve the sensitivity of the univariate approach by taking advantage of the multivariate nature of the genetic data in a local way. Indeed, we adapt cluster-inference techniques from neuroimaging to Single Nucleotide Polymorphism (SNP) data, by looking for 1D clusters of adjacent SNPs associated with the same imaging phenotype. Then, we push further the concept of clusters and we combined voxel clusters and SNP clusters, by using a simple 4D cluster test that detects conjointly brain and genome regions with high associations. We obtain promising preliminary results on both simulated and real datasets .Our second contribution is to investigate exploratory multivariate methods to increase the detection power of imaging genetics studies, by accounting for the potential multivariate nature of the associations, at a longer range, on both the imaging and the genetics sides. Recently, Partial Least Squares (PLS) regression or Canonical Correlation Analysis (CCA) have been proposed to analyse genetic and transcriptomic data. Here, we propose to transpose this idea to the genetics vs. imaging context. Moreover, we investigate the use of different strategies of regularisation and dimension reduction techniques combined with PLS or CCA, to face the overfitting issues due to the very high dimensionality of the data. We propose a comparison study of the different strategies on both a simulated dataset and a real fMRI and SNP dataset. Univariate selection appears to be necessary to reduce the dimensionality. However, the generalisable and significant association uncovered on the real dataset by the two-step approach combining univariate filtering and L1-regularised PLS suggests that discovering meaningful imaging genetics associations calls for a multivariate approach
APA, Harvard, Vancouver, ISO, and other styles
45

Leonardis, Eleonora De. "Méthodes pour l'inférence en grande dimension avec des données corrélées : application à des données génomiques." Thesis, Paris, Ecole normale supérieure, 2015. http://www.theses.fr/2015ENSU0033/document.

Full text
Abstract:
La disponibilité de quantités énormes de données a changé le rôle de la physique par rapport aux autres disciplines. Dans cette thèse, je vais explorer les innovations introduites dans la biologie moléculaire grâce à des approches de physique statistique. Au cours des 20 dernières années, la taille des bases de données sur le génome a augmenté de façon exponentielle : l'exploitation des données brutes, dans le champ d'application de l'extraction d'informations, est donc devenu un sujet majeur dans la physique statistique. Après le succès dans la prédiction de la structure des protéines, des résultats étonnamment bons ont été finalement obtenus aussi pour l'ARN. Cependant, des études récentes ont révélé que, même si les bases de données sont de plus en plus grandes, l'inférence est souvent effectuée dans le régime de sous-échantillonnage et de nouveaux systèmes informatiques sont nécessaires afin de surmonter cette limitation intrinsèque des données réelles. Cette thèse va discuter des méthodes d'inférence et leur application à des prédictions de la structure de l'ARN. Nous allons comprendre certaines approches heuristiques qui ont été appliquées avec succès dans les dernières années, même si théoriquement mal comprises. La dernière partie du travail se concentrera sur le développement d'un outil pour l'inférence de modèles génératifs, en espérant qu'il ouvrira la voie à de nouvelles applications
The availability of huge amounts of data has changed the role of physics with respect to other disciplines. Within this dissertation I will explore the innovations introduced in molecular biology thanks to statistical physics approaches. In the last 20 years the size of genome databases has exponentially increased, therefore the exploitation of raw data, in the scope of extracting information, has become a major topic in statistical physics. After the success in protein structure prediction, surprising results have been finally achieved also in the related field of RNA structure characterisation. However, recent studies have revealed that, even if databases are growing, inference is often performed in the under sampling regime and new computational schemes are needed in order to overcome this intrinsic limitation of real data. This dissertation will discuss inference methods and their application to RNA structure prediction. We will discuss some heuristic approaches that have been successfully applied in the past years, even if poorly theoretically understood. The last part of the work will focus on the development of a tool for the inference of generative models, hoping it will pave the way towards novel applications
APA, Harvard, Vancouver, ISO, and other styles
46

Gonzalez, Ignacio. "Analyse canonique régularisée pour des données fortement multidimensionnelles." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/99/.

Full text
Abstract:
Motivé par la mise en évidence des relations entre l'expression de gènes et d'autres variables biologiques, notre travail consiste à présenter et développer une méthodologie répondant à ce problème. Parmi les méthodes statistiques abordant ce sujet, l'Analyse Canonique (AC) semblait bien appropriée, mais la haute dimensionalité est actuellement l'un des obstacles majeurs pour les techniques statistiques d'analyse de données issues de biopuces. Naturellement l'axe de ce travail a été la recherche de solutions tenant compte de cet aspect crucial dans la mise en oeuvre de l'AC. Parmi les approches envisagées pour contourner ce problème, nous nous sommes intéressés à des méthodes de régularisation. Ainsi, la méthode développée ici, appelée Analyse Canonique Régularisée (ACR), est basée sur le principe de régularisation ridge introduit initialement en régression linéaire multiple. L'ACR nécessitant le choix de deux paramètres de réglage pour sa mise en oeuvre, nous avons proposé la méthode de validation croisée par sous-groupes pour traiter ce problème. Nous avons présenté en détail des applications de l'ACR à des données fortement multidimensionnelles provenant d'études génomiques ainsi qu'à des données provenant d'autres domaines. Sur ce point on s'est intéressé à une visualisation des données aidant à l'interprétation des résultats obtenus. À cet effet, nous avons proposé un certaine nombre de méthodes graphiques : représentations des variables (graphiques des corrélations), représentations des individus ainsi que des représentations alternatives comme les graphiques de réseaux et les cartes de double classification (heatmaps). Pour la mise en oeuvre de l'AC, nous avons développé le package CCA (disponible en ligne sur le site cran. R-project. Org). Ce package permet le traitement de données avec plus de variables que d'unités expérimentales par l'ACR, la manipulation des valeurs manquantes et la réalisation des graphiques aidant à l'interprétation des résultats. .
Motivated by the study of relationships between gene expressions and other biological variables, our work consists in presenting and developing a methodology answering this problem. Among the statistical methods treating this subject, Canonical Analysis (CA) seemed well adapted, but the high dimension is at present one of the major obstacles for the statistical techniques of analysis data coming from microarrays. Typically the axis of this work was the research of solutions taking into account this crucial aspect in the implementation of the CA. Among the approaches considered to handle this problem, we were interested in the methods of regularization. The method developed here, called Regularised Canonical Analysis (RCA), is based on the principle of ridge regularization initially introduced in multiple linear regression. RCA needing the choice of two parameters of regulation for its implementation, we proposed the method of M-fold cross-validation to handle this problem. We presented in detail RCA applications to high multidimensional data coming from genomic studies as well as to data coming from other domains. Among other we were interested in a visualization of the data in order to facilitate the interpretation of the results. For that purpose, we proposed some graphical methods: representations of variables (correlations graphs), representations of individuals as well as alternative representations as networks and heatmaps. .
APA, Harvard, Vancouver, ISO, and other styles
47

Yuan, Shuning. "Méthodes d'analyse de données GPS dans les enquêtes sur la mobilité des personnes : les données manquantes et leur estimation." Paris 1, 2010. http://www.theses.fr/2010PA010074.

Full text
Abstract:
Améliorer l'observation des comportements de déplacement est maintenant possible: d’une part, les méthodologies d’enquête ont évolué : nous sommes passés de l’ère PAPI (Paper And Pencil Interview) à l’ère CATI ou CAPI (Computer Assisted Telephon Interview ou Personal Interview) ; d’autre part, les nouvelles technologies (localisation automatique par satellite, téléphonie mobile, etc. ) permettent d’améliorer considérablement la précision du cadre temporel (heures de départ, d’arrivée. . . ) et spatial (distances et lieux d’activité) des déplacements. Le relevé des traces GPS apporte, avec une précision bien supérieure, des informations qu’il ne serait pas envisageable de collecter à l’aide d’une méthode classique, par exemple : - les trajets courts autour d’un lieu de résidence non habituel (vacances, congrès, etc. ), - la description des trajets très courts et des parcours terminaux, - plus de précision sur les temps terminaux, les temps d’attente, les correspondances entre modes, - le choix de l’itinéraire, - les vitesses. Un défi dans le traitement à posteriori des données collectées, qui constituera le coeur de cette thèse, est la mise au point de méthodes permettant de combler ces données manquantes et de reconstituer de manière automatisée des séquences continues, à la fois dans l’espace et dans le temps.
APA, Harvard, Vancouver, ISO, and other styles
48

El, Golli Aicha. "Extraction de données symboliques et cartes topologiques : Application aux données ayant une structure complexe." Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090026.

Full text
Abstract:
Un des objectifs de l'analyse de données symboliques est de permettre une meilleure modélisation des variations et des imprécisions des données réelles. Ces données expriment en effet, un niveau de connaissance plus élevé, la modélisation doit donc offrir un formalisme plus riche que dans le cadre de l'analyse de données classiques. Un ensemble d'opérateurs de généralisation symbolique existent et permettent une synthèse et représentation des données par le formalisme des assertions, formalisme défini en analyse de données symboliques. Cette généralisation étant supervisée, est souvent sensible aux observations aberrantes. Lorsque les données que l'on souhaite généraliser sont hétérogènes, certaines assertions incluent des observations virtuelles. Face à ce nouveau formalisme et donc cette extension d'ordre sémantique que l'analyse de données symbolique a apporté, une nouvelle approche de traitement et d'interprétation s'impose. Notre objectif au cours de ce travail est d'améliorer tout d'abord cette généralisation et de proposer ensuite une méthode de traitement de ces données. Nous proposons donc une décomposition permettant d'améliorer la énéralisation tout en offrant le formalisme symbolique. Cette décomposition est basée sur un algorithme divisif de classification. Nous avons aussi proposé une méthode de généralisation symbolique non supervisée basée sur l'algorithme des cartes topologiques de Kohonen. L'avantage de cette méthode est de réduire les données d'une manière non supervisée et de modéliser les groupes homogènes obtenus par des données symboliques. Notre seconde contribution porte sur l'élaboration d'une méthode de classification traitant les données à structure complexe. Cette méthode est une adaptation de la version batch de l'algorithme des cartes topologiques de Kohonen aux tableaux de dissimilarités. En effet, seule la définition d'une mesure de dissimilarité adéquate, est nécessaire pour le bon déroulement de la méthode.
APA, Harvard, Vancouver, ISO, and other styles
49

Ballester, Pascal. "Méthodes d'étalonnage pour la spectrographie échelle : application aux instruments de l'Observatoire Européen Austral (ESO)." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30101.

Full text
Abstract:
Les instruments d'observation concus pour les telescopes de la classe actuelle de 8 a 10 metres, tel le tres grand telescope (vlt) de l'observatoire europeen austral (eso), produisent d'importants volumes de donnees a raison de plusieurs gigaoctets par nuit. L'utilisation de ces telescopes en mode de service rend necessaire le developpement de methodes automatiques de traitement de donnees. On analyse dans cette these les methodes de reductions de donnees pour la spectroscopie echelle bi-dimensionnelle dans le but de definir une chaine automatique d'etalonnage. On montre qu'une calibration automatisee peut etre obtenue en suivant une methodologie basee sur la modelisation de l'instrument et sur des methodes robustes de traitement d'image. Dans la premiere partie, on etudie la modelisation optique des spectrographes echelle, et l'utilisation de modeles pour le controle de configuration, l'etablissement de solutions initiales de calibration, et la preparation des observations. En spectroscopie, et plus particulierement dans le mode echelle, l'etape de calibration geometrique requiert l'essentiel du travail interactif. C'est donc pour cette etape que l'on a developpe differentes methodes originales de traitement, presentees dans la deuxieme partie, et faisant appel en particulier a la transformee de hough. On analyse dans la troisieme partie l'extraction optimale et la calibration en flux. On discute finalement le controle de qualite des spectres et l'etablissement d'une chaine de traitement automatisee et controlee.
APA, Harvard, Vancouver, ISO, and other styles
50

Leroux, (zinovieva) Elena. "Méthodes symboliques pour la génération de tests desystèmes réactifs comportant des données." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00142441.

Full text
Abstract:
La complexité croissante des systèmes réactifs fait que le test devient une technique de plus en plus importante dans le développement de tels systèmes. Un grand intérêt est notamment accordé au test de conformité qui consiste à vérier si les comportements d'un système sous test sont corrects par rapport à sa spécication. Au cours des dernières années, les théories et outils de test de conformité pour la génération automatique de test se sont développés. Dans ces théories et algorithmes, les spécications des systèmes réactifs sont souvent modélisées par différentes variantes des systèmes de transitions. Cependant, ces théories et outils ne prennent pas explicitement en compte les données du système puisque le modèle sous-jacent de système
de transitions ne permet pas de le faire. Ceci oblige à énumérer les valeurs des données avant de construire le modèle de système de transitions d'un système, ce qui peut provoquer le problème de l'explosion de l'espace d'états. Cette énumération a également pour effet d'obtenir des cas de test où toutes les données sont instanciées. Or, cela contredit la pratique industrielle où les cas de test sont de vrais programmes avec des variables et des paramètres. La génération de tels
cas de test exige de nouveaux modèles et techniques. Dans cette thèse, nous atteignons deux objectifs. D'une part, nous introduisons un modèle appelé système symbolique de transitions à entrée/sortie qui inclut explicitement toutes les données d'un système réactif. D'autre part, nous proposons et implémentons une nouvelle technique de génération de test qui traite symboliquement les données d'un système en combinant l'approche de génération de test proposée auparavant par notre groupe de recherche avec des techniques d'interprétation abstraite. Les cas de test générés automatiquement par notre technique satisfont des propriétés de correction: ils émettent toujours un verdict correct.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography