Academic literature on the topic 'Modèles à facteurs latents'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modèles à facteurs latents.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Modèles à facteurs latents"

1

Mero, Gulten. "Modèles à facteurs latents et rentabilités des actifs financiers." Rennes 1, 2010. http://www.theses.fr/2010REN1G011.

Full text
Abstract:
Devant l'échec empirique des facteurs de risque observables dans l'explication des rentabilités financières, le but de cette thèse est d'utiliser les modèles à facteurs latents et les développements économétriques récents afin d'améliorer la compréhension du risque affectant les actifs. Dans un premier temps, nous décrivons les modèles à facteurs latents appliqués à la finance et les principales méthodes d'estimation. Nous présentons également comment le recours aux théories financières et économétriques permet de relier les facteurs statistiques avec des variables économiques et financières afin de faciliter leur interprétation. Dans un second temps, nous utilisons les modèles à facteurs latents en coupes transversales afin d'estimer et interpréter le profil de risque des Hedge Funds et des actions. La méthodologie mise en place est cohérente avec les propriétés statistiques inhérentes aux échantillons de grandes dimensions ainsi qu'avec le caractère dynamique du risque systématique. Dans un troisième temps, nous modélisons un marché où les prix et les volumes sont sensibles aux chocs de liquidité intra-journaliers. Nous proposons un modèle structurel de mélange de distributions à deux facteurs latents permettant de capturer l'impact des chocs d'information et des frictions de liquidité. Ce modèle permet de construire une mesure de liquidité statique propre à chaque titre. Ensuite, nous étendons notre modèle structurel afin de tenir compte des propriétés dynamiques du risque de liquidité. En particulier nous distinguons deux problèmes de liquidité : les frictions de liquidité se produisant à une fréquence intra-journalière et les événements d'illiquidité détériorant la qualité de marché de façon persistante. Enfin, nous avons recours à la modélisation statistique en séries chronologiques pour construire des mesures dynamiques de liquidité<br>This thesis aims at using latent factor models and recent econometric developments in order to obtain a better understanding of underlying asset risk. Firstly, we describe the various latent factor models currently applied to finance as well as the main estimation methodologies. We also present how financial and econometrical theories allow us to link statistical factors to economic and financial variables, hence facilitating their interpretation. Secondly, we use a cross-sectional approach in order to explain and interpret the risk profile of hedge fund and stock returns. Our methodology is consistent with statistical properties inherent to large samples as well as the dynamic properties of systematic risk. Thirdly, we model a market where prices and volumes are influenced by intra-day liquidity shocks. We propose a mixture of distribution model with two latent factors allowing us to capture the respective impacts of both information shocks and liquidity frictions. This model enables us to build a static stock-specific liquidity measure using daily data. Moreover, we extend our structural model in order to take into account dynamic properties of liquidity risk. In particular, we distinguish two liquidity issues : intra-day liquidity frictions and illiquidity events deteriorating market quality in a persistent manner. Finally, we use signal extraction modeling in order to build dynamic liquidity measures
APA, Harvard, Vancouver, ISO, and other styles
2

Frichot, Eric. "Modèles à facteurs latents pour les études d'association écologique en génétique des populations." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENS018/document.

Full text
Abstract:
Nous introduisons un ensemble de modèles à facteurs latents dédié à la génomique du paysage et aux tests d'associations écologiques. Cela comprend des méthodes statistiques pour corriger des effets d'autocorrélation spatiale sur les cartes de composantes principales en génétique des populations (spFA), des méthodes pour estimer rapidement et efficacement les coefficients de métissage individuel à partir de matrices de génotypes de grande taille et évaluer le nombre de populations ancestrales (sNMF) et des méthodes pour identifier les polymorphismes génétiques qui montrent de fortes corrélations avec des gradients environnementaux ou avec des variables utilisées comme des indicateurs pour des pressions écologiques (LFMM). Nous avons aussi développé un ensemble de logiciels libres associés à ces méthodes, basés sur des programmes optimisés en C qui peuvent passer à l'échelle avec la dimension de très grand jeu de données, afin d'effectuer des analyses de structures de population et des cribles génomiques pour l'adaptation locale<br>We introduce a set of latent factor models dedicated to landscape genomics and ecological association tests. It includes statistical methods for correcting principal component maps for effects of spatial autocorrelation (spFA); methods for estimating ancestry coefficients from large genotypic matrices and evaluating the number of ancestral populations (sNMF); and methods for identifying genetic polymorphisms that exhibit high correlation with some environmental gradient or with the variables used as proxies for ecological pressures (LFMM). We also developed a set of open source softwares associated with the methods, based on optimized C programs that can scale with the dimension of very large data sets, to run analyses of population structure and genome scans for local adaptation
APA, Harvard, Vancouver, ISO, and other styles
3

Tami, Myriam. "Approche EM pour modèles multi-blocs à facteurs à une équation structurelle." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT303/document.

Full text
Abstract:
Les modèles d'équations structurelles à variables latentes permettent de modéliser des relations entre des variables observables et non observables. Les deux paradigmes actuels d'estimation de ces modèles sont les méthodes de moindres carrés partiels sur composantes et l'analyse de la structure de covariance. Dans ce travail, après avoir décrit les deux principales méthodes d'estimation que sont PLS et LISREL, nous proposons une approche d'estimation fondée sur la maximisation par algorithme EM de la vraisemblance globale d'un modèle à facteurs latents et à une équation structurelle. Nous en étudions les performances sur des données simulées et nous montrons, via une application sur des données réelles environnementales, comment construire pratiquement un modèle et en évaluer la qualité. Enfin, nous appliquons l'approche développée dans le contexte d'un essai clinique en cancérologie pour l'étude de données longitudinales de qualité de vie. Nous montrons que par la réduction efficace de la dimension des données, l'approche EM simplifie l'analyse longitudinale de la qualité de vie en évitant les tests multiples. Ainsi, elle contribue à faciliter l'évaluation du bénéfice clinique d'un traitement<br>Structural equation models enable the modeling of interactions between observed variables and latent ones. The two leading estimation methods are partial least squares on components and covariance-structure analysis. In this work, we first describe the PLS and LISREL methods and, then, we propose an estimation method using the EM algorithm in order to maximize the likelihood of a structural equation model with latent factors. Through a simulation study, we investigate how fast and accurate the method is, and thanks to an application to real environmental data, we show how one can handly construct a model or evaluate its quality. Finally, in the context of oncology, we apply the EM approach on health-related quality-of-life data. We show that it simplifies the longitudinal analysis of quality-of-life and helps evaluating the clinical benefit of a treatment
APA, Harvard, Vancouver, ISO, and other styles
4

Lu, Yang. "Analyse de survie bivariée à facteurs latents : théorie et applications à la mortalité et à la dépendance." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090020/document.

Full text
Abstract:
Cette thèse étudie quelques problèmes d’identification et d’estimation dans les modèles de survie bivariée, avec présence d’hétérogénéité individuelle et des facteurs communs stochastiques.Chapitre I introduit le cadre général.Chapitre II propose un modèle pour la mortalité des deux époux dans un couple. Il permet de distinguer deux types de dépendance : l’effet de deuil et l’effet lié au facteur de risque commun des deux époux. Une analyse de leurs effets respectifs sur les primes d’assurance écrites sur deux têtes est proposée.Chapitre III montre que, sous certaines hypothèses raisonnables, on peut identifier l’évolution jointe du risque d’entrer en dépendance et du risque de mortalité, à partir des données de mortalité par cohortes. Une application à la population française est proposée.Chapitre IV étudie la queue de distribution dans les modèles de survie bivariée. Sous certaines hypothèses, la loi jointe des deux durées résiduelles converge, après une normalisation adéquate. Cela peut être utilisé pour analyser le risque parmi les survivants aux âges élevés. Parallèlement, la distribution d’hétérogénéité parmi les survivants converge vers une distribution semi-paramétrique<br>This thesis comprises three essays on identification and estimation problems in bivariate survival models with individual and common frailties.The first essay proposes a model to capture the mortality dependence of the two spouses in a couple. It allows to disentangle two types of dependencies : the broken heart syndrome and the dependence induced by common risk factors. An analysis of their respective effects on joint insurance premia is also proposed.The second essay shows that, under reasonable model specifications that take into account the longevity effect, we can identify the joint distribution of the long-term care and mortality risks from the observation of cohort mortality data only. A numerical application to the French population data is proposed.The third essay conducts an analysis of the tail of the joint distribution for general bivariate survival models with proportional frailty. We show that under appropriate assumptions, the distribution of the joint residual lifetimes converges to a limit distribution, upon normalization. This can be used to analyze the mortality and long-term care risks at advanced ages. In parallel, the heterogeneity distribution among survivors converges also to a semi-parametric limit distribution. Properties of the limit distributions, their identifiability from the data, as well as their implications are discussed
APA, Harvard, Vancouver, ISO, and other styles
5

Proust-Lima, Cecile. "Modèles mixtes à structure latente pour donnéeslongitudinales multivariées hétérogènes :application à l'étude du vieillissement cognitif etde la démence." Phd thesis, Université Victor Segalen - Bordeaux II, 2006. http://tel.archives-ouvertes.fr/tel-00192386.

Full text
Abstract:
Ce travail avait pour objectif de proposer des modèles statistiques pour données longitudinales, hétérogènes et multivariées afin de décrire l'évolution cognitive chez les personnes âgés et son association avec la démence. La cognition étant une quantité non-observée mesurée par des tests psychométriques quantitatifs non Gaussiens, nous avons proposé un modèle nonlinéaire à processus latent dans lequel, l'évolution cognitive représentée par le processus latent est décrite par un modèle linéaire mixte incluant des variables explicatives et un processus Brownien. Les tests psychométriques et le processus latent sont liés par des transformations nonlinéaires estimées prenant en compte des effets différents des variables explicatives. Outre décrire les propriétés métrologiques des tests et faire des recommandations sur le test à utiliser suivant la population étudiée, nous avons pu distinguer l'effet de variables explicatives sur l'évolution cognitive latente de leur effet propre sur les tests. Nous avons ensuite étendu cette approche pour prendre en compte l'hétérogénéité de l'évolution cognitive associée à la survenue d'une démence par deux modèles conjoints à classes latentes. En étudiant d'abord la probabilité de démence en fin de suivi conjointement au déclin cognitif, nous avons mis en évidence deux profils d'évolution représentant le processus de vieillissement normal et le processus de vieillissement pathologique. Puis, en étudiant le risque de démence conjointement au déclin cognitif en fonction de l'âge, nous avons montré 5 formes de déclin cognitifs suivant l'âge associés à des risques différents de démence. Ces deux modèles conjoints nous ont aussi permis de proposer des outils de détection de démence calculés à partir de n'importe quelle information cognitive. Chacun des trois modèles proposés a été évalué par le biais d'études de simulation, puis appliqué sur les données de la cohorte PAQUID et enfin, plusieurs méthodes ont été proposées pour évaluer l'adéquation aux données.
APA, Harvard, Vancouver, ISO, and other styles
6

Proust-Lima, Cécile. "Modèles mixtes à structure latente pour données longitudinales multivariées hétérogènes : application à l'étude du vieillissement cognitif et de la démence." Bordeaux 2, 2006. http://www.theses.fr/2006BOR21373.

Full text
Abstract:
L'objectif de ce travail était de développer des modèles statistiques pour données longitudinales, hétérogènes et multivariées afin de décrire l'évolution cognitive et son association avec la démence chez les personnes âgées. Nous avons proposé un modèle nonlinéaire à processus latent dans lequel, l'évolution cognitive est décrite par un modèle mixte incluant un processus Brownien, et les tests psychométriques qui mesurent la cognition sont liés au processus cognitif latent par des transformations nonlinéaires estimées. Pour tenir compte de l'hétérogénéité des déclins cognitifs, nous avons étendu cette approche et proposé deux modèles nonlinéaires à classes latentes pour décrire les profils de déclin cognitif et leur association avec la probabilité de démence à un temps donné ou le risque de démence en fonction du temps. Outre la description des déclins cognitifs liés à la démence, un outil de détection de la démence calculable à partir de l'évolution cognitive a été proposé<br>The aim of this work was to propose statistical models for longitudinal, heterogeneous and multivariate data in order to describe the cognitive evolution and its association with dementia in the elderly. A nonlinear model with a latent process was proposed in which latent cognitive evolution is described by a mixed model including a Brownian motion, and psychometric tests which measure cognition are linked to the latent cognitive process by nonlinear estimated transformations. We then extended this model to account for the heterogeneity of the cognitive declines. We proposed two nonlinear latent class models for describing the profiles of cognitive decline and their association with either the probability of dementia at a given time or the risk of dementia with time. In addition to the description of the cognitive declines associated with dementia, we proposed a tool for detecting a dementia according to cognitive evolution
APA, Harvard, Vancouver, ISO, and other styles
7

Amoualian, Hesam. "Modélisation et apprentissage de dépendances á l’aide de copules dans les modéles probabilistes latents." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM078/document.

Full text
Abstract:
Ce travail de thése a pour objectif de s’intéresser à une classe de modèles hiérarchiques bayesiens, appelés topic models, servant à modéliser de grands corpus de documents et ceci en particulier dans le cas où ces documents arrivent séquentiellement. Pour cela, nous introduisons au Chapitre 3, trois nouveaux modèles prenant en compte les dépendances entre les thèmes relatifs à chaque document pour deux documents successifs. Le premier modèle s’avère être une généralisation directe du modèle LDA (Latent Dirichlet Allocation). On utilise une loi de Dirichlet pour prendre en compte l’influence sur un document des paramètres relatifs aux thèmes sous jacents du document précédent. Le deuxième modèle utilise les copules, outil générique servant à modéliser les dépendances entre variables aléatoires. La famille de copules utilisée est la famille des copules Archimédiens et plus précisément la famille des copules de Franck qui vérifient de bonnes propriétés (symétrie, associativité) et qui sont donc adaptés à la modélisation de variables échangeables. Enfin le dernier modèle est une extension non paramétrique du deuxième. On intègre cette fois ci lescopules dans la construction stick-breaking des Processus de Dirichlet Hiérarchique (HDP). Nos expériences numériques, réalisées sur cinq collections standard, mettent en évidence les performances de notre approche, par rapport aux approches existantes dans la littérature comme les dynamic topic models, le temporal LDA et les Evolving Hierarchical Processes, et ceci à la fois sur le plan de la perplexité et en terme de performances lorsqu’on cherche à détecter des thèmes similaires dans des flux de documents. Notre approche, comparée aux autres, se révèle être capable de modéliser un plus grand nombre de situations allant d’une dépendance forte entre les documents à une totale indépendance. Par ailleurs, l’hypothèse d’échangeabilité sous jacente à tous les topics models du type du LDA amène souvent à estimer des thèmes différents pour des mots relevant pourtant du même segment de phrase ce qui n’est pas cohérent. Dans le Chapitre 4, nous introduisons le copulaLDA (copLDA), qui généralise le LDA en intégrant la structure du texte dans le modèle of the text et de relaxer l’hypothèse d’indépendance conditionnelle. Pour cela, nous supposons que les groupes de mots dans un texte sont reliés thématiquement entre eux. Nous modélisons cette dépendance avec les copules. Nous montrons de manièreempirique l’efficacité du modèle copLDA pour effectuer à la fois des tâches de natureintrinsèque et extrinsèque sur différents corpus accessibles publiquement. Pour compléter le modèle précédent (copLDA), le chapitre 5 présente un modèle de type LDA qui génére des segments dont les thèmes sont cohérents à l’intérieur de chaque document en faisant de manière simultanée la segmentation des documents et l’affectation des thèmes à chaque mot. La cohérence entre les différents thèmes internes à chaque groupe de mots est assurée grâce aux copules qui relient les thèmes entre eux. De plus ce modèle s’appuie tout à la fois sur des distributions spécifiques pour les thèmes reliés à chaque document et à chaque groupe de mots, ceci permettant de capturer les différents degrés de granularité. Nous montrons que le modèle proposé généralise naturellement plusieurs modèles de type LDA qui ont été introduits pour des tâches similaires. Par ailleurs nos expériences, effectuées sur six bases de données différentes mettent en évidence les performances de notre modèle mesurée de différentes manières : à l’aide de la perplexité, de la Pointwise Mutual Information Normalisée, qui capture la cohérence entre les thèmes et la mesure Micro F1 measure utilisée en classification de texte<br>This thesis focuses on scaling latent topic models for big data collections, especiallywhen document streams. Although the main goal of probabilistic modeling is to find word topics, an equally interesting objective is to examine topic evolutions and transitions. To accomplish this task, we propose in Chapter 3, three new models for modeling topic and word-topic dependencies between consecutive documents in document streams. The first model is a direct extension of Latent Dirichlet Allocation model (LDA) and makes use of a Dirichlet distribution to balance the influence of the LDA prior parameters with respect to topic and word-topic distributions of the previous document. The second extension makes use of copulas, which constitute a generic tool to model dependencies between random variables. We rely here on Archimedean copulas, and more precisely on Franck copula, as they are symmetric and associative and are thus appropriate for exchangeable random variables. Lastly, the third model is a non-parametric extension of the second one through the integration of copulas in the stick-breaking construction of Hierarchical Dirichlet Processes (HDP). Our experiments, conducted on five standard collections that have been used in several studies on topic modeling, show that our proposals outperform previous ones, as dynamic topic models, temporal LDA and the Evolving Hierarchical Processes,both in terms of perplexity and for tracking similar topics in document streams. Compared to previous proposals, our models have extra flexibility and can adapt to situations where there are no dependencies between the documents.On the other hand, the "Exchangeability" assumption in topic models like LDA oftenresults in inferring inconsistent topics for the words of text spans like noun-phrases, which are usually expected to be topically coherent. In Chapter 4, we propose copulaLDA (copLDA), that extends LDA by integrating part of the text structure to the model and relaxes the conditional independence assumption between the word-specific latent topics given the per-document topic distributions. To this end, we assume that the words of text spans like noun-phrases are topically bound and we model this dependence with copulas. We demonstrate empirically the effectiveness of copLDA on both intrinsic and extrinsic evaluation tasks on several publicly available corpora. To complete the previous model (copLDA), Chapter 5 presents an LDA-based model that generates topically coherent segments within documents by jointly segmenting documents and assigning topics to their words. The coherence between topics is ensured through a copula, binding the topics associated to the words of a segment. In addition, this model relies on both document and segment specific topic distributions so as to capture fine-grained differences in topic assignments. We show that the proposed model naturally encompasses other state-of-the-art LDA-based models designed for similar tasks. Furthermore, our experiments, conducted on six different publicly available datasets, show the effectiveness of our model in terms of perplexity, Normalized Pointwise Mutual Information, which captures the coherence between the generated topics, and the Micro F1 measure for text classification
APA, Harvard, Vancouver, ISO, and other styles
8

Guo, Liang. "Facteurs macroéconomiques et risque de crédit." Paris 10, 2010. http://www.theses.fr/2010PA100024.

Full text
Abstract:
L’objectif de cette thèse est d’étudier l’impact des facteurs macroéconomiques sur le risque de crédit. Dans cette thèse, nous utilisons deux types de modèles qui permettent d'exploiter un grand nombre de séries. Le premier modèle utilisé fait référence au modèle GVAR (Global Vector AutoRegressive model) développé par Pesaran et al. (2004). Nous considérons un portefeuille fictif de 83 entreprises recouvrant 16 pays développés. Nous trouvons que les probabilités de défaut augmentent significativement en période de récession mais ne baissent pas pour autant en période de croissance. Nous confirmons également le fait que les entreprises de bon rating sont moins sensibles aux variations de la conjoncture économique que celles de mauvaise qualité. Le deuxième modèle étudié est le modèle factoriel dynamique du type FAVAR (Factor Augmented Vector Autoregressive Model), proposé par Stock et Watson (2005). Nous proposons deux applications empiriques, l'une centrée sur les Etats-unis, l'autre sur la Zone Euro. Nous trouvons que les facteurs communs expliquent relativement faiblement les taux de défaut des entreprises. Ce résultat démontre l’importance de la diversification des risques. Nous trouvons également que le facteur le plus explicatif du taux de défaut est le facteur lié à l'activité réelle, telle que la production et l'emploi. Un autre facteur explicatif important, est celui lié aux indices boursiers. Enfin, nous trouvons que la politique monétaire est loin d'être le facteur dominant pour déterminer les variations du taux de défaut. Les variations du taux directeur de la FeD n’apparaît donc pas être l’une des causes de la crise des Subprimes<br>The objective of this thesis is to study the impact of macroeconomic factors on credit risk. In this thesis, we use two types of models which allow us to exploit a great number of series. The first model refers to the Global VAR model (GVAR), developed by Pesaran and al. (2004). With the GVAR model, we consider a fictitious portfolio of 83 firms which cover 16 developed countries. We find that default rates increase significantly during the recession but do not drop so much during the expansion. In addition, we confirm the fact that the firms of good credit quality are less sensitive to the variations of the economic condition than those of poor quality. The second model is the dynamic factor model (FAVAR type, Factor augmented vector autoregression model), proposed by Stock and Watson (2005). We have two empirical applications, respectively in United States and in the Euro area. We find the common factors explain slightly the firms’ default rates. This reultat shows a great advantage of the diversification strategy. Moreover, we find that the factor the most explanatory for the default rate is the one related to real activity, such as production and employment. Another important explanatory factor, is the one associated to stock indexes. Finally, we find that the contribution of the interest rate shock to default rates remains limited. The subprime crisis is thus not caused by the changement of federal fund rates
APA, Harvard, Vancouver, ISO, and other styles
9

Tadde, Oladédji bachirou. "Modélisation dynamique des sphères anatomique, cognitive et fonctionnelle dans la maladie d’Alzheimer : une approche par processus latents." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0306/document.

Full text
Abstract:
En santé publique, l’étude de la progression d’une maladie chronique et de son mécanisme peut nécessiter la modélisation conjointe de plusieurs marqueurs longitudinaux et leur structure de dépendances. Des approches de modélisation existent dans la littérature pour répondre partiellement aux objectifs de modélisation. Ces approches deviennent rapidement coûteuses et difficiles à utiliser dans certaines maladies complexes à caractère latent, dynamique et multidimensionnel, comme la maladie d’Alzheimer. Dans un tel contexte, l’objectif de cette thèse était de proposer une méthodologie innovante pour modéliser la dynamique de plusieurs processus latents et leurs influences temporelles à des fins d’interprétations causales à partir d’observations répétées de marqueurs continus Gaussiens et non Gaussiens. L’approche proposée, centrée sur des processus latents, définit un modèle structurel pour la trajectoire des processus latents et un modèle d’observation pour lier les marqueurs longitudinaux aux processus qu’ils mesurent. Dans le modèle structurel, défini en temps discret, le niveau initial et le taux de variation des processus spécifiques aux individus sont modélisés par des modèles linéaires à effets mixtes. Le modèle du taux de variation comporte une composante auto-régressive d’ordre 1 qui permet de modéliser l’effet d’un processus sur un autre processus en tenant explicitement compte du temps. Le modèle structurel, tel que défini, bénéficie des mêmes interprétations causales que les modèles à équations différentielles (ODE) de l’approche mécaniste de la causalité tout en évitant les problèmes numériques de ces derniers. Le modèle d’observation utilise des fonctions de lien paramétrées pour que le modèle puisse être appliqué à des marqueurs longitudinaux possiblement non Gaussiens. La méthodologie a été validée par des études de simulations. Cette approche, appliquée à la maladie d’Alzheimer a permis de décrire conjointement la dynamique de l’atrophie de l’hippocampe, du déclin de la mémoire épisodique, du déclin de la fluence verbale et de la perte d’autonomie ainsi que les influences temporelles entre ces dimensions dans plusieurs phases de la maladie à partir des données ADNI<br>In public health, the study of the progression of a chronic disease and its mechanisms may require the joint modeling of several longitudinal markers and their dependence structure. Modeling approaches exist in the literature to partially address these modeling objectives. But these approaches become rapidly numerically expensive and difficult to use in some complex diseases involving latent, dynamic and multidimensional aspects, such as in Alzheimer’s disease. The aim of this thesis was to propose an innovative methodology for modeling the dynamics of several latent processes and their temporal influences for the purpose of causal interpretations, from repeated observations of continuous Gaussian and non Gaussian markers. The proposed latent process approach defines a structural model in discrete time for the latent processes trajectories and an observation model to relate longitudinal markers to the process they measure. In the structural model, the initial level and the rate of change of individual-specific processes are modeled by mixedeffect linear models. The rate of change model has a first order auto-regressive component that can model the effect of a process on another process by explicitly accounting for time. The structural model as defined benefits from the same causal interpretations as the models with differential equations (ODE) of the mechanistic approach of the causality while avoiding major numerical problems. The observation model uses parameterized link functions to handle possibly non-Gaussian continuous markers. The consistency of the ML estimators and the accuracy of the inference of the influence structures between the latent processes have been validated by simulation studies. This approach, applied to Alzheimer’s disease, allowed to jointly describe the dynamics of hippocampus atrophy, the decline of episodic memory, the decline of verbal fluency, and loss of autonomy as well as the temporal influences between these dimensions in several stages of Alzheimer’s dementia from the data of the ADNI initiative
APA, Harvard, Vancouver, ISO, and other styles
10

Balikas, Georgios. "Explorer et apprendre à partir de collections de textes multilingues à l'aide des modèles probabilistes latents et des réseaux profonds." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM054/document.

Full text
Abstract:
Le texte est l'une des sources d'informations les plus répandues et les plus persistantes. L'analyse de contenu du texte se réfère à des méthodes d'étude et de récupération d'informations à partir de documents. Aujourd'hui, avec une quantité de texte disponible en ligne toujours croissante l'analyse de contenu du texte revêt une grande importance parce qu' elle permet une variété d'applications. À cette fin, les méthodes d'apprentissage de la représentation sans supervision telles que les modèles thématiques et les word embeddings constituent des outils importants.L'objectif de cette dissertation est d'étudier et de relever des défis dans ce domaine.Dans la première partie de la thèse, nous nous concentrons sur les modèles thématiques et plus précisément sur la manière d'incorporer des informations antérieures sur la structure du texte à ces modèles.Les modèles de sujets sont basés sur le principe du sac-de-mots et, par conséquent, les mots sont échangeables. Bien que cette hypothèse profite les calculs des probabilités conditionnelles, cela entraîne une perte d'information.Pour éviter cette limitation, nous proposons deux mécanismes qui étendent les modèles de sujets en intégrant leur connaissance de la structure du texte. Nous supposons que les documents sont répartis dans des segments de texte cohérents. Le premier mécanisme attribue le même sujet aux mots d'un segment. La seconde, capitalise sur les propriétés de copulas, un outil principalement utilisé dans les domaines de l'économie et de la gestion des risques, qui sert à modéliser les distributions communes de densité de probabilité des variables aléatoires tout en n'accédant qu'à leurs marginaux.La deuxième partie de la thèse explore les modèles de sujets bilingues pour les collections comparables avec des alignements de documents explicites. En règle générale, une collection de documents pour ces modèles se présente sous la forme de paires de documents comparables. Les documents d'une paire sont écrits dans différentes langues et sont thématiquement similaires. À moins de traductions, les documents d'une paire sont semblables dans une certaine mesure seulement. Pendant ce temps, les modèles de sujets représentatifs supposent que les documents ont des distributions thématiques identiques, ce qui constitue une hypothèse forte et limitante. Pour le surmonter, nous proposons de nouveaux modèles thématiques bilingues qui intègrent la notion de similitude interlingue des documents qui constituent les paires dans leurs processus générateurs et d'inférence.La dernière partie de la thèse porte sur l'utilisation d'embeddings de mots et de réseaux de neurones pour trois applications d'exploration de texte. Tout d'abord, nous abordons la classification du document polylinguistique où nous soutenons que les traductions d'un document peuvent être utilisées pour enrichir sa représentation. À l'aide d'un codeur automatique pour obtenir ces représentations de documents robustes, nous démontrons des améliorations dans la tâche de classification de documents multi-classes. Deuxièmement, nous explorons la classification des tweets à plusieurs tâches en soutenant que, en formant conjointement des systèmes de classification utilisant des tâches corrélées, on peut améliorer la performance obtenue. À cette fin, nous montrons comment réaliser des performances de pointe sur une tâche de classification du sentiment en utilisant des réseaux neuronaux récurrents. La troisième application que nous explorons est la récupération d'informations entre langues. Compte tenu d'un document écrit dans une langue, la tâche consiste à récupérer les documents les plus similaires à partir d'un ensemble de documents écrits dans une autre langue. Dans cette ligne de recherche, nous montrons qu'en adaptant le problème du transport pour la tâche d'estimation des distances documentaires, on peut obtenir des améliorations importantes<br>Text is one of the most pervasive and persistent sources of information. Content analysis of text in its broad sense refers to methods for studying and retrieving information from documents. Nowadays, with the ever increasing amounts of text becoming available online is several languages and different styles, content analysis of text is of tremendous importance as it enables a variety of applications. To this end, unsupervised representation learning methods such as topic models and word embeddings constitute prominent tools.The goal of this dissertation is to study and address challengingproblems in this area, focusing on both the design of novel text miningalgorithms and tools, as well as on studying how these tools can be applied to text collections written in a single or several languages.In the first part of the thesis we focus on topic models and more precisely on how to incorporate prior information of text structure to such models.Topic models are built on the premise of bag-of-words, and therefore words are exchangeable. While this assumption benefits the calculations of the conditional probabilities it results in loss of information.To overcome this limitation we propose two mechanisms that extend topic models by integrating knowledge of text structure to them. We assume that the documents are partitioned in thematically coherent text segments. The first mechanism assigns the same topic to the words of a segment. The second, capitalizes on the properties of copulas, a tool mainly used in the fields of economics and risk management that is used to model the joint probability density distributions of random variables while having access only to their marginals.The second part of the thesis explores bilingual topic models for comparable corpora with explicit document alignments. Typically, a document collection for such models is in the form of comparable document pairs. The documents of a pair are written in different languages and are thematically similar. Unless translations, the documents of a pair are similar to some extent only. Meanwhile, representative topic models assume that the documents have identical topic distributions, which is a strong and limiting assumption. To overcome it we propose novel bilingual topic models that incorporate the notion of cross-lingual similarity of the documents that constitute the pairs in their generative and inference processes. Calculating this cross-lingual document similarity is a task on itself, which we propose to address using cross-lingual word embeddings.The last part of the thesis concerns the use of word embeddings and neural networks for three text mining applications. First, we discuss polylingual document classification where we argue that translations of a document can be used to enrich its representation. Using an auto-encoder to obtain these robust document representations we demonstrate improvements in the task of multi-class document classification. Second, we explore multi-task sentiment classification of tweets arguing that by jointly training classification systems using correlated tasks can improve the obtained performance. To this end we show how can achieve state-of-the-art performance on a sentiment classification task using recurrent neural networks. The third application we explore is cross-lingual information retrieval. Given a document written in one language, the task consists in retrieving the most similar documents from a pool of documents written in another language. In this line of research, we show that by adapting the transportation problem for the task of estimating document distances one can achieve important improvements
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography