To see the other types of publications on this topic, follow the link: Modélisation de copules.

Dissertations / Theses on the topic 'Modélisation de copules'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 23 dissertations / theses for your research on the topic 'Modélisation de copules.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cuberos, Andres. "Modélisation de la dépendance et estimation du risque agrégé." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10321/document.

Full text
Abstract:
Cette thèse porte sur l'étude de la modélisation et estimation de la dépendance des portefeuilles de risques et l'estimation du risque agrégé. Dans le Chapitre 2, nous proposons une nouvelle méthode pour estimer les quantiles de haut niveau pour une somme de risques. Elle est basée sur l'estimation du rapport entre la VaR de la somme et la VaR du maximum des risques. Nous utilisons des résultats sur les fonctions à variation régulière. Nous comparons l'efficacité de notre méthode avec quelques estimations basées sur la théorie des valeurs extrêmes, sur plusieurs modèles. Notre méthode donne de bons résultats lors de l'approximation de la VaR à des niveaux élevés lorsque les risques sont fortement dépendants et au moins l'un des risques est à queue épaisse. Dans le Chapitre 3, nous proposons une procédure d'estimation pour la distribution d'un risque agrégé basée sur la copule échiquier. Elle permet d'obtenir de bonnes estimations à partir d'un petit échantillon de la loi multivariée et une connaissance complète des lois marginales. Cette situation est réaliste pour de nombreuses applications. Les estimations peuvent être améliorées en incluant dans la copule échiquier des informations supplémentaires (sur la loi d'un sous-vecteur ou sur des probabilités extrêmes). Notre approche est illustrée par des exemples numériques. Finalement, dans le Chapitre 4, nous proposons un estimateur de la mesure spectrale basé sur l'estimation à noyau de la densité de la mesure spectrale d'une distribution à variation régulière bivariée. Une extension de notre méthode permet d'estimer la mesure spectrale discrète. Certaines propriétés de convergence sont obtenues<br>This thesis comprises three essays on estimation methods for the dependence between risks and its aggregation. In the first essay we propose a new method to estimate high level quantiles of sums of risks. It is based on the estimation of the ratio between the VaR (or TVaR) of the sum and the VaR (or TVaR) of the maximum of the risks. We use results on regularly varying functions. We compare the efficiency of our method with classical ones, on several models. Our method gives good results when approximating the VaR or TVaR in high levels on strongly dependent risks where at least one of the risks is heavy tailed. In the second essay we propose an estimation procedure for the distribution of an aggregated risk based on the checkerboard copula. It allows to get good estimations from a (quite) small sample of the multivariate law and a full knowledge of the marginal laws. This situation is realistic for many applications. Estimations may be improved by including in the checkerboard copula some additional information (on the law of a sub-vector or on extreme probabilities). Our approach is illustrated by numerical examples. In the third essay we propose a kernel based estimator for the spectral measure density of a bivariate distribution with regular variation. An extension of our method allows to estimate discrete spectral measures. Some convergence properties are obtained
APA, Harvard, Vancouver, ISO, and other styles
2

Chatelain, Simon. "Modélisation de la dépendance entre pré-extrêmes." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1267.

Full text
Abstract:
Le comportement extrême joint entre variables aléatoires revêt un intérêt particulier dans de nombreuses applications des sciences de l’environnement, de la finance, de l’assurance ou encore de la gestion du risque. Par exemple, ce comportement joue un rôle central dans l’évaluation des risques de catastrophes naturelles. Une erreur de spécification de la dépendance entre des variables aléatoires peut engendrer une sous-estimation dangereuse du risque, en particulier au niveau extrême. Le premier objectif de cette thèse est de développer des techniques d’inférence pour les copules Archimax. Ces modèles de dépendance peuvent capturer tout type de dépendance asymptotique entre les extrêmes et, de manière simultanée, modéliser les risques joints au niveau moyen. Une copule Archimax est caractérisée par ses deux paramètres fonctionnels, la fonction de dépendance caudale stable et le générateur Archimédien qui agit comme une distorsion affectant le régime de dépendance extrême. Des conditions sont dérivées afin que le générateur et la fonction caudale soient identifiables, de sorte qu’une approche d’inférence semi-paramétrique puisse être développée. Deux estimateurs non paramétriques de la fonction caudale et un estimateur du générateur basé sur les moments, supposant que ce dernier appartient à une famille paramétrique, sont avancés. Le comportement asymptotique de ces estimateurs est ensuite établi sous des hypothèses de régularité non restrictives et la performance en échantillon fini est évaluée par le biais d’une étude de simulation. Une construction hiérarchique (ou en “clusters”) qui généralise les copules Archimax est proposée afin d’apporter davantage de flexibilité, la rendant plus adaptée aux applications pratiques. Le comportement extrême de ce nouveau modèle de dépendance est ensuite étudié, ce qui engendre un nouvelle manière de construire des fonctions de dépendance caudale stable. La copule Archimax est ensuite utilisée pour analyser les maxima mensuels de précipitations, observées à trois stations météorologiques en Bretagne. Le modèle semble très bien ajusté aux données, aussi bien aux précipitations faibles qu’aux précipitationsfortes. L’estimateur non paramétrique de la fonction caudale révèle une dépendance extrême asymétrique entre les stations, ce qui reflète le déplacement des orages dans la région. Une application du modèle Archimax hiérarchique à un jeu de données de précipitations contenant 155 stations est ensuite présentée, dans laquelle des groupes de stations asymptotiquement dépendantes sont déterminés via un algorithme de “clustering” spécifiquement adapté au modèle. Enfin, de possibles méthodes pour modéliser la dépendance inter-cluster sont évoquées<br>In various applications in environmental sciences, finance, insurance or risk management, joint extremal behavior between random variables is of particular interest. For example, this plays a central role in assessing risks of natural disasters. Misspecification of the dependence between random variables can lead to substantial underestimation of risk, especially at extreme levels. This thesis develops inference techniques for Archimax copulas. These copula models can account for any type of asymptotic dependence between extremes and at the same time capture joint risks at medium levels. An Archimax copula is characterized by two functional parameters, the stable tail dependence function (stdf), and the Archimedean generator which acts as a distortion of the extreme-value dependence model. Conditions under which the generator and the stdf are identifiable are derived so that a semiparametric approach for inference can be developed. Two nonparametric estimators of the stdf and a moment-based estimator of the generator, which assumes that the latter belongs to a parametric family, are proposed. The asymptotic behavior of the estimators is then established under broad regularity conditions; performance in small samples is assessed through a comprehensive simulation study. In the second part of the thesis, Archimax copulas are generalized to a clustered constructions in order to bring in more flexibility, which is needed in practical applications. The extremal behavior of this new dependence model is derived herein. Finally, the methodology proposed herein is illustrated on precipitation data. First, a trivariate Archimax copula is used to analyze monthly rainfall maxima at three stations in French Brittany. The model is seen to fit the data very well, both in the lower and in the upper tail. The nonparametric estimator of the stdf reveals asymmetric extremal dependence between the stations, which reflects heavy precipitation patterns in the area. An application of the clustered Archimax model to a precipitation dataset containing 155 stations is then presented, where groups of asymptotically dependent stations are determined via a specifically tailored clustering algorithm. Finally, possible ways to model inter cluster dependence are discussed
APA, Harvard, Vancouver, ISO, and other styles
3

Amoualian, Hesam. "Modélisation et apprentissage de dépendances á l’aide de copules dans les modéles probabilistes latents." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM078/document.

Full text
Abstract:
Ce travail de thése a pour objectif de s’intéresser à une classe de modèles hiérarchiques bayesiens, appelés topic models, servant à modéliser de grands corpus de documents et ceci en particulier dans le cas où ces documents arrivent séquentiellement. Pour cela, nous introduisons au Chapitre 3, trois nouveaux modèles prenant en compte les dépendances entre les thèmes relatifs à chaque document pour deux documents successifs. Le premier modèle s’avère être une généralisation directe du modèle LDA (Latent Dirichlet Allocation). On utilise une loi de Dirichlet pour prendre en compte l’influence sur un document des paramètres relatifs aux thèmes sous jacents du document précédent. Le deuxième modèle utilise les copules, outil générique servant à modéliser les dépendances entre variables aléatoires. La famille de copules utilisée est la famille des copules Archimédiens et plus précisément la famille des copules de Franck qui vérifient de bonnes propriétés (symétrie, associativité) et qui sont donc adaptés à la modélisation de variables échangeables. Enfin le dernier modèle est une extension non paramétrique du deuxième. On intègre cette fois ci lescopules dans la construction stick-breaking des Processus de Dirichlet Hiérarchique (HDP). Nos expériences numériques, réalisées sur cinq collections standard, mettent en évidence les performances de notre approche, par rapport aux approches existantes dans la littérature comme les dynamic topic models, le temporal LDA et les Evolving Hierarchical Processes, et ceci à la fois sur le plan de la perplexité et en terme de performances lorsqu’on cherche à détecter des thèmes similaires dans des flux de documents. Notre approche, comparée aux autres, se révèle être capable de modéliser un plus grand nombre de situations allant d’une dépendance forte entre les documents à une totale indépendance. Par ailleurs, l’hypothèse d’échangeabilité sous jacente à tous les topics models du type du LDA amène souvent à estimer des thèmes différents pour des mots relevant pourtant du même segment de phrase ce qui n’est pas cohérent. Dans le Chapitre 4, nous introduisons le copulaLDA (copLDA), qui généralise le LDA en intégrant la structure du texte dans le modèle of the text et de relaxer l’hypothèse d’indépendance conditionnelle. Pour cela, nous supposons que les groupes de mots dans un texte sont reliés thématiquement entre eux. Nous modélisons cette dépendance avec les copules. Nous montrons de manièreempirique l’efficacité du modèle copLDA pour effectuer à la fois des tâches de natureintrinsèque et extrinsèque sur différents corpus accessibles publiquement. Pour compléter le modèle précédent (copLDA), le chapitre 5 présente un modèle de type LDA qui génére des segments dont les thèmes sont cohérents à l’intérieur de chaque document en faisant de manière simultanée la segmentation des documents et l’affectation des thèmes à chaque mot. La cohérence entre les différents thèmes internes à chaque groupe de mots est assurée grâce aux copules qui relient les thèmes entre eux. De plus ce modèle s’appuie tout à la fois sur des distributions spécifiques pour les thèmes reliés à chaque document et à chaque groupe de mots, ceci permettant de capturer les différents degrés de granularité. Nous montrons que le modèle proposé généralise naturellement plusieurs modèles de type LDA qui ont été introduits pour des tâches similaires. Par ailleurs nos expériences, effectuées sur six bases de données différentes mettent en évidence les performances de notre modèle mesurée de différentes manières : à l’aide de la perplexité, de la Pointwise Mutual Information Normalisée, qui capture la cohérence entre les thèmes et la mesure Micro F1 measure utilisée en classification de texte<br>This thesis focuses on scaling latent topic models for big data collections, especiallywhen document streams. Although the main goal of probabilistic modeling is to find word topics, an equally interesting objective is to examine topic evolutions and transitions. To accomplish this task, we propose in Chapter 3, three new models for modeling topic and word-topic dependencies between consecutive documents in document streams. The first model is a direct extension of Latent Dirichlet Allocation model (LDA) and makes use of a Dirichlet distribution to balance the influence of the LDA prior parameters with respect to topic and word-topic distributions of the previous document. The second extension makes use of copulas, which constitute a generic tool to model dependencies between random variables. We rely here on Archimedean copulas, and more precisely on Franck copula, as they are symmetric and associative and are thus appropriate for exchangeable random variables. Lastly, the third model is a non-parametric extension of the second one through the integration of copulas in the stick-breaking construction of Hierarchical Dirichlet Processes (HDP). Our experiments, conducted on five standard collections that have been used in several studies on topic modeling, show that our proposals outperform previous ones, as dynamic topic models, temporal LDA and the Evolving Hierarchical Processes,both in terms of perplexity and for tracking similar topics in document streams. Compared to previous proposals, our models have extra flexibility and can adapt to situations where there are no dependencies between the documents.On the other hand, the "Exchangeability" assumption in topic models like LDA oftenresults in inferring inconsistent topics for the words of text spans like noun-phrases, which are usually expected to be topically coherent. In Chapter 4, we propose copulaLDA (copLDA), that extends LDA by integrating part of the text structure to the model and relaxes the conditional independence assumption between the word-specific latent topics given the per-document topic distributions. To this end, we assume that the words of text spans like noun-phrases are topically bound and we model this dependence with copulas. We demonstrate empirically the effectiveness of copLDA on both intrinsic and extrinsic evaluation tasks on several publicly available corpora. To complete the previous model (copLDA), Chapter 5 presents an LDA-based model that generates topically coherent segments within documents by jointly segmenting documents and assigning topics to their words. The coherence between topics is ensured through a copula, binding the topics associated to the words of a segment. In addition, this model relies on both document and segment specific topic distributions so as to capture fine-grained differences in topic assignments. We show that the proposed model naturally encompasses other state-of-the-art LDA-based models designed for similar tasks. Furthermore, our experiments, conducted on six different publicly available datasets, show the effectiveness of our model in terms of perplexity, Normalized Pointwise Mutual Information, which captures the coherence between the generated topics, and the Micro F1 measure for text classification
APA, Harvard, Vancouver, ISO, and other styles
4

Ben, Hafsa Mohamed Elyes. "Modélisation statistique des collections d'images en utilisant les modèles de copules et application à l'indexation d'images." Thèse, Université du Québec à Trois-Rivières, 2011. http://depot-e.uqtr.ca/5167/1/030350177.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Depire, Alexandre. "Modélisation Markovienne – Modèles de régression de copules et valeurs extrêmes – Application aux systèmes d’aide à la conduite." Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000749.pdf.

Full text
Abstract:
Cette thèse s'organise en deux grandes parties. La première partie porte sur le système d'aide à la conduite ACC. Nous étudions les stratégies de conduite et confirmons une hypothèse de F. Saad dans le premier chapitre. Le second chapitre aborde les automates cellulaires. Le troisième chapitre propose la validation d'une hypothèse dans le domaine de la psychologie de la conduite par l'utilisation de la modélisation markovienne. Le dernier chapitre porte sur la modélisation markovienne avec exogènes. Nous comparons avec une modélisation classique. Un cadre théorique est présente. L'étude d'outils pour l'évaluation d'un système d'aide à la conduite par le biais d'une comparaison avec/sans et cela sur des données réelles non contrôlées est central. Ceci nous a amené à considérer la notion de scène pouvant se définir comme la modification de la dépendance entre plusieurs indicateurs. L’objet central dans la dépendance est la copule, cœur de la seconde partie. Le premier chapitre est un état de l'art, évoque les mesures de dépendance et la fonction de linkage. Le second chapitre aborde une mesure de dépendance multivariée. Nous démontrons une formule de décomposition de l'information mutuelle. Le troisième expose une extension du modèle de cox au cas bivarié s'appuyant sur les copules de valeurs extrêmes. Des résultats d'approximation et de convergence sont prouvés. Pour conclure, une application est présentée sur les données du système lavia (limiteur de vitesse s'adaptant à la vitesse autorisée). Le quatrième chapitre porte l'estimation de la fonction de dépendance d'une copule bivariée. On démontre la convergence uniforme ainsi que la loi asymptotique de notre estimateur<br>The thesis gets organized in two major parties. The first part turns on the intelligent transportation system (autonomous cruise control). In the first chapter we study strategies of drivers and confirm a hypothesis of F. Saad. The second chapter tackles the cellular automaton. The third chapter suggests validation of an assumption in the field of the driver psychology by the use of the markovian models. The last chapter deals with the input-output hidden markov models. A theoretical framework is presented. The main purpose is the study of tools for the evaluation of such systems through data with / without the system and real data, not controlled. The important notion is the concept of scene, as defined the changes in the dependence between several indicators. The central object in the dependence is the copula, the heart of the second part. The first chapter is a state of the art, refer to the measures of dependence and function of linkage. The second chapter tackles a measure of a multivariate dependence. We demonstrate a formula about the mutual information. In the third chapter, an extension of the cox model in bivariate case is presented, based on extreme value copulas. Some approximation results and the convergence are proved. We give an application on real data from lavia system (speed limiter). The fourth chapter is about the estimating of the dependence function in the bivariate case. We prove the uniform convergence and give the asymptotic law of our estimator
APA, Harvard, Vancouver, ISO, and other styles
6

Bosc, Damien. "Trois essais sur la modélisation de la dépendance entre actifs financiers." Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00721674.

Full text
Abstract:
Cette thèse porte sur deux aspects de la dépendance entre actifs financiers. La première partie concerne la dépendance entre vecteurs aléatoires. Le premier chapitre consiste en une comparaison d'algorithmes calculant l'application de transport optimal pour le coût quadratique entre deux probabilités sur R^n, éventuellement continues. Ces algorithmes permettent de calculer des couplages ayant une propriété de dépendance extrême, dits couplage de corrélation maximale, qui apparaissent naturellement dans la définition de mesures de risque multivariées. Le second chapitre propose une définition de la dépendance extrême entre vecteurs aléatoires s'appuyant sur la notion de covariogramme ; les couplages extrêmes sont caractérisés comme des couplages de corrélation maximale à modification linéaire d'une des marginales multivariées près. Une méthode numérique permettant de calculer ces couplages est fournie, et des applications au stress-test de dépendance pour l'allocation de portefeuille et la valorisation d'options européennes sur plusieurs sous-jacents sont détaillées. La dernière partie décrit la dépendance spatiale entre deux diffusions markoviennes, couplées à l'aide d'une fonction de corrélation dépendant de l'état des deux diffusions. Une EDP de Kolmogorov forward intégrée fait le lien entre la famille de copules spatiales de la diffusion et la fonction de corrélation. On étudie ensuite le problème de la dépendance spatiale atteignable par deux mouvements Browniens, et nos résultats montrent que certaines copules classiques ne permettent pas de décrire la dépendance stationnaire entre des mouvements Browniens couplés.
APA, Harvard, Vancouver, ISO, and other styles
7

Tankov, Peter. "Processus de Lévy en Finance : Problèmes Inverses et Modélisation de Dépendance." Phd thesis, Ecole Polytechnique X, 2004. http://tel.archives-ouvertes.fr/tel-00007944.

Full text
Abstract:
Cette thèse traite de la modélisation de prix boursiers par les exponentielles de processus de Lévy. La première partie développe une méthode non-paramétrique stable de calibration de modèles exponentielle-Lévy, c'est-à-dire de reconstruction de ces modèles à partir des prix d'options cotées sur un marché financier. J'étudie les propriétés de convergence et de stabilité de cette méthode de calibration, décris sa réalisation numérique et donne des exemples de son utilisation. L'approche adoptée ici consiste à reformuler le problème de calibration comme celui de trouver un modèle exponentielle-Lévy risque-neutre qui reproduit les prix d'options cotées avec la plus grande précision possible et qui a l'entropie relative minimale par rapport à un processus "a priori" donné. Ce problème est alors résolu en utilisant la méthode de régularisation, provenant de la théorie de problèmes inverses mal posés. L'application de ma méthode de calibration aux données empiriques de prix d'options sur indice permet d'étudier certaines propriétés des mesures de Lévy implicites qui correspondent aux prix de marché. <br /><br />La deuxième partie est consacrée au développement d'une méthode permettant de caractériser les structures de dépendance entre les composantes d'un processus de Lévy multidimensionnel et de construire des modèles exponentielle-Lévy multidimensionnels. Cet objectif est atteint grâce à l'introduction de la notion de copule de Lévy, qui peut être considérée comme l'analogue pour les processus de Lévy de la notion de copule, utilisée en statistique pour modéliser la dépendance entre les variables aléatoires réelles. Les exemples de familles paramétriques de copules de Lévy sont donnés et une méthode de simulation de processus de Lévy multidimensionnels, dont la structure de dépendance est décrite par une copule de Lévy, est proposée.
APA, Harvard, Vancouver, ISO, and other styles
8

Vrac, Mathieu. "Analyse et modélisation de données probabilistes par décomposition de mélange de copules et application à une base de données climatologiques." Phd thesis, Université Paris Dauphine - Paris IX, 2002. http://tel.archives-ouvertes.fr/tel-00002386.

Full text
Abstract:
Nous étendons les méthodes de décomposition de mélange de densités de probabilité au cas des données "fonctions de répartition", permettant ainsi de classifier ces fonctions et de modéliser une loi pour ces données fonctionnelles particulières. Cette loi est donnée par la notion de "fonctions de distribution de distributions" (FDD), basée sur la définition d'une fonction de répartition pour des variables aléatoires à valeurs dans un espace probabiliste. Les extensions sont effectuées en associant les FDD aux fonctions "copules" par le théorème de Sklar. Les copules "couplent" les fonctions de répartition à n dimensions (jointes) et à 1-dimension (marginales) d'un n-uplet de variables aléatoires. Nous regardons principalement une classe de copules paramétriques, les copules Archimédiennes, et proposons trois nouvelles méthodes d'estimation des paramètres dans le cas de copules multivariées : par coefficients de corrélation de Kendall, de Spearman, et par maximisation de la vraisemblance. L'association des FDD et des copules caractérise l'évolution des données fonctionnelles (i.e. la forme de ces fonctions) entre différents points à l'intérieur des classes pour chaque variable, et donne une mesure de dépendance entre les variables utilisées. Les méthodes sont tout d'abord développées pour une variable, puis divers généralisations sont proposées pour n dimensions. Certains points théoriques sont ensuite discutés, tels que la convergence de l'algorithme et le fait que la méthode par copules est une généralisation du cas classique. Une application de la méthode "approche classification" par copules est réalisée sur des données climatiques de l'atmosphère terrestre. Le but est la classification de "profils" atmosphériques et l'estimation de la loi sous-jacente des données. Les résultats sont comparés avec ceux de méthodes "classiques", prouvant ainsi les performances nettement supérieures de la méthode par décomposition de mélange de copules (DMC) et l'intérêt de l'utilisation des données probabilistes.
APA, Harvard, Vancouver, ISO, and other styles
9

Araichi, Sawssen. "Modélisation de la dépendance temporelle des sinistres en assurance non vie et enjeux de l’évaluation du Passif." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10170/document.

Full text
Abstract:
Initialement, la modélisation des risques en assurance non vie, supposait l'indépendance entre les différentes variables des modèles actuariels. De nos jours, cette hypothèse d'indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments. Cette thèse a pour but de contribuer à la littérature existante de la modélisation de la dépendance en assurance non vie. Concrètement, nous introduisons une nouvelle méthodologie d'analyse des risques en assurance à travers le développement des modèles de dépendance, principalement dans un cadre dynamique. Dans le premier chapitre de la thèse nous introduisons le contexte actuel de solvabilité, ainsi que la modélisation de la dépendance en assurance, avec une présentation des principaux résultats. Le deuxième chapitre est essentiellement constitué d'un article coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Modelling Temporal Dependence of Claims In Insurance Using Autoregressive Conditional Amount Models" (voir Araichi et al. (2013)). Dans ce chapitre nous montrons l'existence d'une forme de dépendance temporelle (dynamique) entre les montants de sinistres d'une même branche d'assurance. Nous proposons un nouveau modèle nommé Autoregressive Conditional Amount Model (ACA), qui permet de capturer le comportement dynamique des sinistres. Également, nous développons un nouveau modèle nommé Generalized Extreme Value ACA model (GEVACA), afin d'analyser la dépendance dynamique des montants élevés, au niveau des queues de distribution. Enfin, nous donnons une nouvelle expression pour la Value at Risk (VaR) paramétrique adaptée pour des risques à dépendance temporelle. Des applications sur des données réelles et des techniques de backtesting sont ensuite effectuées afin de montrer la pertinence des modèles proposés. Le troisième chapitre est constitué d'un article coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Generalized Autoregressive Conditional Sinistrality Model : A novel model for claims reserving in Non life insurance", (voir Araichi et al. (2015)). Dans ce chapitre, nous abordons d'abord le problème de l'évaluation des réserves dans un cadre dynamique. Nous montrons l'existence d'une forme de dépendance dynamique dans un triangle de liquidation. En particulier, nous nous intéressons à l'analyse de la dépendance temporelle entre les sinistres, ainsi qu'entre les années de développement. Nous proposons un nouveau modèle nommé "Generalized Autoregressive Conditional Sinistrality Model (GACSM), qui constitue une extension du modèle linéaire généralisé classique. Ensuite, nous fournissons une méthode de simulation bootstrap basée sur le modèle GACSM, qui permet d'évaluer les réserves en tenant compte du caractère dynamique des sinistres. Enfin, afin de montrer l'impact du modèle proposé sur l'évaluation des réserves et du capital, nous effectuons une comparaison des résultats obtenus avec ceux obtenus des modèles classiques (Chain Ladder et modèle linéaire généralisé). Dans le quatrième chapitre de la thèse, qui est constitué d'un article, coécrit avec Christian de Peretti et Lotfi Belkacem, intitulé "Time Varying Copula Model for claims reserving in Non life insurance". Nous intéressons à évaluer le montant agrégé des sinistres, en analysant conjointement la dépendance dynamique inter-sinistres ainsi qu'entre les sinistres de deux branches. Nous proposons un modèle basé sur le modèle GACSM et les copules conditionnelles, qui permettent de suivre l'évolution de la dépendance au cours du temps. Enfin, nous effectuons des applications sur des données réelles, ainsi que des méthodes de simulation sont considérées. En comparant les résultats obtenus, nous avons pu illustrer l'impact de la dépendance dynamique sur les réserves et le besoin en capital<br>In this thesis a different aspects of dependence modeling are considered. Indeed, temporal dependence structures between claims amounts and between lines of business are analyzed. In the first chapter, a general introduction on modeling dependence in insurance is provided. The second chapter is essentially constituted by the article "Modeling Temporal Dependence of Claims In Insurance Using Autoregressive Conditional Amount Models", written with Christian de Peretti and Lotfi Belkacem, (see Araichi et al. (2013)) It deals with the problem of existing a temporal dependence structure between claims amounts of one line of business. To this end, we propose a new model for handling the dynamic behaviour of claims amounts in insurance companies using an Autoregressive Conditional Amount (ACA) framework. This model will be named Autoregressive Conditional Amount Model (ACA). A Gamma ACA model and a Generalized Extreme Value ACA model are proposed. It is shown that these models are more appropriate to describe and to forecast the process of claims of the lines Auto Damage and Auto Liability than traditional models. Furthermore, a parametric Value at Risk based on ACA framework (VaR ACA) is proposed for evaluating a coverage amount of these claims. Using backtesting techniques, the VaR ACA provides an accurate estimation of risk. The third chapter of this thesis is based on the article "Generalized Autoregressive Conditional Sinistrality Model: A novel model for claims reserving in Non life insurance", written with Christian de Peretti and Lotfi Belkacem, (see Araichi et al. (2015)). In this chapter, a Generalized Autoregressive Conditional Sinistrality Model (GACSM) for claims is proposed. We extend the Generalized Linear Model (GLM) by incorporating temporal dependence between claims amounts of one triangle. The GACSM is used for model parameter estimation and consistency of such estimate is proved. Bootstrap procedure is implemented for prediction reserves and prediction errors. Results show that taking into account the temporal dependence between losses improves the precision of the reserve distribution estimate, and thus evaluates an accurate SCR. Finally the fourth chapter is based on the article "Time Varying Copula Model for claims reserving in Non life insurance", written with Christian de Peretti and LotfiBelkacem. In this chapter, a time varying copula models to understand the behavior of claims amounts of two lines of business. Time varying copula functions with a Generalized Autoregressive Conditional Sinistrality model are used to analyze the evolution in time of dependence between two lines and the temporal dependence between claims of each line. Simulation study is performed to highlight the impact on reserves and Solvency Capital Requirement. Results show that our approach provides a diversification effect between claims amounts
APA, Harvard, Vancouver, ISO, and other styles
10

Toupin, Marie-Hélène. "La copule khi-carré et son utilisation en statistique spatiale et pour la modélisation de données multidimensionnelles." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/27977.

Full text
Abstract:
Cette thèse étudie les propriétés des copules appartenant à la famille khi-carré. Il s’agit d’une généralisation des copules normales multidimensionnelles obtenue en élevant au carré les composantes d’un vecteur de variables aléatoires normales. Ces copules sont indicées par une matrice de corrélation et par un paramètre de forme. Cette thèse montre comment cette famille de copules peut être utilisée pour faire de l’interpolation spatiale et pour modéliser des données multidimensionnelles. Dans un premier temps, l’utilité de cette classe de structures de dépendance est démontrée par le biais d’une application en statistique spatiale. Un problème important dans ce contexte est de prévoir la valeur d’un champ aléatoire stationnaire en une position où il n’a pas été observé. Cette thèse montre comment construire de telles prévisions à l’aide de modèles spatiaux basés sur les copules. L’accent est mis sur l’utilisation de la famille des copules khi-carré dans ce contexte. Il faut d’abord supposer que la matrice de corrélation a une forme paramétrique standard, telle celle de Matérn, indicée par un paramètre inconnu associé à la force de l’association spatiale. Ce paramètre est d’abord estimé à l’aide d’une pseudo-vraisemblance composite construite à partir des lois bidimensionnelles des données observées. Ensuite, une méthode d’interpolation spatiale utilisant les rangs des observations est suggérée afin d’approximer la meilleure prévision du champ aléatoire à une position non observée. Dans un deuxième temps, les propriétés fondamentales des copules khi-carré sont étudiées en détail. Cette famille de copules permet une grande flexibilité quant à la modélisation de données multidimensionnelles. Dans le cas bivarié, ces copules s’adaptent à de la dépendance autant symétrique qu’asymétrique. En dimension plus grande, le paramètre de forme contrôle le degré d’asymétrie radiale des distributions marginales bidimensionnelles. Des procédures d’estimation de la matrice de corrélation et du paramètre de forme sont comparées dans le cas de répétitions indépendantes et identiquement distribuées. Enfin, des formules de l’espérance conditionnelle pour la meilleure prévision dans un contexte spatiale sont établies. Finalement, des tests d’adéquation basés sur des moments pour la famille des copules khi-carré sont développés. Ces nouveaux tests peuvent être appliqués à un ensemble de données de n’importe quelle dimension. Ces procédures reposent sur deux mesures d’association basées sur les rangs des observations ce qui évite d’avoir à spécifier les lois marginales. Il est démontré que le comportement conjoint de ces deux mesures est asymptotiquement normal. L’efficacité des nouvelles procédures d’adéquation est démontrée via une étude de simulations et est comparée à un test d’adéquation classique basé sur la copule empirique.<br>This thesis studies the properties of the family of chi-square copulas. This is a generalization of the multidimensional normal copulas obtained by squaring the components of normal random vector. These copulas are indexed by a correlation matrix and by a shape parameter. This thesis shows how this family can be used to perform spatial interpolation and to model multidimensional data. First, the usefulness of this class of dependence structures is demonstrated with an application in spatial statistics. An important problem in that context is to predict the value of a stationary random field at a position where it has not been observed. This thesis shows how to construct such predictions using spatial models based on copulas. One focusses on the use of the family of chi-square copulas in that context. One must first assumes that the correlation matrix has a standard parametric form, such as that of Matérn, indexed by an unknown parameter associated with the force of the spatial association. This parameter is first estimated using a composite pseudo-likelihood constructed from the bivariate distributions of the observed data. Then, a spatial interpolation method using the ranks of the observations is suggested to approximate the best prediction of the random field at an unobserved position under a chi-square copula. In a second work, the fundamental properties of the chi-square copulas are studied in detail. This family allows a lot of flexibility to model multidimensional data. In the bivariate case, this family is adapted to symmetric and asymmetric dependence structures. In larger dimensions, the shape parameter controls the degree of radial asymmetry of the two-dimensional marginal distributions. Parameter estimation procedures of the correlation matrix and of the shape parameter are compared under independent and identically distributed repetitions. Finally, the formulas of the conditional expectation for the best prediction in a spatial context are established. Goodness-of-fit tests for the family of chi-square copulas are then developed. These new tests can be applied to data in any dimension. These procedures are based on two association measures based on the ranks of the observations, which avoids having to specify the marginal distributions. It is shown that the joint behavior of these two measures is asymptotically normal. The efficiency of the new goodness-of-fit procedures is demonstrated through a simulation study and is compared to a classical goodness-of-fit test based on the empirical copula.
APA, Harvard, Vancouver, ISO, and other styles
11

Di, Bernardino Éléna. "Modélisation de la dépendance et mesures de risque multidimensionnelles." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00838598.

Full text
Abstract:
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant " Estimating Bivariate Tail : a copula based approach ", soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: " A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation", soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant " Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory", accepté pour publication dans la revue ESAIM:Probability and Statistics.
APA, Harvard, Vancouver, ISO, and other styles
12

Mtalai, Itre. "Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32983.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019<br>La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues.<br>Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
APA, Harvard, Vancouver, ISO, and other styles
13

Caniou, Yann. "Analyse de sensibilité globale pour les modèles de simulation imbriqués et multiéchelles." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00864175.

Full text
Abstract:
Cette thèse est une contribution à la modélisation imbriquée de systèmes complexes. Elle propose une méthodologie globale pour quantifier les incertitudes et leurs origines dans une chaîne de calcul formée par plusieurs modèles pouvant être reliés les uns aux autres de façon complexe. Ce travail est organisé selon trois axes. D'abord, la structure dedépendance des paramètres du modèle, induite par la modélisation imbriquée, est modélisée de façon rigoureuse grâce à la théorie des copules. Puis, deux méthodes d'analyse de sensibilité adaptées aux modèles à paramètres d'entrée corrélés sont présentées : l'une est basée sur l'analyse de la distribution de la réponse du modèle, l'autre sur la décomposition de la covariance. Enfin, un cadre de travail inspiré de la théorie des graphes est proposé pour la description de l'imbrication des modèles. La méthodologie proposée est appliquée à des exemples industriels d'envergure : un modèle multiéchelles de calcul des propriétés mécaniques du béton par une méthode d'homogénéisation et un modèle multiphysique de calcul de dommage sur la culasse d'un moteur diesel. Les résultats obtenus fournissent des indications importantes pour une amélioration significative de la performance d'une structure.
APA, Harvard, Vancouver, ISO, and other styles
14

Kosgodagan, Alex. "High-dimensional dependence modelling using Bayesian networks for the degradation of civil infrastructures and other applications." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0020/document.

Full text
Abstract:
Cette thèse explore l’utilisation des réseaux Bayésiens (RB) afin de répondre à des problématiques de dégradation en grandes dimensions concernant des infrastructures du génie civil. Alors que les approches traditionnelles basées l’évolution physique déterministe de détérioration sont déficientes pour des problèmes à grande échelle, les gestionnaires d’ouvrages ont développé une connaissance de modèles nécessitant la gestion de l’incertain. L’utilisation de la dépendance probabiliste se révèle être une approche adéquate dans ce contexte tandis que la possibilité de modéliser l’incertain est une composante attrayante. Le concept de dépendance au sein des RB s’exprime principalement de deux façons. D’une part, les probabilités conditionnelles classiques s’appuyant le théorème de Bayes et d’autre part, une classe de RB faisant l’usage de copules et corrélation de rang comme mesures de dépendance. Nous présentons à la fois des contributions théoriques et pratiques dans le cadre de ces deux classes de RB ; les RB dynamiques discrets et les RB non paramétriques, respectivement. Des problématiques concernant la paramétrisation de chacune des classes sont également abordées. Dans un contexte théorique, nous montrons que les RBNP permet de caractériser n’importe quel processus de Markov<br>This thesis explores high-dimensional deterioration-related problems using Bayesian networks (BN). Asset managers become more and more familiar on how to reason with uncertainty as traditional physics-based models fail to fully encompass the dynamics of large-scale degradation issues. Probabilistic dependence is able to achieve this while the ability to incorporate randomness is enticing.In fact, dependence in BN is mainly expressed in two ways. On the one hand, classic conditional probabilities that lean on thewell-known Bayes rule and, on the other hand, a more recent classof BN featuring copulae and rank correlation as dependence metrics. Both theoretical and practical contributions are presented for the two classes of BN referred to as discrete dynamic andnon-parametric BN, respectively. Issues related to the parametrization for each class of BN are addressed. For the discrete dynamic class, we extend the current framework by incorporating an additional dimension. We observed that this dimension allows to have more control on the deterioration mechanism through the main endogenous governing variables impacting it. For the non-parametric class, we demonstrate its remarkable capacity to handle a high-dimension crack growth issue for a steel bridge. We further show that this type of BN can characterize any Markov process
APA, Harvard, Vancouver, ISO, and other styles
15

Said, Khalil. "Mesures de risque multivariées et applications en science actuarielle." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1245.

Full text
Abstract:
L'entrée en application depuis le 1er Janvier 2016 de la réforme réglementaire européenne du secteur des assurances Solvabilité 2 est un événement historique qui va changer radicalement les pratiques en matière de gestion des risques. Elle repose sur une prise en compte importante du profil et de la vision du risque, via la possibilité d'utiliser des modèles internes pour calculer les capitaux de solvabilité et l'approche ORSA (Own Risk and Solvency Assessment) pour la gestion interne du risque. La modélisation mathématique est ainsi un outil indispensable pour réussir un exercice réglementaire. La théorie du risque doit être en mesure d'accompagner ce développement en proposant des réponses à des problématiques pratiques, liées notamment à la modélisation des dépendances et aux choix des mesures de risques. Dans ce contexte, cette thèse présente une contribution à l'amélioration de la gestion des risques actuariels. En quatre chapitres nous présentons des mesures multivariées de risque et leurs applications à l'allocation du capital de solvabilité. La première partie de cette thèse est consacrée à l'introduction et l'étude d'une nouvelle famille de mesures multivariées élicitables de risque qu'on appellera des expectiles multivariés. Son premier chapitre présente ces mesures et explique les différentes approches utilisées pour les construire. Les expectiles multivariés vérifient un ensemble de propriétés de cohérence que nous abordons aussi dans ce chapitre avant de proposer un outil d'approximation stochastique de ces mesures de risque. Les performances de cette méthode étant insuffisantes au voisinage des niveaux asymptotiques des seuils des expectiles, l'analyse théorique du comportement asymptotique est nécessaire, et fera le sujet du deuxième chapitre de cette partie. L'analyse asymptotique est effectuée dans un environnement à variations régulières multivariées, elle permet d'obtenir des résultats dans le cas des queues marginales équivalentes. Nous présentons aussi dans le deuxième chapitre le comportement asymptotique des expectiles multivariés sous les hypothèses précédentes en présence d'une dépendance parfaite, ou d'une indépendance asymptotique, et nous proposons à l'aide des statistiques des valeurs extrêmes des estimateurs de l'expectile asymptotique dans ces cas. La deuxième partie de la thèse est focalisée sur la problématique de l'allocation du capital de solvabilité en assurance. Elle est composée de deux chapitres sous forme d'articles publiés. Le premier présente une axiomatisation de la cohérence d'une méthode d'allocation du capital dans le cadre le plus général possible, puis étudie les propriétés de cohérence d'une approche d'allocation basée sur la minimisation d'indicateurs multivariés de risque. Le deuxième article est une analyse probabiliste du comportement de cette dernière approche d'allocation en fonction de la nature des distributions marginales des risques et de la structure de la dépendance. Le comportement asymptotique de l'allocation est aussi étudié et l'impact de la dépendance est illustré par différents modèles marginaux et différentes copules. La présence de la dépendance entre les différents risques supportés par les compagnies d'assurance fait de l'approche multivariée une réponse plus appropriée aux différentes problématiques de la gestion des risques. Cette thèse est fondée sur une vision multidimensionnelle du risque et propose des mesures de nature multivariée qui peuvent être appliquées pour différentes problématiques actuarielles de cette nature<br>The entry into force since January 1st, 2016 of Solvency 2, the European regulatory reform of insurance industry, is a historic event that will radically change the practices in risk management. It is based on taking into account the own risk profile and the internal view of risk through the ability to use internal models for calculating solvency capital requirement and ORSA (Own Risk and Solvency Assessment) approach for internal risk management. It makes the mathematical modeling an essential tool for a successful regulatory exercise. The risk theory must allow to support this development by providing answers to practical problems, especially those related to the dependence modeling and the choice of risk measures. In the same context, this thesis presents a contribution to improving the management of insurance risks. In four chapters we present multivariate risk measures and their application to the allocation of solvency capital. The first part of this thesis is devoted to the introduction and study of a new family of multivariate elicitable risk measures that we will call multivariate expectiles. The first chapter presents these measures and explains the different construction approaches. The multivariate expectiles verify a set of coherence properties that we also discuss in this chapter before proposing a stochastic approximation tool of these risk measures. The performance of this method is insufficient in the asymptotic levels of the expectiles thresholds. That makes the theoretical analysis of the asymptotic behavior necessary. The asymptotic behavior of multivariate expectiles is then the subject of the second chapter of this part. It is studied in a multivariate regular variations framework, and some results are given in the case of equivalent marginal tails. We also study in the second chapter of the first part the asymptotic behavior of multivariate expectiles under previous assumptions in the presence of a perfect dependence, or in the case of asymptotic independence. Finally, we propose using extreme values statistics some estimators of the asymptotic expectile in these cases. The second part of the thesis is focused on the issue of solvency capital allocation in insurance. It is divided into two chapters; each chapter consists of a published paper. The first one presents an axiomatic characterization of the coherence of a capital allocation method in a general framework. Then it studies the coherence properties of an allocation approach based on the minimization of some multivariate risk indicators. The second paper is a probabilistic analysis of the behavior of this capital allocation method based on the nature of the marginal distributions of risks and the dependence structure. The asymptotic behavior of the optimal allocation is also studied and the impact of dependence is illustrated using some selected models and copulas. Faced to the significant presence of dependence between the various risks taken by insurance companies, a multivariate approach seems more appropriate to build responses to the various issues of risk management. This thesis is based on a multidimensional vision of risk and proposes some multivariate risk measures that can be applied to several actuarial issues of a multivariate nature
APA, Harvard, Vancouver, ISO, and other styles
16

Fischer, Richard. "Modélisation de la dépendance pour des statistiques d'ordre et estimation non-paramétrique." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1039/document.

Full text
Abstract:
Dans cette thèse, on considère la modélisation de la loi jointe des statistiques d'ordre, c.à.d. des vecteurs aléatoires avec des composantes ordonnées presque sûrement. La première partie est dédiée à la modélisation probabiliste des statistiques d'ordre d'entropie maximale à marginales fixées. Les marginales étant fixées, la caractérisation de la loi jointe revient à considérer la copule associée. Dans le Chapitre 2, on présente un résultat auxiliaire sur les copules d'entropie maximale à diagonale fixée. Une condition nécessaire et suffisante est donnée pour l'existence d'une telle copule, ainsi qu'une formule explicite de sa densité et de son entropie. La solution du problème de maximisation d'entropie pour les statistiques d'ordre à marginales fixées est présentée dans le Chapitre 3. On donne des formules explicites pour sa copule et sa densité jointe. On applique le modèle obtenu pour modéliser des paramètres physiques dans le Chapitre 4.Dans la deuxième partie de la thèse, on étudie le problème d'estimation non-paramétrique des densités d'entropie maximale des statistiques d'ordre en distance de Kullback-Leibler. Le chapitre 5 décrit une méthode d'agrégation pour des densités de probabilité et des densités spectrales, basée sur une combinaison convexe de ses logarithmes, et montre des bornes optimales non-asymptotiques en déviation. Dans le Chapitre 6, on propose une méthode adaptative issue d'un modèle exponentiel log-additif pour estimer les densités considérées, et on démontre qu'elle atteint les vitesses connues minimax. L'application de cette méthode pour estimer des dimensions des défauts est présentée dans le Chapitre 7<br>In this thesis we consider the modelling of the joint distribution of order statistics, i.e. random vectors with almost surely ordered components. The first part is dedicated to the probabilistic modelling of order statistics of maximal entropy with marginal constraints. Given the marginal constraints, the characterization of the joint distribution can be given by the associated copula. Chapter 2 presents an auxiliary result giving the maximum entropy copula with a fixed diagonal section. We give a necessary and sufficient condition for its existence, and derive an explicit formula for its density and entropy. Chapter 3 provides the solution for the maximum entropy problem for order statistics with marginal constraints by identifying the copula of the maximum entropy distribution. We give explicit formulas for the copula and the joint density. An application for modelling physical parameters is given in Chapter 4.In the second part of the thesis, we consider the problem of nonparametric estimation of maximum entropy densities of order statistics in Kullback-Leibler distance. Chapter 5 presents an aggregation method for probability density and spectral density estimation, based on the convex combination of the logarithms of these functions, and gives non-asymptotic bounds on the aggregation rate. In Chapter 6, we propose an adaptive estimation method based on a log-additive exponential model to estimate maximum entropy densities of order statistics which achieves the known minimax convergence rates. The method is applied to estimating flaw dimensions in Chapter 7
APA, Harvard, Vancouver, ISO, and other styles
17

Fontaine, Charles. "Utilisation de copules paramétriques en présence de données observationnelles : cadre théorique et modélisations." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT009/document.

Full text
Abstract:
Les études observationnelles (non-randomisées) sont principalement constituées de données ayant des particularités qui sont en fait contraignantes dans un cadre statistique classique. En effet, dans ce type d'études, les données sont rarement continues, complètes et indépendantes du bras thérapeutique dans lequel les observations se situent. Cette thèse aborde l'utilisation d'un outil statistique paramétrique fondé sur la dépendance entre les données à travers plusieurs scénarios liés aux études observationnelles. En effet, grâce au théorème de Sklar (1959), les copules paramétriques sont devenues un sujet d'actualité en biostatistique. Pour commencer, nous présentons les concepts de base relatifs aux copules et aux principales mesures d'association basées sur la concordance retrouvées dans la littérature. Ensuite, nous donnons trois exemples d'application des modèles de copules paramétriques pour autant de cas de données particulières retrouvées dans des études observationnelles. Nous proposons d’abord une stratégie de modélisation de l'analyse coût-efficacité basée uniquement sur une réécriture des fonctions de distribution jointes et évitant les modèles de régression linéaire. Nous étudions ensuite, les contraintes relatives aux données discrètes, particulièrement dans un contexte de non-unicité de la fonction copule, nous réécrivons le score de propension grâce à une approche novatrice basée sur l'extension d'une sous-copule. Enfin, nous évoquons un type particulier de données manquantes : les données censurées à droite, dans un contexte de régression, grâce à l'utilisation de copules semi-paramétriques<br>Observational studies (non-randomized) consist primarily of data with features that are in fact constraining within a classical statistical framework. Indeed, in this type of study, data are rarely continuous, complete, and independent of the therapeutic arm the observations are belonging to. This thesis deals with the use of a parametric statistical tool based on the dependence between the data, using several scenarios related to observational studies. Indeed, thanks to the theorem of Sklar (1959), parametric copulas have become a topic of interest in biostatistics. To begin with, we present the basic concepts of copulas, as well as the main measures of association based on the concordance founded on an analysis of the literature. Then, we give three examples of application of models of parametric copulas for as many cases of specific data found in observational studies. We first propose a strategy of modeling cost-effectiveness analysis based essentially on rewriting the joint distribution functions, while discarding the use of linear regression models. We then study the constraints relative to discrete data, particularly in a context of non-unicity of the copula function. We rewrite the propensity score, thanks to an innovative approach based on the extension of a sub-copula. Finally, we introduce a particular type of missing data: right censored data, in a regression context, through the use of semi-parametric copulas
APA, Harvard, Vancouver, ISO, and other styles
18

Ayari, Samia. "Nonparametric estimation of the dependence function for multivariate extreme value distributions." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4078.

Full text
Abstract:
Dans cette thèse, nous abordons l'estimation non paramétrique de la fonction de dépendance des distributions multivariées à valeurs extrêmes. Dans une première partie, on adopte l’hypothèse classique stipulant que les variables aléatoires sont indépendantes et identiquement distribuées (i.i.d). Plusieurs estimateurs non paramétriques sont comparés pour une fonction de dépendance trivariée de type logistique dans deux différents cas. Dans le premier cas, on suppose que les fonctions marginales sont des distributions généralisées à valeurs extrêmes. La distribution marginale est remplacée par la fonction de répartition empirique dans le deuxième cas. Les résultats des simulations Monte Carlo montrent que l'estimateur Gudendorf-Segers (Gudendorf et Segers, 2011) est plus efficient que les autres estimateurs pour différentes tailles de l’échantillon. Dans une deuxième partie, on ignore l’hypothèse i.i.d vue qu’elle n'est pas vérifiée dans l'analyse des séries temporelles. Dans le cadre univarié, on examine le comportement extrêmal d'un modèle autorégressif Gaussien stationnaire. Dans le cadre multivarié, on développe un nouveau théorème qui porte sur la convergence asymptotique de l'estimateur de Pickands vers la fonction de dépendance théorique. Ce fondement théorique est vérifié empiriquement dans les cas d’indépendance et de dépendance asymptotique. Dans la dernière partie de la thèse, l'estimateur Gudendorf-Segers est utilisé pour modéliser la structure de dépendance des concentrations extrêmes d’ozone observées dans les stations qui enregistrent des dépassements de la valeur guide et limite de la norme Tunisienne de la qualité d'air NT.106.04<br>In this thesis, we investigate the nonparametric estimation of the dependence function for multivariate extreme value distributions. Firstly, we assume independent and identically distributed random variables (i.i.d). Several nonparametric estimators are compared for a trivariate dependence function of logistic type in two different cases. In a first analysis, we suppose that marginal functions are generalized extreme value distributions. In a second investigation, we substitute the marginal function by the empirical distribution function. Monte Carlo simulations show that the Gudendorf-Segers (Gudendorf and Segers, 2011) estimator outperforms the other estimators for different sample sizes. Secondly, we drop the i.i.d assumption as it’s not verified in time series analysis. Considering the univariate framework, we examine the extremal behavior of a stationary Gaussian autoregressive process. In the multivariate setting, we prove the asymptotic consistency of the Pickands dependence function estimator. This theoretical finding is confirmed by empirical investigations in the asymptotic independence case as well as the asymptotic dependence case. Finally, the Gudendorf-Segers estimator is used to model the dependence structure of extreme ozone concentrations in locations that record several exceedances for both guideline and limit values of the Tunisian air quality standard NT.106.04
APA, Harvard, Vancouver, ISO, and other styles
19

Ardon, Jean. "Modélisation probabiliste de la dépendance spatiale et temporelle appliquée à l’étude du péril sécheresse dans le cadre du régime français d’indemnisation des catastrophes naturelles." Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS002.

Full text
Abstract:
Les travaux présentés s’inscrivent dans le cadre des études menées par la Caisse centrale de réassurance (CCR) pour modéliser les événements catastrophes naturelles et en particulier le péril sécheresse. La sécheresse est le nom utilisé couramment pour désigner les dommages aux bâtiments causés par le phénomène de retrait-gonflement des argiles. Les recherches effectuées sont en lien avec un modèle d’estimation du coût annuel d’un événement sécheresse conçu en interne à CCR. Celui-ci croise des données assurantielles et des données d’humidité du sol pour estimer le coût d’un événement survenu. CCR souhaite faire évoluer ce modèle vers une version probabiliste qui consiste à concevoir un générateur d’événements fictifs, non nécessairement survenus mais possibles d’un point de vue physique. Ce générateur doit permettre notamment d’estimer la distribution de probabilité du coût d’une sécheresse potentielle. Afin de concevoir un générateur d’événements fictifs pour le modèle sécheresse de CCR, nous avons étudié puis mis en oeuvre différents outils mathématiques permettant de modéliser la dépendance de variables aléatoires spatio-temporelles. La méthode choisie consiste à étudier et modéliser séparément la dépendance spatiale et la dépendance temporelle. Pour modéliser la dépendance temporelle, les modèles retenus sont des modèles classiques utilisés pour les séries temporelles. Nous décomposons les séries temporelles des observations en identifiant tendance et saisonnalité puis en ajustant un modèle autorégressif aux résidus. Pour modéliser la dépendance spatiale, notre choix s’est porté sur le krigeage et sur la théorie des copules. Les copules permettent de générer du bruit spatial pour ensuite lui appliquer les modèles de séries temporelles univariées. Le krigeage nous sert à interpoler spatialement les données générées dans le cas où une sélection de sites a été effectuée pour diminuer la dimension spatiale du problème. L’exploitation du générateur, pour laquelle nous donnons quelques résultats, va servir à CCR pour ses politiques de provisionnement et de tarification, et s’intègre également dans l’estimation de la charge deux-centennale liée aux catastrophes naturelles dans le cadre de la directive européenne Solvabilité II<br>This work was performed at CCR, a French reinsurance company, within the studies that are conducted to model natural disasters, and particularly the drought hazard. Drought is the word used to denote the shrink-swell clay phenomenon that damages individual houses. These researches are related to an internal model that estimates the annual cost of a drought. This model crosses insurance data and soil moisture data to evaluate the cost of a occured event. CCR wants this model to be improved towards a probabilistic version by conceiving a generator of drought events that have to be realistic, although they are fictive. This generator will allow the estimation of the probability distribution of the drought cost. In order to conceive a fictive event generator for CCR’s drought model, mathematical tools have been used to model dependence between spatio-temporal random variables. The chosen method consists of studying and modeling separately spatial dependence and temporal dependence. Temporal dependence is modelized with time series models such as classical decomposition and autoregressive processes. Spatial dependence is modelized with kriging and copula theory. Spatial random noise is generated with a copula and then time series models are applied to rebuild original process. Kriging is used when generated data need to be interpolated, for example when data are generated only on a subset of the main grid. Results of the generator exploitation are given. They will be used by CCR for provisionning and pricing. These results will also be used for the estimation of the two-hundred-year cost of natural disasters within the new European Solvency II Directive
APA, Harvard, Vancouver, ISO, and other styles
20

Hammami, Imen. "Fusion d'images de télédétection hétérogènes par méthodes crédibilistes." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0034/document.

Full text
Abstract:
Avec l’avènement de nouvelles techniques d’acquisition d’image et l’émergence des systèmes satellitaires à haute résolution, les données de télédétection à exploiter sont devenues de plus en plus riches et variées. Leur combinaison est donc devenue essentielle pour améliorer le processus d’extraction des informations utiles liées à la nature physique des surfaces observées. Cependant, ces données sont généralement hétérogènes et imparfaites ce qui pose plusieurs problèmes au niveau de leur traitement conjoint et nécessite le développement de méthodes spécifiques. C’est dans ce contexte que s’inscrit cette thèse qui vise à élaborer une nouvelle méthode de fusion évidentielle dédiée au traitement des images de télédétection hétérogènes à haute résolution. Afin d’atteindre cet objectif, nous axons notre recherche, en premier lieu, sur le développement d’une nouvelle approche pour l’estimation des fonctions de croyance basée sur la carte de Kohonen pour simplifier l’opération d’affectation des masses des gros volumes de données occupées par ces images. La méthode proposée permet de modéliser non seulement l’ignorance et l’imprécision de nos sources d’information, mais aussi leur paradoxe. Ensuite, nous exploitons cette approche d’estimation pour proposer une technique de fusion originale qui permettra de remédier aux problèmes dus à la grande variété des connaissances apportées par ces capteurs hétérogènes. Finalement, nous étudions la manière dont la dépendance entre ces sources peut être considérée dans le processus de fusion moyennant la théorie des copules. Pour cette raison, une nouvelle technique pour choisir la copule la plus appropriée est introduite. La partie expérimentale de ce travail est dédiée à la cartographie de l’occupation des sols dans les zones agricoles en utilisant des images SPOT-5 et RADARSAT-2. L’étude expérimentale réalisée démontre la robustesse et l’efficacité des approches développées dans le cadre de cette thèse<br>With the advent of new image acquisition techniques and the emergence of high-resolution satellite systems, remote sensing data to be exploited have become increasingly rich and varied. Their combination has thus become essential to improve the process of extracting useful information related to the physical nature of the observed surfaces. However, these data are generally heterogeneous and imperfect, which poses several problems in their joint treatment and requires the development of specific methods. It is in this context that falls this thesis that aimed at developing a new evidential fusion method dedicated to heterogeneous remote sensing images processing at high resolution. In order to achieve this objective, we first focus our research, firstly, on the development of a new approach for the belief functions estimation based on Kohonen’s map in order to simplify the masses assignment operation of the large volumes of data occupied by these images. The proposed method allows to model not only the ignorance and the imprecision of our sources of information, but also their paradox. After that, we exploit this estimation approach to propose an original fusion technique that will solve problems due to the wide variety of knowledge provided by these heterogeneous sensors. Finally, we study the way in which the dependence between these sources can be considered in the fusion process using the copula theory. For this reason, a new technique for choosing the most appropriate copula is introduced. The experimental part of this work isdevoted to land use mapping in case of agricultural areas using SPOT-5 and RADARSAT-2 images. The experimental study carried out demonstrates the robustness and effectiveness of the approaches developed in the framework of this thesis
APA, Harvard, Vancouver, ISO, and other styles
21

Le, Faou Yohann. "Contributions à la modélisation des données de durée en présence de censure : application à l'étude des résiliations de contrats d'assurance santé." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS527.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux modèles de durée dans le contexte de la modélisation des durées de résiliation de contrats d’assurance santé. Identifié dès le 17ème siècle et les études de Graunt J. (1662) sur la mortalité, le biais induit par la censure des données de durée observées dans ce contexte doit être corrigé par les modèles statistiques utilisés. À travers la problématique de la mesure de la dépendance entre deux durées successives, et la problématique de la prédiction de la durée de résiliation d’un contrat d'assurance, nous étudions les propriétés théoriques et pratiques de différents estimateurs basés sur une méthode de pondération des observations (méthode dite IPCW) visant à corriger ce biais. L'application de ces méthodes à l'estimation de la valeur client en assurance est également détaillée<br>In this thesis, we study duration models in the context of the analysis of contract termination time in health insurance. Identified from the 17th century and the original work of Graunt J. (1662) on mortality, the bias induced by the censoring of duration data observed in this context must be corrected by the statistical models used. Through the problem of the measure of dependence between successives durations, and the problem of the prediction of contract termination time in insurance, we study the theoretical and practical properties of different estimators that rely on a proper weighting of the observations (the so called IPCW method) designed to compensate this bias. The application of these methods to customer value estimation is also carefully discussed
APA, Harvard, Vancouver, ISO, and other styles
22

Simard, Clarence. "Modélisation du carnet d'ordres limites et prévision de séries temporelles." Thèse, 2014. http://hdl.handle.net/1866/11670.

Full text
Abstract:
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.<br>This thesis is structured as follows. After a first chapter of introduction, Chapter 2 exposes as simply as possible different notions that are going to be used in the two first papers. First, we discuss the main steps required to build stochastic integrals for semimartingales with space parameters. Secondly, we describe the main results of risk neutral evaluation theory and, finally, we give a short description of an optimization method known as duality. Chapters 3 and 4 consider the problem of modelling illiquidity, which is covered by two papers. The first one proposes a continuous time model for the structure and the dynamic of the limit order book. The dynamic of a portfolio for an investor using market orders is deduced and conditions to rule out arbitrage are given. With the help of Itô’s generalized formula, it is also possible to write the value of the portfolio as a stochastic differential equation. A complete example of market model along with a calibration method is also given. In the second paper, written in collaboration with Bruno Rémillard, we propose a similar model with discrete time trading. We study the problem of derivatives pricing and give explicit formulas for European option prices. Specific conditions to rule out arbitrage are also provided. Using the dual optimization method, we show that the price of European options can be written as the optimization of an expectation over a set of probability measures. Chapter 5 contained the third paper and studies a different topic. In this paper, also written with Bruno Rémillard, we propose a forecasting method for time series based on multivariate copulas. To provide a better understanding of the proposed method, with the help of numerical experiments, we study the effect of the strength and the structure of the different dependencies on predictions performance. Since copulas allow to isolate the dependence structure and marginal distributions, we study the impact of different marginal distributions on predictions performance. Finally, we also study the effect of estimation errors on the predictions. In all the cases, we compare the performance of predictions by using predictions based on a bivariate series and predictions based on a univariate series, which allows to illustrate the advantage of the proposed method. For practical matters, we provide a complete example of application on financial data.
APA, Harvard, Vancouver, ISO, and other styles
23

Rainville, Jérémie. "Modélisation de données spatiales à l'aide de champs aléatoires basés sur la copule Khi-deux." Thèse, 2017. http://depot-e.uqtr.ca/8388/1/031930065.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography