To see the other types of publications on this topic, follow the link: Assurance – Modèles mathématiques.

Dissertations / Theses on the topic 'Assurance – Modèles mathématiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 44 dissertations / theses for your research on the topic 'Assurance – Modèles mathématiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Sardet, Laure. "La modélisation des coûts d'assurance non-vie : application à la tarification d'extension de garantie." Paris 6, 2010. http://www.theses.fr/2010PA066520.

Full text
Abstract:
Lorsque l'actuaire fixe le prix d'un produit, tel que l'extension de garantie, il s'intéresse à la distribution de la charge probable associée. Dans cette thèse, différentes modélisations du risque, et plus précisément du coût de sinistres sont proposées. Les modélisations développées sont adaptées à la présence d'hétérogénéité dans la distribution. A l'issue de ces modélisations, la prime de risque intégrant une marge de prudence est évaluée par un quantile de la distribution de charge obtenue. Dans un premier temps, une analyse de coûts à l'aide des mélanges de lois est proposée. Les mélanges finis de lois permettent, en effet, une modélisation des coûts de sinistres avec prise en compte de l'hétérogénéité du risque. Dans ce cadre, une procédure d'estimation basée sur l'algorithme EM est proposée accompagnée de tests de validation du modèle, basés sur la boostrap. Parallèlement, la modélisation non-paramétrique par la méthode des noyaux est étudiée. Compte tenu de la nature des données, des méthodes telles que la transformation des données et l'utilisation de noyaux asymétriques sont explorées. Enfin, une modélisation utilisant une transformation des données à partir d'un modèle paramétrique affiné par un lissage non-paramétrique est proposée.
APA, Harvard, Vancouver, ISO, and other styles
2

Gueye, Dieng Khadidiatou. "Analyse du risque technique de la branche incapacité-invalidité." Lyon 1, 2000. http://www.theses.fr/2000LYO10254.

Full text
Abstract:
L'incapacité et l'invalidité sont des risques couverts dans le cadre de la prévoyance complémentaire et des contrats Emprunteurs. La faiblesse des prestations des régimes de base et le développement des organismes de crédits à la consommation concourent à l'expansion du marché de l'incapacité et de l'invalidité. L'obligation de constituer des provisions suffisantes pour la couverture de ces risques, emmène l'organisme assureur à choisir entre l'utilisation d'une loi de maintien de référence (loi du BCAC par exemple) "rassurante" et d'une loi estimée sur le portefeuille de la compagnie qui risque de générer des erreurs d'échantillonnage à cause de la faiblesse des effectifs des sinistrés. L'estimation des lois de maintien présentent des difficultés qui nécessitent de s'interroger sur le choix de la méthodologie. Dans notre étude nous avons privilégié les méthodes paramétriques d'estimation qui présentent l'avantage de se contenter d'un nombre d'observations beaucoup moins important que les méthodes d'estimation non paramétriques avec une nouvelle approche qui consisteà modéliser la fonction espérance résiduelle. Nous avons par la suite modéliser l'influence de la variable exogène âge à l'entrée sur les lois de maintien. Le modèle paramétrique ainsi obtenu, intègre une variable exogène quantitative. Une extension du test du X2 aux données censurées à droite et tronquées à gauche a été proposée afin de pouvoir vérifier la validité des modèles paramétriques exposés.
APA, Harvard, Vancouver, ISO, and other styles
3

Marri, Fouad. "Évaluation des mesures de ruine dans le cadre de modèles avancés de risque." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26001/26001.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Vermette, Richard. "Modélisation de la dépendance entre les garanties applicables en assurance automobile." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28287/28287.pdf.

Full text
Abstract:
Dans un portefeuille d’assurance automobile, différents types de réclamations peuvent survenir pour chaque police en vigueur. En cas de collision entre deux véhicules, l’assuré peut déposer une réclamation pour dommages corporels et matériels à luimême et à autrui. Traditionnellement, ces types de risques ont été considérés comme indépendants afin d’en faciliter la modélisation stochastique. Dans la pratique, on observe toutefois une dépendance entre les montants de ces réclamations dont il importe de tenir compte pour mieux quantifier le risque global du portefeuille. Frees et Valdez (2008) ont proposé un modèle permettant de considérer certaines dépendances entre les fréquences et les sévérités des garanties impliquées dans les réclamations d’une même police d’assurance. Dans ce mémoire, deux structures de modèles inspirées de celle de Frees et Valdez (2008) sont proposées pour modéliser les sinistres d’un portefeuille d’assurance automobile de l’Ontario. L’ajustement des modèles est réalisé par la méthode de vraisemblance maximale ainsi que par une approche bayésienne.<br>Tableau d'honneur de la FÉS
APA, Harvard, Vancouver, ISO, and other styles
5

Albizzati, Marie-Odile. "Quelques aspects de la gestion des risques en assurance : une approche financiere et probabiliste." Reims, 1996. http://www.theses.fr/1996REIME001.

Full text
Abstract:
L'objet de cette these est l'etude d'un nouveau risque apparu en assurance, risque lie aux comportements rationnels des souscripteurs en cas d'evolution de parametres economiques tels que les taux d'interet. Deux exemples fondamentaux sont examines : le risque de rachat anticipe sur les contrats d'assurance-vie et le risque de defaut en assurance des fonds communs de creances. La methodologie utilisee est une methodologie de calcul d'options en environnement aleatoire. Les parametres sous-jacents sont representes par des processus stochastiques et le comportement des souscripteurs est modelise par generation de contrats et par typologie d'individus. Le chapitre un presente le marche de l'assurance-vie en france et son environnement reglementaire complexe. Le chapitre deux presente des rappels fondamentaux de la theorie du risque et propose une application a l'assurance-vie de l'approche par actifs contingents de la firme, afin de determiner la structure optimale du portefeuille d'actifs. Le chapitre trois evalue le risque de rachat anticipe en assurance-vie. Ce risque est decompose en un risque financier et un risque d'ordre statistique. Nous obtenons une evaluation du risque pour un souscripteur dit rationnel et pour une population de souscripteurs. Le chapitre quatre traite de l'assurance des fonds communs de creances contre le risque de defaut. Les remboursements anticipes sont simultanement pris en compte et expliques par les mouvements de taux tandis que le comportement de defaut est envisage statistiquement, par categorie de population, afin de faire intervenir un effet dit de "burnout". Nous obtenons une formule analytique pour l'evaluation du risque de defaut et du risque residuel du aux remboursements anticipes<br>The goal of this dissertation is to study a type of risk recently identified in insurance, namely a risk related to a rational behaviour of policyholders in a given setting of economic parameters, e. G. Interest rates. Two fondamental examples are examined : the risk of early surrender in life insurance policies and the default risk when insuring mortgage-backed securities. The methodology follows a contingent claim approach in a random economy. The underlying financial quantities are represented by stochastic processes and policies are pooled according to year of issuance and type of agents. Chapter one presents the french life insurance industry and its complex regulatory environment. Chapter two presents some fundamental elements on risk theory and proposes to apply the contigent claim approach of the firm introduced by merton to life insurance companies; the aim is to find the optimal structure of the assets portfolio. Chapter three evaluates the risk of early surrender in life insurance policies. This risk is decomposed intoa financial risk and a statistical risk. The risk is priced for a single rational agent, then for a population of policyholders. Chapter four studies the insurance of mortgage-backed securities against defaut risk. Early prepayments are taken into account as well and related to interest rates moves while default behaviour is estimated statistically through categories of population; the burnout effect is taken into account. A formula for the price of default and prepayment risks is provided under an analytical form
APA, Harvard, Vancouver, ISO, and other styles
6

Bernard, Carole. "Approche optionnelle de l'évaluation de garanties en assurance et en finance." Lyon 1, 2005. http://www.theses.fr/2005LYO10217.

Full text
Abstract:
Cette thèse met en évidence l'intérêt d'une approche optionnelle de l'évaluation de garanties en finance et en assurance. La première partie concerne les options parisiennes dont les prix s'obtiennent par inversion de transformées de Laplace. Ces options, intéressantes pour un intervenant du marché, ont des applications en théorie des options réelles et en théorie du défaut. Nous en développons une nouvelle en économie bancaire en évaluant des garanties et modélisant des clauses réglementaires d'un système de coassurance des dépôts bancaires. La seconde partie est, quant à elle, consacrée à la modélisation et à l'évaluation contingente des différents postes du passif du bilan d'une compagnie d'assurance ainsi que de contrats d'épargne classiques. Nous prenons en compte à la fois les risques de défaut et de taux d'intérêt. Nous nous intéressons aussi à l'impact de certaines options implicites des contrats d'assurance-vie telles que la possibilité pour l'assuré de racheter son contrat
APA, Harvard, Vancouver, ISO, and other styles
7

Blondel, Serge. "Un nouveau test des théories du choix risque : de la rationalité normative à la rationalité cognitive." Paris 1, 1997. http://www.theses.fr/1997PA010013.

Full text
Abstract:
Longtemps les économistes ont prêté peu d'attention aux contradictions de l’Esperance d'utilité (EU), comme le paradoxe d'Allais (1953). À la suite des psychologues Kahneman et Tversky (1979), les résultats expérimentaux se sont accumulés, provoquant le développement de théories normatives généralisant l'EU. La théorie de la cohérence cognitive (TCC - Lévy-Garboua, 1995) se démarque de ces théories en intégrant le doute dans le processus de décision. Seule la TCC explique l'ensemble des paradoxes (Allais, vote, inversion des préférences). Une nouvelle méthode de simulation permet de tester les théories sans se restreindre au triangle de Marchak-Machina. Ainsi, notre ensemble de données comprend celles de Kahneman et Tversky (1979), souvent citées, mais jamais exploitées statistiquement. Les fonctions individuelles (utilité, regret,. . . ) sont définies par des paramètres dont on estime la distribution. Onze théories sont évaluées à partir de 64 questions provenant de quatre sources différentes. L'axiomatisation permet d'éviter les incohérences logiques, mais avec un faible pouvoir descriptif : par exemple, la théorie des perspectives de Kahneman et Tversky obtient de meilleurs résultats sous sa forme originelle (1979) qu'axiomatique (1992). Seule la TCC est validée : en conservant les axiomes de l'EU, elle décrit les effets de certitude, de réflexion, et de rapport commun (paradoxe d’Allais), ainsi que la coexistence d'attitudes de jeu et d'assurance. La TCC offre un modèle opérationnel de la rationalité cognitive, rejoignant le sociologue Boudon (1990) pour lequel une décision est basée sur des bonnes raisons, même si elles mènent à des erreurs de jugement. Face aux problèmes rencontrés par l'EU, les théoriciens du risque semblent enfermés dans le postulat d'une maximisation de critères normatifs. Les théories se sont compliquées alors que la solution est conditionnée par le passage de la rationalité normative à la rationalité cognitive<br>Long economists have lent few attention to contradictions of expected utility (EU), as Allais paradox (1953). Following the psychologists Kahneman and Tversky (1979), experimental results have accumulated and that fact have entail the development of generalized eu theories. Contrary to these normative theories, cognitive consistency theory (CCT - Lévy-Garboua, 1995) introduce doubt, which is related to a positive value of perfect information. Decision-making is then an argumentation aiming at the suppression of doubt. CCT explains the totality of paradoxes (Allais, not voting, preference reversals) while the others theories not. In our method, individuals functions are defined by individual parameters reflecting heterogeneous preferences. We use the data of Kahneman and Tversky (1979), Hershey and Schoemaker (1980), Camerer (1989), and Battalio et al. (1990). For every simulation, parameter distributions are estimated for each theory (EU, rank-dependent eu, prospect, cumulative prospect, subjective weighted, dual, prospective reference, regret, disappointment, disappointment aversion, cognitive consistency), for seven different series of questions not limited to the unit probability triangle. We conclude that the weight of rejoicing in regret theory tends to be null. CCT is not rejected by the data while the others are. While conserving the axioms of eu, CCT provides an explanation of insurance and gambling, and also explains reflection, certainty, and common ratio (Allais paradox) effects
APA, Harvard, Vancouver, ISO, and other styles
8

Jeleva, Meglena. "Les comportements d'assurance des agents : une approche par les modèles de décision non-additifs." Paris 1, 1997. http://www.theses.fr/1997PA010084.

Full text
Abstract:
L'objectif de cette thèse est d'étudier les comportements d'assurance d'agents dont les préférences en univers incertain sont représentées par des modèles non-additifs qui généralisent le modèle d’espérance d'utilité et permettent de séparer l'attitude vis-à-vis de la richesse de celle vis-à-vis de l'incertitude. Cette représentation des préférences, ainsi que l'hypothèse que les agents ne connaissent pas de façon précise la distribution de probabilité de leurs pertes , rend la modélisation des comportements en assurance plus réaliste et permet une meilleure compréhension des choix observés sur les marchés. Le premier chapitre de la thèse est consacré à la présentation des modèles de choix dans l'incertain probabilisé et non-probabilisé. Il est suivi de l'étude de la demande d'assurance dans le cadre classique d'un seul risque, d'abord lorsque l'agent est capable de situer la distribution de probabilité de ses pertes à l'intérieur d'un ensemble de distributions donne et ses préférences sont représentées par le modèle de Jaffray, puis lorsqu'il se trouve dans un cadre général d'incertitude non-probabilisée et ses préférences sont représentées par l’espérance d'utilité à la Choquet. Dans le troisième chapitre, on élargi le champs de l'étude en considérant la demande d'assurance en présence d'un risque supplémentaire, non-assurable. L'impact de ce risque supplémentaire sur la demande d'assurance est étudié dans le cas où les deux risques sont comonotones et anti-comonotones. On s'intéresse ensuite aux comportements d'offre d'un assureur dans un modèle d'antisélection, lorsque l'information des assurés sur leurs probabilités de perte est imprécise. Le dernier chapitre de la thèse est consacré à une étude empirique des déterminants de l'achat de contrats d'assurance décès dont l'objectif est de tester l'impact des croyances des agents sur leurs choix réels de contrats d'assurance<br>The purpose of this thesis is to study the behaviors on the insurance market of agents whose preferences under uncertainty are represented using non-additive models which generalize the expected utility and make possible to separate the attitude towards uncertainty from the attitude towards wealth. This preferences representation, together with the assumption that agents don't know precisely the probability distribution of their losses, makes the modelling of insurance behaviors more realistic and allows a better understanding of the choices observed on insurance markets. The first chapter of the thesis is a presentation of the models of decision making under probabilized uncertainty (risk) and under non-probabilized uncertainty. In the second one, we study the demand for insurance when the agent faces only one source of risk. Firstly, we assume that the agent is able to locate the probability distribution of potential losses into a given set of distributions, his preferences are then represented by the Jaffray model. After that, we consider a general non-probabilized uncertainty framework where preferences are represented by the choquet expected utility. In the third chapter, a background risk is introduced. The impact of this additional source of risk on the demand for insurance on the insurable risk is examined in the cases when the two risks are comonotonic and anti-comonotonic. The forth chapter deals with the contracts offered by a monopoly insurer in an adverse selection framework, when the insurees have only imprecise information on their loss probability. The last chapter of the thesis is an empirical examination of the choices of life insurance contracts. The aim of this study is to test the impact of life expectations on the contracts bought by the agents
APA, Harvard, Vancouver, ISO, and other styles
9

Gning, Lucien Diégane. "Utilisation des mélanges de lois de Poisson et de lois binomiales négatives pour établir des tarifs a priori et a posteriori en assurance non-vie." Paris 6, 2011. http://www.theses.fr/2011PA066304.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Larrivée-Hardy, Etienne. "Mesures de ruine sur un horizon infini pour des modèles de renouvellement composés avec dépendance." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26059.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016<br>La théorie de la ruine est un des domaines des sciences actuarielles où la complexité mathématique est un facteur limitant les chercheurs. Dans ce mémoire, on s'intéresse donc à des méthodes numériques permettant d'approximer différentes quantités d'intérêt. Cependant, avant d'aborder le coeur du sujet, on fournit une revue de la littérature concernant la théorie de la ruine et on étudie certaines mesures de ruine en temps infini pour des modèles de risque où il y a dépendance entre les temps inter-sinistres et les montants de sinistre. On présente aussi les bases mathématiques nécessaires à la compréhension de ce mémoire pour toute personne ayant des connaissances de bases en science actuarielle et en statistiques. Puis, le c÷ur de ce travail, l'évaluation numérique de mesures de ruine à l'aide de trois méthodes numériques basées sur la simulation, respectivement (1) la méthode de Monte Carlo simple, (2) la méthode basée sur l'expression exacte de Gerber pour la probabilité de ruine, et (3) la méthode basée sur l'échantillonnage préférentiel. Nous discuterons également de la qualité respective de chaque méthode. En particulier, nous montrerons que la méthode basée sur l'échantillonnage préférentiel fournit des résultats sans biais et avec une erreur relative bornée. On présentera aussi plusieurs illustrations numériques.<br>Ruin theory is a field in actuarial science where researchers are often impeded by mathematical complexity. In this thesis, we look at some numerical methods that can be used to alleviate this problem. Before getting to the core of this work, we provide a review of the litterature concerning ruin theory and we study some infinite-time ruin measures within risk models assuming dependence between interclaim times and claim amounts. We also present the mathematical background necessary to understand this memoir for anyone with a basic understanding of actuarial science and statistics. The main focus of this work is the computation of ruin measures via three different methods based on simulations, namely (1) the crude Monte Carlo method, (2) a variant of the previous method based on Gerber's exact expression for the ruin probability, and (3) the importance sampling method based on change of measure techniques. Another topic that is discussed is the quality of the approximation of each method. In particular, we show that the importance sampling method provides unbiased approximations for the Gerber-Shiu function and bounded relative errors. We also present numerous numerical illustrations.
APA, Harvard, Vancouver, ISO, and other styles
11

Bérubé, Valérie. "Modèles avancés en régression appliqués à la tarification IARD." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24329/24329.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Turcotte, Roxane. "Analyse de l'impact de la dépendance sur l'évaluation individuelle des réserves en assurances IARD." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34603.

Full text
Abstract:
Dans ce mémoire, il sera question de la modélisation de réserve en assurances générales. Puisqu’une base de données provenant de l’industrie a été utilisée dans le cadre de ce projet, une attention particulière a été portée à des considérations pratiques. Encore aujourd’hui, les modèles appliqués en pratique sont souvent des modèles simples qui sont utilisés à cause de leur commodité. Par contre, de plus en plus de données sont disponibles et la possibilité d’en tirer profit est de plus en plus grande grâce à l’augmentation de la capacité computationnelle. Les méthodes classiques de provisionnement délaissent donc le potentiel de perfectionnement que permet le détail des données. Les modèles dits « individuels », dont il sera question dans ce projet, cherchent à expliquer la dynamique de l’évolution des sommes payées par réclamation. Ces modèles tirent parti des informations détaillées de chaque paiement pour modéliser la réserve du portefeuille. Il a été décidé de reprendre l’idée des facteurs de développement utilisés par Pigeon et al. (2013) qui sont inspirés de ceux de la méthode de Chain-Ladder. On considérera toutefois une loi multivariée construite par copule pour modéliser conjointement les variables de ce vecteur de développement plutôt qu’une loi normale multivariée asymétrique telle qu’utilisée dans l’article précédemment mentionné. On s’est également intéressé à la dépendance présente entre certaines composantes caractérisant la réclamation, comme le délai de déclaration (en années), le délai de premier paiement (en années) et le nombre de paiements.
APA, Harvard, Vancouver, ISO, and other styles
13

Blais, Philippe. "Élaboration d'un modèle de trafic à partir de données massives de trajectoires automobiles en assurance." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69181.

Full text
Abstract:
En assurance automobile, la prédiction du risque est un enjeu majeur. Pour faire les meilleures prédictions possibles, il est important d'utiliser les bonnes informations. Dans les récentes années, un nouveau modèle d'assurance a vu le jour, le Usage-Based-Insurance (UBI), qui a permis la mesure de nouvelles variables comme les freinages ou les accélérations, appelées évènements. Par ailleurs, l'arrivée du UBI a amené l'industrie à s'intéresser davantage à la compréhension des comportements routiers, ce qui s'est traduit par le besoin de contextualiser ces évènements pour arriver à mieux comprendre leurs causes. Le but de cette recherche est de répondre à ce besoin de contextualisation en utilisant le trafic. L'objectif du projet est de modéliser le trafic à partir des données massives de trajectoires automobiles générées via le UBI. Deux méthodes de modélisation sont présentées. La première utilise une méthode de clustering pour détecter la congestion à partir de distributions de vitesses moyennes. La deuxième s'appuie plutôt sur une méthode de calcul de temps de parcours au niveau du segment routier. Les résultats de cette recherche confirment qu'il est possible d'utiliser les données d'assurance pour modéliser le trafic.
APA, Harvard, Vancouver, ISO, and other styles
14

Le, Courtois Olivier. "Impact des évènements informatifs sur l'activité financière des entreprises." Lyon 1, 2003. http://www.theses.fr/2003LYO10197.

Full text
Abstract:
Cette thèse présente une étude de l'impact créé par l'arrivée d'informations sur les politiques de gestion menées par les acteurs de marché et les dirigeants. Dans un premier temps sont exposées les diverses représentations attachées aux cours d'actions et présentant des ruptures ou sauts. Un nouveau modèle est proposé, construit à partir des seuils psychologiques des agents. L'évaluation des produits dérivés dans de tels cadres est alors développée et est une illustration de convergence entre la finance et l'assurance. Les questions de la structure financière et du risque de défaut de la firme sont ensuite abordées de manière innovante en tenant compte des perceptions asymétriques des différents acteurs : dirigeants et investisseurs. L'analyse que nous menons de ces questions est naturellement replacée dans le contexte de la théorie de l'agence. Liée à la problématique du défaut financier est la question de la ruine des compagnies d'assurance que nous traitons sous un angle nouveau.
APA, Harvard, Vancouver, ISO, and other styles
15

Pras, Isabelle. "Modélisation de l'impact des variables économiques et financières sur les bilans des compagnies d'assurance-vie en France." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090052.

Full text
Abstract:
Le bilan des compagnies d'assurance-vie peut être assimile à un portefeuille de produits financiers dont la valeur dépend de l'évolution de variables économiques et financières. Dans un premier temps, il est démontré que les évolutions des valeurs des variables économiques (PIB, production industrielle,. . . ) et financières (actions et taux d'intérêt) sont liées par une relation d'équilibre à long terme. Dans un deuxième temps, les risques induits par l'évolution des variables financières sont analyses. Plus particulièrement, l'impact de l'évolution de la valeur des variables financières sur le comportement des assures est mis en évidence. En effet, le comportement de rachat anticipé dépend non seulement de la maturité du contrat et de l'évolution de la fiscalité mais aussi de l'évolution de certains taux d'intérêt. Le cout et la stratégie de couverture de ce risque sont modélisés. Enfin, les méthodes d'analyse du risque financier utilisées dans les compagnies d'assurance sont présentées. Après une description de modèles mono périodiques, le bilan d'une compagnie d'assurance-vie est modélisé dans son ensemble dans un contexte multi périodique et en intégrant les corrélations entre actifs financiers. Parallèlement, la sensibilité de la valeur d'une compagnie aux évolutions des valeurs des variables financières est calculée à partir des cours de bourse<br>A life insurance company balance-sheet can be defined as a portfolio of financial assets, the value of which depends on economic and financial variables. Firstly, the existence of a long term equilibrium between the variations of economic (GNP, industrial production,. . . ) And financial variables (shares and interest rates) is shown. Secondly, risks induced by the variations of financial variables are analyzed. More specifically, the impact of the variations of the financial variables on the surrender option is enlightened. The surrender behavior depends on the policy maturity, the evolution of the applicable tax regime as well as on the variation of some interest rates. A hedging strategy and its costs are modelized. Finally, the financial risk analysis methods used by life insurance companies are presented. After the description of one-period models, life insurance companies’ balance sheet is modelized with a multi-periods model including financial correlations. The sensitivity of an insurance company value to the variations of financial variables is estimated thanks to the stock market prices
APA, Harvard, Vancouver, ISO, and other styles
16

Mtalai, Itre. "Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32983.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019<br>La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues.<br>Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
APA, Harvard, Vancouver, ISO, and other styles
17

Alary, David. "Antisélection et sanction : application aux marchés du crédit et de l'assurance." Toulouse 1, 2000. http://www.theses.fr/2000TOU10047.

Full text
Abstract:
L'objet de cette thèse est de fournir une étude des effets des mécanismes de lutte contre les comportements criminels appliqués à des problèmes d'anti sélection sur les marchés de l'assurance et du crédit. La première partie de cette thèse analyse le problème de l'antisélection sur le marché de l'assurance. Les assurés disposent d'informations sur le risque à assurer qui sont inconnues des assureurs. Ceux-ci peuvent, après la réalisation du risque, réaliser un audit coûteux mais parfait du type de chaque assuré. Dans le premier chapitre, nous présentons un modèle de marché d'assurance concurrentiel. La vérifiabilité du type des assurés permettent aux assureurs d'exiger des déclarations de risque aux assurés et imposer des sanctions en cas de fraude. L'utilisation de l'audit et des sanctions permet d'augmenter la couverture du risque des assurés à faible risque. Dans le second chapitre, nous considérons un marché d'assurance monopolistique. Nous supposons que les assurés peuvent voter sur les niveaux de pénalité que l'assureur peut infliger à un fraudeur. Nous étudions les effets de ces votes sur les contrats d'équilibre. Nous montrons que la sanction votée (qui maximise l'utilité des assurés les plus risqués) peut être plus pénalisante que la nullité du contrat. Dans la seconde partie formée du troisième chapitre, nous présentons un modèle d'antisélection sur un marché concurrentiel du crédit. Nous considérons l'introduction de sanctions sociales dans les contrats de dette lorsque les emprunteurs ne peuvent fournir de garantie. Nous étudions les effets de ces sanctions au travers de deux types de contrats de prêts : les contrats de prêts individuels et les contrats de prêts liant plusieurs entrepreneurs. Nous montrons que la présence de sanctions sociales permet la discrimination des projets en fonction de leur qualité lorsque les entrepreneurs ne se connaissent pas. Nous obtenons que les contrats de prêts groupes peuvent dominer les contrats de prêts individuels.
APA, Harvard, Vancouver, ISO, and other styles
18

Wang, Lihang. "L'évaluation et la structuration de variable annuities." Paris 9, 2012. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2012PA090036.

Full text
Abstract:
Dans cette thèse, nous étudions les variables annuities (VA) des produits avec garantie de prestations minimales (GMxB), un secteur à croissance rapide dans le domaine de l'assurance vie. Les produits GMxB ont attiré l'attention des praticiens et des universitaires à la fois en raison de leur longue échéance et des propriétés de conception complexes, et aussi à cause des comportements des assurés incertains, notamment en terme de taux d'échéance. Dans cette thèse, nous abordons le problème comme celui de l'évaluation d'une option de type Bermudienne pour l'assureur. Cette démarche d'évaluation correspond au prix qui permet aux assureurs de couvrir le risque quelle que soit la stratégie du titulaire. Nous avons également introduit de nouvelles idées de conception de produits basées sur cette approche garantissant une couverture totale quelle que soit les comportements d' exercices. Il est important de mentionner que jusqu'à présent, un taux d'échéance historique ou statistique est généralement admis pour la valorisation de ces garanties. Tant la théorie financière que les observations passées montrent que cette hypothèse peut conduire à une sous-estimation du risque associé à ces produits, les titulaires étant rationnels ou non. Sur le plan numérique, nous faisons appel à deux type de techniques différents: les méthodes de résolution d'EDP et la méthode de régression en grande dimension (HDR). Il est montré que la méthode PDE est précise à faible dimension (&lt; 3), tandis que l'approche HDR est plus efficace quand il y a plus de trois variables d'état. Dans le modèle de Hull et White à taux d'intérêt stochastique nous montrons aussi comment un changement de numéraire peut être utilisé pour accélérer les algorithmes numériques de manière significative pour les politiques avec cliquet (lookback) propriétés. En outre, nous étendons également la traditionnelle solution semi-analytique pour les options américaines pour évaluer certains GMxB. Une méthode semi analytique est également introduite dans cette thèse pour estimer le prix des options américaines et leur prix d'exercice critique dans un modèle à volatilité stochastique (ex Heston modèle. En fait, cette méthode peut être étendue à d'autres processus de diffusion tant qu'il existe une méthode de tarification précise et rapide existent pour les produits européens correspondants<br>In this thesis we study the variable annuity (VA) products with guaranteed minimum benefits (GMxB), a fast growing business in the life insurance industry. The GMxB products attract the attention of practitioners and academics both because of its long maturity and complex design properties, and also because of uncertain policyholder behaviors, such as lapse rate. In this thesis, we address the pricing problem as the valuation of a Bermudan-style option for the insurer. This evaluation approach corresponds to the price that allows the insurers to hedge the risk whatever the lapse strategy of the holder is. We also introduce new product design ideas based on this evaluation approach to make sure insurers are fully protected form unexpected lapse waves in the future. It is worthy to mention that so far, a historical or statistical lapse rate has generally been assumed for pricing these guarantees. Both financial theory and past observations show that this assumption may lead to an underestimation of the risk associated to these products, the holders being rational or not. To evaluate the Bermudan-style liability, we apply two di_erent schemes: Partial Differential Equation (PDE) method and high-dimensional regression (HDR) method. It is shown that the PDE method is precise for low-dimensional problems (&lt; 3), while the HDR is more efficient when there are more than three dimensions. In the Hull and White stochastic interest rate model, we also show how a change of numeraire technique can be used to accelerate the numerical algorithms significantly for policies with ratchet (lookback) properties. In addition, we also extend the traditional semi-analytical solution of American options to evaluate certain GMxB polices. A semi-analytical method is also introduced in this thesis to approximate both the American contingent claims and the critical exercise boundary of contingent claims in the stochastic volatility model (e. X. Heston model. In fact, this method can be extended to other diffusion processes as long as quick and accurate pricing methods exist for the corresponding European claims
APA, Harvard, Vancouver, ISO, and other styles
19

Corlosquet-Habart, Marine. "Modélisation, impact et gestion du risque de pandémie de grippe en assurance prévoyance dans le cadre de solvabilité 2." Brest, 2010. http://www.theses.fr/2010BRES2019.

Full text
Abstract:
La grippe aviaire H5N1 et la récente grippe A (H1N1) ont rappelé aux assureurs qu'ils pouvaient craindre l'occurence d'un risque de pandémie. L'objectif de cette thèse est de déterminer comment modéliser la propagation du virus de la grippe, quantifier ce risque dans le cadre de Solvabilité 2, et s'en couvrir. Une première partie se concentre sur le calcul du coût humain et financier d'une pandémie de grippe, et s'appuie sur la construction d'un modèle épidémiologique intégrant les spécificités de l'activité d'assurance. Une attention particulière est portée à la mise en \oe{}uvre pratique de ce modèle en utilisant les données empiriques qui proviennent de la pandémie de grippe A(H1N1). Une seconde partie porte sur l'intégration du risque de pandémie dans un Modèle Interne Partiel, en respectant les exigences de Solvabilité 2. Nous proposons une modélisation du risque de mortalité tenant compte du type de données disponibles. Ce modèle permet alors de déterminer l'impact d'une pandémie en terme de valeur et de capital. Une troisième partie analyse les différentes stratégies de couverture possibles pour un assureur pour faire face au risque de pandémie. Plusieurs axes de réflexion sont proposés, et des critères de choix sont établis pour aider le décideur à déterminer la stratégie optimale pour son activité<br>The H5N1 avian flu and the recent influenza A (H1N1) have reminded insurers that they could suffer the occurrence of a pandemic risk. The aim of this thesis is to determine how to model the spread of the influenza virus, how to quantify this risk in the context of Solvency 2 and how to cover against this risk. The first part focuses on the calculation of the human and financial costs of an influenza pandemic, and relies on the construction of an epidemiological model incorporating the specifics of the insurance business. Particular attention is paid to the practical implementation of this model using empirical data from the pandemic of influenza A (H1N1). A second part focuses on the integration of pandemic risk in a Partial Internal Model, respecting the requirements of Solvency 2. This thesis puts forward a model of mortality risk which takes into account the type of data available. This model can determine the impact of a pandemic in terms of value and capital. A third section analyzes the different cover strategies for an insurer to be able to respond to a pandemic. Several approaches are offered for consideration, and selection criteria are established to assist the decision maker in determining the optimal strategy for its activity
APA, Harvard, Vancouver, ISO, and other styles
20

Fakih, Houssam. "Développement et essais de modélisation du risque de crédit." Université Robert Schuman (Strasbourg) (1971-2008), 2002. http://www.theses.fr/2002STR30002.

Full text
Abstract:
Dans les dernières années, des progrès énormes ont été faits dans l'art et la science de mesure et de gestion du risque de crédit. La raison essentielle de ce développement a résulté du mécontentement des approches traditionnelles de mesure du risque de crédit sous le modèle réglementaire en vigueur. Les nouveaux modèles du risque de crédit qui sont apparus par la suite cherchent à offrir des approches alternatives de "modèles internes" pour mesurer le risque de crédit d'un prêt ou d'un portefeuille de prêts. La thèse présente la motivation pour le développement récent des nouveaux modèles de risque de crédit. Elle expose brièvement les modèles traditionnels d'évaluation de la dette risquée et examine les approches des nouveaux modèles internes. La thèse présente aussi deux essais sur le risque de crédit. Dans le premier essai, le ratio valeur nette sur actif est identifié comme un index pour la modélisation du risque de crédit. La condition de défaut est atteinte quand ce ratio devient négatif pour la première fois. Un modèle dynamique mean-reverting pour le processus de défaut est justifié par la théorie de la structure de capital optimale. Un modèle trinomial de chaîne Markov en temps discret est développé. Une méthode de matrice est donnée pour calculer numériquement le risque de défaut dans une période future de temps. Le deuxième essai développe un modèle de risque de défaut qui apparie la structure à terme initiale risquée, permettant des probabilités de défaut dépendantes du temps et un taux de recouvrement stochastique. Le temps de défaut est modélisé comme le premier saut d'un processus de type Poisson, avec le temps et le taux sans défaut dépendants de l'intensité du saut. Un algorithme d'indiction forward est développé pour apparier le spread de crédit initial<br>In recent years, enonnous strides have been made in the art and science of credit risk measurement and management. The main reason for this change has resulted in dissatisfaction with traditional approaches to credit risk measurement and with the current regulatory model. The new models of credit risk seek to offer alternative "internal model" approaches to measuring the credit risk of a loan or a portfolio of loans. The thesis provides the motivation for the recent growth of the new credit risk models. It briefly overviews traditional models of risky debt evaluation and examines tbe approaches of tbe new internal models. This thesis presents also two essays on credit risk. Ln the first essay, Networth-to-asset ratio is identified as a primary index for default process modeling. The default condition is defined when the ratio becomes negative the first time. A mean-reverting dynamic model for the default process is justified by using tbeory of optimal capital structure. A discrete time trinomial Markov chain model is developed. A matrix method is given to numerically approximate the default risk in a specific future period. The second essay develops a default risk model that matches the initial default risky term structure, allowing for state dependent default probability and stochastic recovery rate. The default time is modeled as the first jump of a Poisson type process, with time and default-free rate dependent jump intensity. It develops a forward induction algorithm for matching the initial credit yield spread
APA, Harvard, Vancouver, ISO, and other styles
21

Govorun, Maria. "Pension and health insurance, phase-type modeling." Doctoral thesis, Universite Libre de Bruxelles, 2013. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209447.

Full text
Abstract:
Depuis longtemps les modèles de type phase sont utilisés dans plusieurs domaines scientifiques pour décrire des systèmes qui peuvent être caractérisés par différents états. Les modèles sont bien connus en théorie des files d’attentes, en économie et en assurance.<p><p>La thèse est focalisée sur différentes applications des modèles de type phase en assurance et montre leurs avantages. En particulier, le modèle de Lin et Liu en 2007 est intéressant, parce qu’il décrit le processus de vieillissement de l’organisme humain. La durée de vie d’un individu suit une loi de type phase et les états de ce modèle représentent des états de santé. Le fait que le modèle prévoit la connexion entre les états de santé et l’âge de l’individu le rend très utile en assurance.<p><p>Les résultats principaux de la thèse sont des nouveaux modèles et méthodes en assurance pension et en assurance santé qui utilisent l’hypothèse de la loi de type phase pour décrire la durée de vie d’un individu.<p><p>En assurance pension le but d’estimer la profitabilité d’un fonds de pension. Pour cette raison, on construit un modèle « profit-test » qui demande la modélisation de plusieurs caractéristiques. On décrit l’évolution des participants du fonds en adaptant le modèle du vieillissement aux causes multiples de sortie. L’estimation des profits futurs exige qu’on détermine les valeurs des cotisations pour chaque état de santé, ainsi que l’ancienneté et l’état de santé initial pour chaque participant. Cela nous permet d’obtenir la distribution de profits futurs et de développer des méthodes pour estimer les risques de longevité et de changements de marché. De plus, on suppose que la diminution des taux de mortalité pour les pensionnés influence les profits futurs plus que pour les participants actifs. C’est pourquoi, pour évaluer l’impact de changement de santé sur la profitabilité, on modélise séparément les profits venant des pensionnés.<p><p>En assurance santé, on utilise le modèle de type phase pour calculer la distribution de la valeur actualisée des coûts futurs de santé. On développe des algorithmes récursifs qui permettent d’évaluer la distribution au cours d’une période courte, en utilisant des modèles fluides en temps continu, et pendant toute la durée de vie de l’individu, en construisant des modèles en temps discret. Les trois modèles en temps discret correspondent à des hypothèses différentes qu’on fait pour les coûts: dans le premier modèle on suppose que les coûts de santé sont indépendants et identiquement distribués et ne dépendent pas du vieillissement de l’individu; dans les deux autres modèles on suppose que les coûts dépendent de son état de santé.<p><br>Doctorat en Sciences<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
22

Baradel, Nicolas. "Contrôle Stochastique Impulsionnel avec Incertitude en Finance et en Assurance." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLED078.

Full text
Abstract:
Cette thèse se compose de trois chapitres qui portent sur des problématiques de contrôle impulsionnel. Dans le premier chapitre, nous introduisons un cadre général de contrôle impulsionnel avec incertitude. Sachant une loi a priori sur des paramètres inconnus, nous expliquons comment celle-ci doit évoluer et l'intégrons au problème de contrôle optimal. Nous caractérisons la solution à travers une équation parabolique quasivariationnelle qui se résout numériquement puis donnons des exemples d'application à la finance. Dans le deuxième chapitre, nous introduisons un problème de contrôle impulsionnel avec incertitude dans un cadre actuariel. Un (ré)assureur fait face à des catastrophes naturelles et peut émettre des CAT bonds afin de réduire le risque pris. Nous caractérisons à nouveau le problème de contrôle optimal à travers une équation parabolique quasi-variationnelle qui se résout numériquement et donnons des exemples d'application. Dans le dernier chapitre, nous proposons une modélisation du prix à travers un carnet d'ordre complètement endogène. Nous résolvons des problèmes de contrôle optimal impulsionnel (placement d'ordre) d'agents économiques rationnels que nous rassemblons sur un même marché<br>This PhD thesis is composed of three chapters, which deal with applications of impulse control in Finance and Insurance. In the first chapter, we introduce a general framework of impulse control with uncertainty. Knowing a prior on unknown parameters, we explain how it should evolve and we integrate it in the formulation of the optimal control problem. We characterize the solution via a parabolic quasi-variational partial differential equation, which can be solved numerically. We give examples of application in finance. In the second chapter, we define an impulse control problem with uncertainty arising in actuarial sciences. A (re-)insurer faces natural disasters and may issue CAT bonds in order to reduce the risk taken. The problem is solved using a PDE approach. A numerical scheme and different examples of application are provided. In the last chapter, we propose a price model defined through a completely endogenous order book. We solve optimal impulse control problems (order placement) of rational economic agents that we gather on the same market
APA, Harvard, Vancouver, ISO, and other styles
23

Macovschi, Stefan Eugen. "Aspects quantitatifs pour la gestion de position en finance de marché." Lyon 1, 2005. http://www.theses.fr/2005LYO10066.

Full text
Abstract:
Les travaux de cette thèse développent des outils et des démarches pour la gestion de position, ceci principalement pour les options européennes et les actions. Dans le premier chapitre une généralisation de la formule de Black et Scholes au cas de pay-offs croissants autres que linéaires est démontrée. Puis des évaluations de pay-offs polynomiaux sont faites avec une décomposition en un portefeuille d'options puissances. Le second chapitre illustre avec des exemples réels diverses difficultés pratiques sur les marchés d'options. Deux stratégies d'expiration sont aussi étudiées statistiquement. Le troisième chapitre présente un rapide résumé sur le concept de volatilité et se prolonge par l'amélioration d'une démarche empirique de gestion utilisée par les traders. Dans le quatrième chapitre nous montrons qu'il est possible dans une gestion avec coussin d'utiliser un plancher fluctuant
APA, Harvard, Vancouver, ISO, and other styles
24

Maj, Mateusz. "Essays in risk management: conditional expectation with applications in finance and insurance." Doctoral thesis, Universite Libre de Bruxelles, 2012. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209668.

Full text
Abstract:
In this work we study two problems motivated by Risk Management: the optimal design of financial products from an investor's point of view and the calculation of bounds and approximations for sums involving non-independent random variables. The element that interconnects these two topics is the notion of conditioning, a fundamental concept in probability and statistics which appears to be a useful device in finance. In the first part of the dissertation, we analyse structured products that are now widespread in the banking and insurance industry. These products typically protect the investor against bearish stock markets while offering upside participation when the markets are bullish. Examples of these products include capital guaranteed funds commercialised by banks, and equity linked contracts sold by insurers. The design of these products is complex in general and it is vital to examine to which extent they are actually interesting from the investor's point of view and whether they cannot be dominated by other strategies. In the academic literature on structured products the focus has been almost exclusively on the pricing and hedging of these instruments and less on their performance from an investor's point of view. In this work we analyse the attractiveness of these products. We assess the theoretical cost of inefficiency when buying a structured product and describe the optimal strategy explicitly if possible. Moreover we examine the cost of the inefficiency in practice. We extend the results of Dybvig (1988a, 1988b) and Cox & Leland (1982, 2000) who in the context of a complete, one-dimensional market investigated the inefficiency of path-dependent pay-offs. In the dissertation we consider this problem in one-dimensional Levy and multidimensional Black-Scholes financial markets and we provide evidence that path-dependent pay-offs should not be preferred by decision makers with a fixed investment horizon, and they should buy path-independent structures instead. In these market settings we also demonstrate the optimal contract that provides the given distribution to the consumer, and in the case of risk- averse investors we are able to propose two ways of improving the design of financial products. Finally we illustrate the theory with a few well-known securities and strategies e.g. dollar cost averaging, buy-and-hold investments and widely used portfolio insurance strategies. The second part of the dissertation considers the problem of finding the distribution of a sum of non- independent random variables. Such dependent sums appear quite often in insurance and finance, for instance in case of the aggregate claim distribution or loss distribution of an investment portfolio. An interesting avenue to cope with this problem consists in using so-called convex bounds, studied by Dhaene et al. (2002a, 2002b), who applied these to sums of log-normal random variables. In their papers they have shown how these convex bounds can be used to derive closed-form approximations for several of the risk measures of such a sum. In the dissertation we prove that unlike the log-normal case the construction of a convex lower bound in explicit form appears to be out of reach for general sums of log-elliptical risks and we show how we can construct stop-loss bounds and we use these to construct mean preserving approximations for general sums of log-elliptical distributions in explicit form.<br>Doctorat en Sciences<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
25

Brangier, Éric. "La modélisation de la cognition dans l'élaboration d'un système expert." Metz, 1991. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1991/Brangier.Eric.LMZ911.pdf.

Full text
Abstract:
Cette thèse porte sur la modélisation de la cognition lors de l'élaboration d'un système expert d'aide à la décision dans le domaine de l'assurance-vie. La modélisation de la cognition y est vue comme la conception d'une architecture fonctionnelle des concepts et raisonnements de l'expert. Cette dernière consiste en un circuit "programmable" dans lequel les connaissances sont organisées de deux façons complémentaires. D'une part, les concepts sont groupes en catégories. Dans les catégories, qui recouvrent les thèmes de la médecine d'assurance, les concepts sont ranges en classes et en instances de classes. Des relations de subordination et de dépendances conceptuelles précisent les liens que les concepts entretiennent entre eux. D'autre part, les raisonnements sont représentés sous la forme de règles de production et de schémas d'inférences, dont l'activation s'attache a simuler respectivement les activités de diagnostic et de pronostic de l'expert humain. Dans ce cadre, la prise de décision est envisagée comme un processus d'activation du circuit compose par la catégorisation des concepts, les règles de production et les schémas d'inférences. L'activation repose sur la recherche constante des connaissances les plus pertinentes, et s'attache à déclencher des inférences autorisables dans le circuit à partir des formes logiques, syntaxiques et sémantiques que peuvent prendre les connaissances. Ces connaissances particulières ayant des contenus logiques, syntaxiques et sémantiques sont désignées par le terme "d'opérateur cognitif". Enfin, nous avons cherché à valider le modèle de cognition par un test en double aveugle confrontant les avis de trois experts avec les décisions du système expert. Il en ressort que le système expert fournit des décisions et des justifications qui sont jugées globalement acceptables par les experts humains<br>This thesis deals with the problem of cognition modelisation when elaborating a decision aiding expert system in the field of life-insurance. We intend to show that this modelisation can be seen as the design of a functional architecture based on the expert's concepts and reasonings. This architecture consists into a "programmable" circuit in which knowledge is organized in two complementary ways. On the first hand concepts are gathered into categories, which cover the various topics of insurance medecine. In each category, concepts are ordered into classes and classes instances and related to each other through subordination or conceptual dependency relations. On the second hand, the expert reasonings are represented by production rules and inference schemes, whose activation tries to simulate respectively the diagnostic and pronostic activities of the human expert. Therefore, the decision making process can be considered as an activation process of the circuit made up of the concepts categorization, the production rules and the inference schemes. The circuit activation is based on the constant search of the most relevant pieces of knowledge, and seeks to trigger inferences allowed for given logical, syntactical and semantical contents of the knowledge in the different places of the circuit. This particular knowledge with logical, syntactical and semantical contents at once, is called "cognitive operators". Finally, we sought to validate our model by comparing the expert system answers with those of three experts. It appeared that the decisions made by the expert system and the explanation given are considered globally acceptable by the human experts
APA, Harvard, Vancouver, ISO, and other styles
26

Nichil, Geoffrey. "Provisionnement en assurance non-vie pour des contrats à maturité longue et à prime unique : application à la réforme Solvabilité 2." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0200/document.

Full text
Abstract:
Nous considérons le cas d’un assureur qui doit indemniser une banque à la suite de pertes liées à un défaut de remboursement de ses emprunteurs. Les modèles couramment utilisés sont collectifs et ne permettent pas de prendre en compte les comportements individuels des emprunteurs. Dans une première partie nous définissons un modèle pour étudier le montant des pertes liées à ces défauts de paiement (provision) pour une période donnée. La quantité clé de notre modèle est le montant d’un défaut. Pour un emprunteur j et une date de fin de prêt Tj , ce montant vaut max(Sj Tj -Rj Tj ; 0), où Sj Tj est le montant dû par l’emprunteur et dépend de la durée et du montant du prêt, et Rj Tj est le montant de la revente du bien immobilier financé par le prêt. Rj Tj est proportionnel au montant emprunté; le coefficient de proportionnalité est modélisé par un mouvement Brownien géométrique et représente les fluctuations des prix de l’immobilier. La loi des couples (Date de fin du prêt, Durée du prêt) est modélisée par un processus ponctuel de Poisson. La provision Ph, où h est la durée maximale des contrats considérés, est alors définie comme la somme d’un nombre aléatoire de montants de défauts individuels. Nous pouvons ainsi calculer l’espérance et la variance de la provision mais aussi donner un algorithme de simulation. Il est également possible d’estimer les paramètres liés au modèle et de fournir une valeur numérique aux quantiles de la provision. Dans une deuxième partie nous nous intéresserons au besoin de solvabilité associé au risque de provisionnement (problématique imposée par la réforme européenne Solvabilité 2). La question se ramène à étudier le comportement asymptotique de Ph lorsque h ! +1. Nous montrons que Ph, convenablement normalisée, converge en loi vers une variable aléatoire qui est la somme de deux variables dont l’une est gaussienne<br>We consider an insurance company which has to indemnify a bank against losses related to a borrower defaulting on payments. Models normally used by insurers are collectives and do not allows to take into account the personal characteristics of borrowers. In a first part, we defined a model to evaluate potential future default amounts (provision) over a fixed period.The amount of default is the key to our model. For a borrower j and an associated maturity Tj, this amount is max(Sj Tj -Rj Tj ; 0), where Sj Tj is the outstanding amount owed by the borrower and depends on the borrowed amount and the term of the loan, and Rj Tj is the property sale amount. Rj Tj is proportionate to the borrowed amount; the proportionality coefficient is modeled by a geometric Brownian motion and represents the fluctuation price of real estate. The couples (Maturity of the loan, Term of the loan) are modeled by a Poisson point process. The provision Ph, where h is the maximum duration of the loans, is defined as the sum of the random number of individual defaults amounts. We can calculate the mean and the variance of the provision and also give an algorithm to simulate the provision. It is also possible to estimate the parameters of our model and then give a numerical value of the provision quantile. In the second part we will focus on the solvency need due to provisioning risk (topic imposed by the european Solvency 2 reform). The question will be to study the asymptotic behaviour of Ph when h ! +1. We will show that Ph, well renormalized, converges in law to a random variable which is the sum of two random variables whose one is a Gaussian
APA, Harvard, Vancouver, ISO, and other styles
27

Milhaud, Xavier. "Mélanges de GLMs et nombre de composantes : application au risque de rachat en Assurance Vie." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10097/document.

Full text
Abstract:
La question du rachat préoccupe les assureurs depuis longtemps notamment dans le contexte des contrats d'épargne en Assurance-Vie, pour lesquels des sommes colossales sont en jeu. L'émergence de la directive européenne Solvabilité II, qui préconise le développement de modèles internes (dont un module entier est dédié à la gestion des risques de comportement de rachat), vient renforcer la nécessité d'approfondir la connaissance et la compréhension de ce risque. C'est à ce titre que nous abordons dans cette thèse les problématiques de segmentation et de modélisation des rachats, avec pour objectif de mieux connaître et prendre en compte l'ensemble des facteurs-clefs qui jouent sur les décisions des assurés. L'hétérogénéité des comportements et leur corrélation ainsi que l'environnement auquel sont soumis les assurés sont autant de difficultés à traiter de manière spécifique afin d'effectuer des prévisions. Nous développons ainsi une méthodologie qui aboutit à des résultats très encourageants ; et qui a l'avantage d'être réplicable en l'adaptant aux spécificités de différentes lignes de produits. A travers cette modélisation, la sélection de modèle apparaît comme un point central. Nous le traitons en établissant les propriétés de convergence forte d'un nouvel estimateur, ainsi que la consistance d'un nouveau critère de sélection dans le cadre de mélanges de modèles linéaires généralisés<br>Insurers have been concerned about surrenders for a long time especially in Saving business, where huge sums are at stake. The emergence of the European directive Solvency II, which promotes the development of internal risk models (among which a complete unit is dedicated to surrender risk management), strengthens the necessity to deeply study and understand this risk. In this thesis we investigate the topics of segmenting and modeling surrenders in order to better know and take into account the main risk factors impacting policyholders’ decisions. We find that several complex aspects must be specifically dealt with to predict surrenders, in particular the heterogeneity of behaviours and their correlations as well as the context faced by the insured. Combining them, we develop a methodology that seems to provide good results on given business lines, and that moreover can be adapted for other products with little effort. However the model selection step suffers from a lack of parsimoniousness: we suggest to use another criteria based on a new estimator, and prove its consistant properties in the framework of mixtures of generalized linear models
APA, Harvard, Vancouver, ISO, and other styles
28

Pothon, Adrien. "Seismic loss modelling in insurance industry : towards a new model for better claims management." Thesis, Université Grenoble Alpes, 2020. https://tel.archives-ouvertes.fr/tel-02862122.

Full text
Abstract:
Plusieurs rapports scientifiques ont mis en évidence que, tant sur l’historique des pertes liées aux catastrophes naturelles, que sur le coût moyen attendu pour les années à venir, le risque sismique est celui pour lequel la perte non-assurée est la plus forte parmi l’ensemble des catastrophes naturelles. Dans ce contexte, le sujet retenu pour ma thèse est : « Modélisation du risque sismique en assurance : étude d’un nouveau modèle pour une meilleure gestion assurantielle ». Les travaux s’organisent en trois parties : 1° présentation des différents systèmes assurantiels contre le risque sismique à travers le monde ; 2° identification des principaux axes d’amélioration de la modélisation du risque ; 3° propositions pour un nouveau modèle assurantiel.La revue des systèmes d’assurance a porté principalement sur les deux pays suivant: la France et la Californie. En combinant plusieurs variables liées au niveau de risque mis en perspective avec différents indicateurs économiques, nous avons créé une échelle de maturité particulière pour l’assurance sismique. Cet outil permet de mesurer l’évolution, à la hausse comme à la baisse, d’un marché d’assurance. En l’appliquant aux deux pays étudiés, il ressort qu’aucun d’eux n’est équipé d’un système assurantiel durable.En France, le risque de tremblement de terre est couvert par le régime CAT-NAT. En étudiant l’ensemble des communes reconnues en état de catastrophe naturelle à la suite d’un séisme, un modèle probabiliste de reconnaissance d’état de catastrophe naturelle a été développé. En l’appliquant à deux scénarios représentatifs d’un séisme majeur en France métropolitaine, les résultats montrent que l’Etat pourrait être mis en difficulté pour payer la charge des sinistres qui lui incombe dans le cadre du régime CAT-NAT.En Californie, malgré que le risque soit important, seulement 15% de la population est assurée. Nous avons mené une étude différenciant l’effet de la perception du risque sismique par les Californiens de celui du prix de l’assurance. Les résultats montrent que les Californiens n’adhèrent pas aux offres d’assurance à cause de leur prix, et non par sous-estimation du risque. Ce modèle démontre aussi que la majorité des Californiens achèteraient une assurance tremblement de terre si son prix était divisé par trois.D’après l’échelle de maturité préalablement développée, l’évolution de ce système assurantiel demande une meilleure modélisation du risque. Pour cela, nous avons élaboré une nouvelle méthode de comparaison entre des cartes d’aléas probabilistes et les modélisations d’empreintes d’aléa. Le perfectionnement des modèles stochastiques de pertes liées à un tremblement de terre nécessite également de renforcer la relation entre l’échelle de dommages utilisée et les coûts de réparation associés. Pour cela, une base de données des conséquences économiques des séismes passés a été constituée. En outre, un modèle économique a été élaboré pour tester les modèles dommages-coût existants avec les données historiques précédemment collectées.Enfin, la dernière partie de mon travail de thèse porte sur l’étude d’un nouveau modèle assurantiel dans lequel le montant des primes est alloué à chaque bâtiment. Tant qu’un séisme n’endommage pas un bâtiment assuré, le montant des primes est investi pour accroître les ressources disponibles. Quand un séisme survient et endommage un bâtiment assuré, la compagnie d’assurance prend en charge les travaux de réparation ou de reconstruction. Si les ressources accumulées sont suffisamment importantes avant qu’un séisme survienne, celles-ci sont utilisées pour financer des travaux de renforcement parasismique. Le coût associé est alors compensée par le gain de résistance du bâtiment. Cela permet ainsi de diminuer la prime payée par l’assuré et créer une boucle vertueuse de prévention des risques<br>Various scientific reports have highlighted that, both on the history of losses related to natural disasters, and on the average cost expected for the coming years, the seismic risk is the risk for which the uninsured loss is the biggest of all natural disasters. In this context, the subject I chose for my thesis is: " Seismic loss modelling in insurance industry: towards a new model for better claims management". The work is organized in three parts: 1° presentation of the different insurance systems against seismic risk around the world; 2° identification of the main areas to improve risk modelling; 3° proposals for a new insurance model.The insurance systems review focused on the following two countries: France and California. By combining several variables related to the level of risk put into perspective with different economic indicators, we have created a specific maturity scale for seismic insurance. This tool makes it possible to measure the evolution, upwards or downwards, of an insurance market. Applying it to the two countries studied, it appears that none of them is equipped with a sustainable insurance system.In France, the risk of earthquake has been covered by the so-called CAT-NAT scheme. On the basis of all the municipalities declared in natural disaster after an earthquake, a probabilistic model of natural disaster state recognition at the municipality level was developed. By applying it to two representative scenarios of a major earthquake in mainland France, the results show that the state could be put in a difficult position from covering the cost of the disaster under the CAT-NAT scheme.In California, although the risk is significant, only 15% of the population is insured. We conducted a study differentiating the effect of the perception of the seismic risk by the Californians from the price of the insurance. The results show that Californians do not adhere to these insurance plans because of their price, and not by underestimating the risk. This model shows also that the majority of Californians would buy an earthquake insurance if its price was divided by three.According to the scale of maturity previously developed, the evolution of this insurance system requires a better risk modelling. For this reason, we have developed a new method for comparing probabilistic seismic hazards maps with estimated hazard footprints of past earthquakes. Improving stochastic earthquake loss models also requires strengthening the relationship between the damage scale used and associated repair costs. For this reason, a database of the economic consequences of past earthquakes has been created. In addition, an economic model has been developed in order to test existing damage-cost models with historical data previously collected.Finally, the last part of my thesis work focuses on the study of a new insurance model, where the cost of the insurance premiums is allocated to each building. As long as an earthquake does not damage an insured building, premiums are invested to increase the available. When an earthquake occurs and damages an insured building, the insurance company takes care of the repair or reconstruction work. If the accumulated capital is big enough before an earthquake causes damage to a building, it is used to finance seismic retrofitting works. The loss of capital that these generate is then compensated by the resistance gain of the building. This way the cost of the premium paid by the policyholder is reduced and a real commitment to risk prevention is initiated
APA, Harvard, Vancouver, ISO, and other styles
29

Biessy, Guillaume. "Semi-Markov modeling of the loss of autonomy among elderly people : application to long-term care insurance." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE048/document.

Full text
Abstract:
Défi majeur aux sociétés modernes, la perte d’autonomie chez les personnes âgées, connue également sous le nom de dépendance se définit comme un état d’incapacité à effectuer seul tout ou partie des Actes de la Vie Quotidienne (AVQ). Elle apparaît dans la grande majorité des cas sous l’effet des pathologies chroniques liées au vieillissement. Devant les coûts importants liés à cet état, les assureurs privés ont développé une offre destinée à compléter l’aide publique. Pour quantifier le risque, un modèle multi-états est utilisé et se pose alors la question de l’estimation des probabilités de transition entre les états (l’autonomie, le décès ainsi qu’un ou plusieurs niveaux de dépendance). Sous l’hypothèse de Markov, ces dernières dépendent uniquement de l’état actuel, une hypothèse trop restrictive pour rendre compte de la complexité du processus de dépendance. Dans le cadre semi-markovien plus général, ces probabilités dépendent également du temps passé dans l’état actuel. Au cours de cette thèse, nous étudions la nécessité d’une modélisation semi-markovienne du processus. Nous mettons en évidence l’impact du temps passé en dépendance sur les probabilités de décès. Nous montrons par ailleurs que la prise en compte de la diversité induite par les pathologies permet d’améliorer sensiblement l’adéquation du modèle proposé aux données étudiées. Plus encore, nous établissons que la forme particulière de la probabilité de décès en fonction du temps passé en dépendance peut être expliquée par le mélange des groupes de pathologies qui constituent la population des individus dépendants<br>A sizable challenge to modern societies, Long-Term Care (LTC) in elderly people may be defined as a state of incapacity to perform autonomously part of the Activities of Daily Living (ADL). In most cases, long-term care is caused by pathologies linked to aging. To cope with the sizeable costs linked to this state, private insurers have developed products in top of the public aid. To quantify the long-term care risk, multi-state models are used for which transition probabilities betweenstates (autononomy, death and one to several levels of LTC) need to be inferred. Under the Markov assumption, those probabilities only depend on the current state, this assumption being too restrictive in regards of the complexity of the underlying risk. In a semi-Markov framework, those probabilities also depends on the time spent in the current state. In this thesis, we emphasis the need for the semi-Markov modeling. We demonstrate the impact of time spent in LTC on death probabilities. Besides, we exhibit that taking into account the diversity induced by pathologies leads to sizable improvementsin the fit of the model to experience data. Furthermore, we highlight that the peculiar shape taken by death probabilities as a function of time spent in LTC may be explained by the mixture of pathology groups among the disabled population
APA, Harvard, Vancouver, ISO, and other styles
30

Tillier, Charles. "Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire." Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100192.

Full text
Abstract:
L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques<br>Risk analyses play a leading role within fields such as dietary risk, hydrology, nuclear security, finance and insurance and is more and more present in theapplications of various probability tools and statistical methods. We see a significant impact on the scientific literature and on public institutions in the past years. Risk theory, which is really close to extreme value analysis, typically deals with the occurrences of rare events which are functions of heavy-tailed random variables, for example, sums or products of regularly varying random variables. The purpose of this thesis is the following : to develop revelant risk indicators and to study the extremal properties of stochastic processes used in dietary risk assessment and in insurance. In Chapter 1, we present the main tools used in risk theory and the notion of regular variation and introduce different models involved in dietary risk assessment, which will be specifically studied in Chapters 2 and 3. Chapter 2 presents a joint work with Olivier Wintenberger. For a particular class of stochastic processes, under the assumption of regular variation, we propose a method that gives way to asymptotic equivalents on a finite-time horizon of risk indicators such as the ruin probability, the Expected Time over a Threshold or the Expected Severity of the ruin. Chapter 3 focuses on dietary risk models. To be precise, we study the extremal properties of an extension of a model called KDEM for Kinetic Dietary Exposure Model introduced by Patrice Bertail and his co-authors in 2008. Under the assumption of regular variation, we provide asymptotic equivalents for the tail behavior and the extremal index of the exposure process. In Chapter 4, we review different statistical tools specifically tailored for the study of the extremal behavior of Markov processes. Thanks to regeneration properties, we can split the path of observations into blocks which are independent and identically distributed. This technic still works even if the Markov chain is not atomic. We focus here on the estimation of the tail index and the extremal index. We illustrate the performance of these technics applying them on two models in insurance and finance for which we know the theoritical results
APA, Harvard, Vancouver, ISO, and other styles
31

Mostoufi, Mina. "Eléments de théorie du risque en finance et assurance." Thesis, Paris 1, 2015. http://www.theses.fr/2015PA010044/document.

Full text
Abstract:
Cette thèse traite de la théorie du risque en finance et en assurance. La mise en pratique du concept de comonotonie, la dépendance du risque au sens fort, est décrite pour identifier l’optimum de Pareto et les allocations individuellement rationnelles Pareto optimales, la tarification des options et la quantification des risques. De plus, il est démontré que l’aversion au risque monotone à gauche, un raffinement pertinent de l’aversion forte au risque, caractérise tout décideur à la Yaari, pour qui, l’assurance avec franchise est optimale. Le concept de comonotonie est introduit et discuté dans le chapitre 1. Dans le cas de risques multiples, on adopte l’idée qu’une forme naturelle pour les compagnies d’assurance de partager les risques est la Pareto optimalité risque par risque. De plus, l’optimum de Pareto et les allocations individuelles Pareto optimales sont caractérisées. Le chapitre 2 étudie l’application du concept de comonotonie dans la tarification des options et la quantification des risques. Une nouvelle variable de contrôle de la méthode de Monte Carlo est introduite et appliquée aux “basket options”, aux options asiatiques et à la TVaR. Finalement dans le chapitre 3, l’aversion au risque au sens fort est raffinée par l’introduction de l’aversion au risque monotone à gauche qui caractérise l’optimalité de l’assurance avec franchise dans le modèle de Yaari. De plus, il est montré que le calcul de la franchise s’effectue aisément<br>This thesis deals with the risk theory in Finance and Insurance. Application of the Comonotonicity concept, the strongest risk dependence, is described for identifying the Pareto optima and Individually Rational Pareto optima allocations, option pricing and quantification of risk. Furthermore it is shown that the left monotone risk aversion, a meaningful refinement of strong risk aversion, characterizes Yaari’s decision makers for whom deductible insurance is optimal. The concept of Comonotonicity is introduced and discussed in Chapter 1. In case of multiple risks, the idea that a natural way for insurance companies to optimally share risks is risk by risk Pareto-optimality is adopted. Moreover, the Pareto optimal and individually Pareto optimal allocations are characterized. The Chapter 2 investigates the application of the Comonotonicity concept in option pricing and quantification of risk. A novel control variate Monte Carlo method is introduced and its application is explained for basket options, Asian options and TVaR. Finally in Chapter 3 the strong risk aversion is refined by introducing the left-monotone risk aversion which characterizes the optimality of deductible insurance within the Yaari’s model. More importantly, it is shown that the computation of the deductible is tractable
APA, Harvard, Vancouver, ISO, and other styles
32

Badran, Rabih. "Insurance portfolio's with dependent risks." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209547.

Full text
Abstract:
Cette thèse traite de portefeuilles d’assurance avec risques dépendants en théorie du risque.<p>Le premier chapitre traite les modèles avec risques équicorrelés. Nous proposons une structure mathématique qui amène à une fonction génératrice de probabilités particulière (fgp) proposé par Tallis. Cette fgp implique des variables équicorrelées. Puis, nous étudions l’effet de ce type de dépendance sur des quantités d’intérêt dans la littérature actuarielle telle que la fonction de répartition de la somme des montants des sinistres, les primes stop-loss et les probabilités de ruine sur horizon fini. Nous utilisons la structure proposée pour corriger des erreurs dans la littérature dues au fait que plusieurs auteurs agissaient comme si la somme des variables aléatoires équicorrélés aient nécessairement la fgp proposée par Tallis. <p><p>Dans le second chapitre, nous proposons un modèle qui combine les modèles avec chocs et les modèles avec mélanges communs en introduisant une variable qui contrôle le niveau du choc. Dans le cadre de ce nouveau modèle, nous considérons deux applications où nous généralisons le modèle de Bernoulli avec choc et le modèle de Poisson avec choc. Nous étudions, dans les deux applications, l’effet de la dépendance sur la fonction de répartition des montants des sinistres, les primes stop-loss et les probabilités de ruine sur horizon fini et infini. Pour la deuxième application, nous proposons une construction basée sur les copules qui permet de contrôler le niveau de dépendance avec le niveau du choc.<p><p>Dans le troisième chapitre, nous proposons, une généralisation du modèle classique de Poisson où les montants des sinistres et les intersinistres sont supposés dépendants. Nous calculons la transformée de Laplace des probabilités de survie. Dans le cas particulier où les montants des sinistres ont une distribution exponentielle nous obtenons des formules explicites pour les probabilités de survie. <p><p>Dans le quatrième chapitre nous généralisons le modèle classique de Poisson en introduisant de la dépendance entre les intersinistres. Nous utilisons le lien entre les files fluides et le processus du risque pour modéliser la dépendance. Nous calculons les probabilités de survie en utilisant un algorithme numérique et nous traitons le cas où les montants de<p>sinistres et les intersinistres ont des distributions de type phase.<p><br>Doctorat en Sciences<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
33

Bargès, Mathieu. "Modèles de dépendance dans la théorie du risque." Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00736207.

Full text
Abstract:
Initialement, la théorie du risque supposait l'indépendance entre les différentes variables aléatoires et autres paramètres intervenant dans la modélisation actuarielle. De nos jours, cette hypothèse d'indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments des modèles. Dans cette thèse, nous proposons d'introduire des modèles de dépendance pour différents aspects de la théorie du risque. Dans un premier temps, nous suggérons l'emploi des copules comme structure de dépendance. Nous abordons tout d'abord un problème d'allocation de capital basée sur la Tail-Value-at-Risk pour lequel nous supposons un lien introduit par une copule entre les différents risques. Nous obtenons des formules explicites pour le capital à allouer à l'ensemble du portefeuille ainsi que la contribution de chacun des risques lorsque nous utilisons la copule Farlie-Gumbel-Morgenstern. Pour les autres copules, nous fournissons une méthode d'approximation. Au deuxième chapitre, nous considérons le processus aléatoire de la somme des valeurs présentes des sinistres pour lequel les variables aléatoires du montant d'un sinistre et de temps écoulé depuis le sinistre précédent sont liées par une copule Farlie-Gumbel-Morgenstern. Nous montrons comment obtenir des formes explicites pour les deux premiers moments puis le moment d'ordre m de ce processus. Le troisième chapitre suppose un autre type de dépendance causée par un environnement extérieur. Dans le contexte de l'étude de la probabilité de ruine d'une compagnie de réassurance, nous utilisons un environnement markovien pour modéliser les cycles de souscription. Nous supposons en premier lieu des temps de changement de phases de cycle déterministes puis nous les considérons ensuite influencés en retour par les montants des sinistres. Nous obtenons, à l'aide de la méthode d'erlangisation, une approximation de la probabilité de ruine en temps fini.
APA, Harvard, Vancouver, ISO, and other styles
34

Gathy, Maude. "On some damage processes in risk and epidemic theories." Doctoral thesis, Universite Libre de Bruxelles, 2010. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210063.

Full text
Abstract:
Cette thèse traite de processus de détérioration en théorie du risque et en biomathématique.<p><p>En théorie du risque, le processus de détérioration étudié est celui des sinistres supportés par une compagnie d'assurance.<p><p>Le premier chapitre examine la distribution de Markov-Polya comme loi possible pour modéliser le nombre de sinistres et établit certains liens avec la famille de lois de Katz/Panjer. Nous construisons la loi de Markov-Polya sur base d'un modèle de survenance des sinistres et nous montrons qu'elle satisfait une récurrence élégante. Celle-ci permet notamment de déduire un algorithme efficace pour la loi composée correspondante. Nous déduisons la famille de Katz/Panjer comme famille limite de la loi de Markov-Polya.<p><p>Le second chapitre traite de la famille dite "Lagrangian Katz" qui étend celle de Katz/Panjer. Nous motivons par un problème de premier passage son utilisation comme loi du nombre de sinistres. Nous caractérisons toutes les lois qui en font partie et nous déduisons un algorithme efficace pour la loi composée. Nous examinons également son indice de dispersion ainsi que son comportement asymptotique. <p><p>Dans le troisième chapitre, nous étudions la probabilité de ruine sur horizon fini dans un modèle discret avec taux d'intérêt positifs. Nous déterminons un algorithme ainsi que différentes bornes pour cette probabilité. Une borne particulière nous permet de construire deux mesures de risque. Nous examinons également la possibilité de faire appel à de la réassurance proportionelle avec des niveaux de rétention égaux ou différents sur les périodes successives.<p><p>Dans le cadre de processus épidémiques, la détérioration étudiée consiste en la propagation d'une maladie de type SIE (susceptible - infecté - éliminé). La manière dont un infecté contamine les susceptibles est décrite par des distributions de survie particulières. Nous en déduisons la distribution du nombre total de personnes infectées à la fin de l'épidémie. Nous examinons en détails les épidémies dites de type Markov-Polya et hypergéométrique. Nous approximons ensuite cette loi par un processus de branchement. Nous étudions également un processus de détérioration similaire en théorie de la fiabilité où le processus de détérioration consiste en la propagation de pannes en cascade dans un système de composantes interconnectées. <p><p><p><br>Doctorat en Sciences<br>info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
35

Hamel, Emmanuel. "Un modèle d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30040/30040.pdf.

Full text
Abstract:
Dans ce mémoire, un processus d’évaluation des coûts agrégés liés aux assurances pour les professionnels de la santé est considéré. Au chapitre 1, nous décrivons les principales caractéristiques de l’assurance pour les professionnels de la santé : l’environnement, les types de couverture d’assurance, la prime, les coûts liés aux réclamations, les types de dépendances stochastiques dans le processus des coûts et dans les taux d’actualisation du processus des coûts. Au chapitre 2, une description des concepts théoriques préalables à l’élaboration et à l’application du modèle mathématique est faite : la dépendance (avec copules), le processus de renouvellement, la force d’intérêt et les méthodes numériques utilisées. Au chapitre 3, le modèle théorique du processus des coûts est établi et les premiers moments de ce processus sont obtenus, par des calculs numériques déterministes et par simulations. Au chapitre 4, plusieurs applications du modèle sont présentées : moments avec force d’intérêt stochastique (Vasicek), incidences de la dépendance sur le modèle, calculs de primes, mesures de risque (VaR et TVaR). Au chapitre 5, nous concluons ce mémoire.<br>In this master’s degree thesis, an aggregate loss model for health professionals is considered. The introduction describes some characteristics related to the insurance for health professionals: environment, type of insurance coverage, premium, cost of a claim, stochastic dependencies in the claim process and discount rate. In chapter 2, a description of theoretical concepts related to the proposed mathematical model is done: stochastic dependence (by copulas), renewal processes, discount rate (i.e. stochastic differential equations) and numerical methods. In chapter 3, the theoretical model is presented and the first moments are obtained, with deterministic numerical calculations and simulations. In chapter 4, some applications of the model are presented: first moments calculations with stochastic interest rate (Vasicek), impact of dependence on the model, premium calculations, risk measures (VaR and TVaR). In chapter 5, the conclusion follows.
APA, Harvard, Vancouver, ISO, and other styles
36

Roumiguie, Antoine. "Développement et validation d’un indice de production des prairies basé sur l’utilisation de séries temporelles de données satellitaires : application à un produit d’assurance en France." Thesis, Toulouse, INPT, 2016. http://www.theses.fr/2016INPT0030/document.

Full text
Abstract:
Une assurance indicielle est proposée en réponse à l'augmentation des sécheresses impactant les prairies. Elle se base sur un indice de production fourragère (IPF) obtenu à partir d'images satellitaires de moyenne résolution spatiale pour estimer l'impact de l'aléa dans une zone géographique définie. Le principal enjeu lié à la mise en place d'une telle assurance réside dans la bonne estimation des pertes subies. Les travaux de thèse s’articulent autour de deux objectifs : la validation de l'IPF et la proposition d'amélioration de cet indice. Un protocole de validation est construit pour limiter les problèmes liés à l'utilisation de produit de moyenne résolution et au changement d’échelle. L'IPF, confronté à des données de référence de différentes natures, montre de bonnes performances : des mesures de production in situ (R² = 0,81; R² = 0,71), des images satellitaires haute résolution spatiale (R² = 0,78 - 0,84) et des données issues de modélisation (R² = 0,68). Les travaux permettent également d'identifier des pistes d'amélioration pour la chaîne de traitement de l'IPF. Un nouvel indice, basé sur une modélisation semiempirique combinant les données satellitaires avec des données exogènes relatives aux conditions climatiques et à la phénologie des prairies, permet d'améliorer la précision des estimations de production de 18,6 %. L’ensemble des résultats obtenus ouvrent de nombreuses perspectives de recherche sur le développement de l'IPF et ses potentiels d'application dans le domaine assurantiel<br>An index-based insurance is provided in response to the increasing number of droughts impacting grasslands. It is based on a forage production index (FPI) retrieved from medium resolution remote sensing images to estimate the impact of hazard in a specific geographical area. The main issue related to the development of such an insurance is to obtain an accurate estimation of losses. This study focuses on two objectives: the FPI validation and the improvement of this index. A validation protocol is defined to limit problems attached to the use of medium resolution products and scaling issues in the comparisons process. FPI is validated with different data: ground measurements production (R² = 0.81; R² = 0.71), high resolution remote sensing images (R² = 0.78 - 0.84) and modelled data (R² = 0.68). This study also points out areas of improvement for the IPF chain. A new index, based on semi-empirical modeling combining remote sensing data with exogenous data referring to climatic conditions and grassland phenology, allows improving production estimation accuracy by 18.6%. Results of this study open several new research perspectives on FPI development and its potential practical application
APA, Harvard, Vancouver, ISO, and other styles
37

Abdallah, Anas. "Modèles de dépendance hiérarchique pour l'évaluation des passifs et la tarification en actuariat." Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27001.

Full text
Abstract:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.<br>The objective of this thesis is to propose innovative hierarchical approaches to model dependence within and between risks in non-life insurance in general, and in a loss reserving context in particular. One of the most critical problems in property/casualty insurance is to determine an appropriate reserve for incurred but unpaid losses. These provisions generally comprise most of the liabilities of a non-life insurance company. The global provisions are often determined under an assumption of independence between the lines of business. However, most risks are related to each other in practice, and this correlation needs to be taken into account. Recently, Shi and Frees (2011) proposed to include dependence between lines of business in a pairwise manner, through a copula that captures dependence between two equivalent cells of two different runoff triangles. In this thesis, we propose to generalize this model with two different approaches. Firstly, by using hierarchical Archimedean copulas to accommodate correlation within and between lines of business, and secondly by capturing this dependence through random effects. The first approach will be presented in chapters 2 and 3. In chapter 2, we use partially nested Archimedean copulas to capture dependence within and between two lines of business, through calendar year effects. In chapter 3, we use fully nested Archimedean copulas, to accommodate dependence between more than two lines of business. A copula-based risk aggregation model is also proposed to accommodate dependence. The inference for the dependence structure is performed with a rank-based methodology to bring more robustness to the estimation. In chapter 4, we introduce the Sarmanov family of bivariate distributions to a loss reserving context, and show that its flexibility proves to be very useful for modeling dependence between loss triangles. This dependence is captured by random effects, through calendar years, accident years or development periods. Closed-form expressions are given, and a real life illustration is shown again. In chapter 5, we use the Sarmanov family of bivariate distributions in a dynamic framework, where the random effects are considered evolutionary and evolve over time, to update the information and allow more weight to more recent claims. Hence, we propose an innovative way to jointly model the dependence between risks and over time with an illustration in a ratemaking context. Finally, a brief conclusion recalls the main contributions of this thesis and provides insights into future research and possible extensions to the proposed works.
APA, Harvard, Vancouver, ISO, and other styles
38

Abou, Harb Mohamed Bassam. "Une famille d'éléments finis raffinés de structures multicouches assurant la continuité des contraintes de cisaillement transversal." Bordeaux 1, 1997. http://www.theses.fr/1997BOR10548.

Full text
Abstract:
Un nouveau modèle théorique de coque axisymétrique composite multicouche appartenant à la famille des éléments finis sinus (modèles initiés par Touratier) est présenté. Ce modèle permet d'assurer la continuité des contraintes de cisaillement transversal aux interfaces des couches. L'étude est réalisée en statique et en dynamique. La validité du modèle est testée sur des problèmes pour lesquels une solution exacte existe, A défaut, des éléments finis du code de calcul Abaqus sont utilisés comme référence. L'approximatoin du champ de déplacement sous d'abord l'hypothèse de petites perturbations et ensuite de déplacements modérés a permis d'établir les équations du mouvement et les conditions aux limites par le principe des puissances virtuelles. Les solutions analytiques ont permis de valider la nouvelle cinématique. Trois éléments finis de type C#1 basés sue ce modèle sont développés pour les structures composites et implantés dans le code de calcul Abaqus: - Le premier élément fini est destiné à modéliser les poutres droites épaisses ou modérement épaisses. Cet élément comporte trois noeuds à dix degrés de liberté; - Le deuxième élément concerne la modélisation des poutres courbes ; il est riche en degrés de liberté "treize" ; les interpolations utilisées sont d'ordre quatre pour répondre aux problèmes numériques de verrouillage en membrane et en cisaillement transversal. Enfin, le troisième élément est destiné à modéliser les coques axisymétriques cylindriques, Il est du même type que l'élément de la poutre courbe. Les tests nécessaires et indispensables sont effectués sur l'ensemble de ces éléments: tests de convergence des contraintes et des déplacements, de verrouillage et de distorsion du maillage. Des simulations numériques sur des structures composites stratifiées et sandwichs sont développées dans le but d'améliorer la précision de résultats. Les différents résultats obtenus sont comparés avec ceux issus du code de calcul Abaqus. La sensibilité aux effets de bord est également examinée.
APA, Harvard, Vancouver, ISO, and other styles
39

Mraoua, Mohammed. "Gestion du risque climatique par l'utilisation des produits dérivés d'assurance." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00845895.

Full text
Abstract:
Cette thèse s'intéresse à la gestion du risque climatique par l'utilisation des produits dérivés climatiques. Les travaux réalisés dans le cadre de cette thèse sont une contribution aux aspects statistiques, économétriques et financiers de la modélisation et de l'évaluation des produits dérivés climatiques. Un intérêt particulier a été accordé au contexte marocain aussi bien au niveau du volet qualitatif que quantitatif. En plus des développements théoriques que nous avons apportés (tests statistiques pour vérifier l'impact du climat sur l'économie, amélioration d'un modèle de prévision de la température moyenne quotidienne, confirmation du choix de la température moyenne, au lieu des températures extrêmes, comme sous-jacent pour les contrats basés sur la température, etc.), nous avons proposé des cas de gestion entre opérateurs économiques marocains exerçant des activités sensibles à l'aléa climatique avec des profils de risque différents en leur apportant des solutions de couverture basées sur l'utilisation de produits dérivés climatiques.
APA, Harvard, Vancouver, ISO, and other styles
40

Maatig, Meriem. "Effets des comportements à risque des conducteurs sur la sinistralité : analyse empirique sur des données françaises." Paris 2, 2010. http://www.theses.fr/2010PA020031.

Full text
Abstract:
L'objectif de cette thèse est d'étudier empiriquement les effets des variables inobservables ou inobservées par l'assureur sur la sinistralité. Elle porte un intérêt particulier aux effets des comportements à risque des conducteurs. La prise en compte de ces comportements dans la modélisation de la sinsitralité pourrait avoir des effets significatifs. Pour ce faire, nous avons réalisé une enquête par questionnaire auprès de conducteurs de la région parisienne avec pour but d'avoir une meilleure connaissance des comportements des conducteurs au volant. A l'aide de cette enquête nous disposons de données individuelles sur les comportements des conducteurs et de données observables par l'assureur. Afin de cerner les effets de ces comportements sur le risque routier, nous avons utilisé des modèles économétriques simples (modèle de Poisson, binominal négatif et Logit) et des modèles à équations simultanées (bivarié et trivarié). Ce travail montre que l'effet des comportements à risque des conducteurs ne doit pas être négligé dans la modélisation de la sinistralité. La modélisation multivariée de la sinistralité montre que les caractéristiques qui expliquent la sinistralité et les comportements à risque des conducteurs sont corrélées. Dans ce cas, l'estimation autonome de l'équation de la sinistralité peut comporter un biais d'endogénéité. Les caractéristiques individuelles qui expliquent ces comportements expliquent aussi positivement la probabilité de sinistralité.
APA, Harvard, Vancouver, ISO, and other styles
41

Lu, Yang. "Analyse de survie bivariée à facteurs latents : théorie et applications à la mortalité et à la dépendance." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090020/document.

Full text
Abstract:
Cette thèse étudie quelques problèmes d’identification et d’estimation dans les modèles de survie bivariée, avec présence d’hétérogénéité individuelle et des facteurs communs stochastiques.Chapitre I introduit le cadre général.Chapitre II propose un modèle pour la mortalité des deux époux dans un couple. Il permet de distinguer deux types de dépendance : l’effet de deuil et l’effet lié au facteur de risque commun des deux époux. Une analyse de leurs effets respectifs sur les primes d’assurance écrites sur deux têtes est proposée.Chapitre III montre que, sous certaines hypothèses raisonnables, on peut identifier l’évolution jointe du risque d’entrer en dépendance et du risque de mortalité, à partir des données de mortalité par cohortes. Une application à la population française est proposée.Chapitre IV étudie la queue de distribution dans les modèles de survie bivariée. Sous certaines hypothèses, la loi jointe des deux durées résiduelles converge, après une normalisation adéquate. Cela peut être utilisé pour analyser le risque parmi les survivants aux âges élevés. Parallèlement, la distribution d’hétérogénéité parmi les survivants converge vers une distribution semi-paramétrique<br>This thesis comprises three essays on identification and estimation problems in bivariate survival models with individual and common frailties.The first essay proposes a model to capture the mortality dependence of the two spouses in a couple. It allows to disentangle two types of dependencies : the broken heart syndrome and the dependence induced by common risk factors. An analysis of their respective effects on joint insurance premia is also proposed.The second essay shows that, under reasonable model specifications that take into account the longevity effect, we can identify the joint distribution of the long-term care and mortality risks from the observation of cohort mortality data only. A numerical application to the French population data is proposed.The third essay conducts an analysis of the tail of the joint distribution for general bivariate survival models with proportional frailty. We show that under appropriate assumptions, the distribution of the joint residual lifetimes converges to a limit distribution, upon normalization. This can be used to analyze the mortality and long-term care risks at advanced ages. In parallel, the heterogeneity distribution among survivors converges also to a semi-parametric limit distribution. Properties of the limit distributions, their identifiability from the data, as well as their implications are discussed
APA, Harvard, Vancouver, ISO, and other styles
42

Le, Faou Yohann. "Contributions à la modélisation des données de durée en présence de censure : application à l'étude des résiliations de contrats d'assurance santé." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS527.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux modèles de durée dans le contexte de la modélisation des durées de résiliation de contrats d’assurance santé. Identifié dès le 17ème siècle et les études de Graunt J. (1662) sur la mortalité, le biais induit par la censure des données de durée observées dans ce contexte doit être corrigé par les modèles statistiques utilisés. À travers la problématique de la mesure de la dépendance entre deux durées successives, et la problématique de la prédiction de la durée de résiliation d’un contrat d'assurance, nous étudions les propriétés théoriques et pratiques de différents estimateurs basés sur une méthode de pondération des observations (méthode dite IPCW) visant à corriger ce biais. L'application de ces méthodes à l'estimation de la valeur client en assurance est également détaillée<br>In this thesis, we study duration models in the context of the analysis of contract termination time in health insurance. Identified from the 17th century and the original work of Graunt J. (1662) on mortality, the bias induced by the censoring of duration data observed in this context must be corrected by the statistical models used. Through the problem of the measure of dependence between successives durations, and the problem of the prediction of contract termination time in insurance, we study the theoretical and practical properties of different estimators that rely on a proper weighting of the observations (the so called IPCW method) designed to compensate this bias. The application of these methods to customer value estimation is also carefully discussed
APA, Harvard, Vancouver, ISO, and other styles
43

Dutang, Christophe. "Etude des marchés d'assurance non-vie à l'aide d'équilibre de Nash et de modèle de risques avec dépendance." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00703797.

Full text
Abstract:
L'actuariat non-vie étudie les différents aspects quantitatifs de l'activité d'assurance. Cette thèse vise à expliquer sous différentes perspectives les interactions entre les différents agents économiques, l'assuré, l'assureur et le marché, sur un marché d'assurance. Le chapitre 1 souligne à quel point la prise en compte de la prime marché est importante dans la décision de l'assuré de renouveler ou non son contrat d'assurance avec son assureur actuel. La nécessitéd'un modèle de marché est établie. Le chapitre 2 répond à cette problématique en utilisant la théorie des jeux non-coopératifs pour modéliser la compétition. Dans la littérature actuelle, les modèles de compétition seréduisent toujours à une optimisation simpliste du volume de prime basée sur une vision d'un assureur contre le marché. Partant d'un modèle de marché à une période, un jeu d'assureurs est formulé, où l'existence et l'unicité de l'équilibre de Nash sont vérifiées. Les propriétés des primes d'équilibre sont étudiées pour mieux comprendre les facteurs clés d'une position dominante d'un assureur par rapport aux autres. Ensuite, l'intégration du jeu sur une période dans un cadre dynamique se fait par la répétition du jeu sur plusieurs périodes. Une approche par Monte-Carlo est utilisée pour évaluer la probabilité pour un assureur d'être ruiné, de rester leader, de disparaître du jeu par manque d'assurés en portefeuille. Ce chapitre vise à mieux comprendre la présence de cycles en assurance non-vie. Le chapitre 3 présente en profondeur le calcul effectif d'équilibre de Nash pour n joueurs sous contraintes, appelé équilibre de Nash généralisé. Il propose un panorama des méthodes d'optimisation pour la résolution des n sous-problèmes d'optimisation. Cette résolution sefait à l'aide d'une équation semi-lisse basée sur la reformulation de Karush-Kuhn-Tucker duproblème d'équilibre de Nash généralisé. Ces équations nécessitent l'utilisation du Jacobiengénéralisé pour les fonctions localement lipschitziennes intervenant dans le problème d'optimisation.Une étude de convergence et une comparaison des méthodes d'optimisation sont réalisées.Enfin, le chapitre 4 aborde le calcul de la probabilité de ruine, un autre thème fondamentalde l'assurance non-vie. Dans ce chapitre, un modèle de risque avec dépendance entre lesmontants ou les temps d'attente de sinistre est étudié. De nouvelles formules asymptotiquesde la probabilité de ruine en temps infini sont obtenues dans un cadre large de modèle de risquesavec dépendance entre sinistres. De plus, on obtient des formules explicites de la probabilité deruine en temps discret. Dans ce modèle discret, l'analyse structure de dépendance permet dequantifier l'écart maximal sur les fonctions de répartition jointe des montants entre la versioncontinue et la version discrète.
APA, Harvard, Vancouver, ISO, and other styles
44

Cyr, Pierre Luc. "Modélisation de l'espérance de vie des clients en assurance." Thèse, 2013. http://hdl.handle.net/1866/9920.

Full text
Abstract:
Dans ce mémoire, nous proposons une méthodologie statistique permettant d’obtenir un estimateur de l’espérance de vie des clients en assurance. Les prédictions effectuées tiennent compte des caractéristiques individuelles des clients, notamment du fait qu’ils peuvent détenir différents types de produits d’assurance (automobile, résidentielle ou les deux). Trois approches sont comparées. La première approche est le modèle de Markov simple, qui suppose à la fois l’homogénéité et la stationnarité des probabilités de transition. L’autre modèle – qui a été implémenté par deux approches, soit une approche directe et une approche par simulations – tient compte de l’hétérogénéité des probabilités de transition, ce qui permet d’effectuer des prédictions qui évoluent avec les caractéristiques des individus dans le temps. Les probabilités de transition de ce modèle sont estimées par des régressions logistiques multinomiales.<br>In this master’s thesis, we develop a statistical method to estimate the lifetime expectancy of clients in the insurance domain. The forecasts are personnalized according to the clients’ own features, the most notable being the fact that they can have any combination of automobile and residential insurance products. Three approaches are compared. The first approach is the simple Markov model which assume homogeneity and stationnarity of the transition probabilities. The other model suggested – which is implemented both by direct computation and by simulation – allows for heterogeneity of the transition probabilities, thus providing forecasts which evolve in time along with the characteristics of the clients. The transitions probabilities are estimated using multinomial logistic regressions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography