To see the other types of publications on this topic, follow the link: Risque de défaut.

Dissertations / Theses on the topic 'Risque de défaut'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 dissertations / theses for your research on the topic 'Risque de défaut.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dorobantu, Diana. "Modélisation du risque de défaut en entreprise." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00257243.

Full text
Abstract:
Dans une première partie, on étudie quelques problèmes d'arrêt optimal de la forme

$sup_{\tau\in \Delta, \tau\geq 0} \esp_v\left[g(V_{\tau})\right] \hbox{~ou}~
sup_{\tau\in \Delta, \tau\geq 0} \esp_v\left[e^{-r\tau}\bar{g}(V_{\tau})\right],$
où $V$ est un processus stochastique, $g$ et $\bar{g}$ deux fonctions boréliennes, $r>0$ et $\Delta$ est l'ensemble des $\F^V$-temps d'arrêt ($\F_.^V$ étant la filtration engendrée par le processus $V$).
L'étude de ces problèmes est motivée par les applications dans plusieurs domaines comme la finance, l'économie ou la médecine.

La première partie est une mise en évidence du fait que le plus petit temps d'arrêt optimal est parfois un temps d'atteinte. C'est pourquoi, dans la deuxième partie de la thèse, on s'intéresse à la loi d'un temps d'atteinte d'un processus de Lévy à sauts ainsi qu'à quelques applications à la finance, plus précisément lors du calcul de l'intensité de ce temps d'arrêt associée à une certaine filtration $\F$. Deux cas sont présentés : quand le temps d'arrêt est un $\F$-temps d'arrêt et quand il ne l'est pas.
APA, Harvard, Vancouver, ISO, and other styles
2

Blanchet-Scalliet, Christophette. "Processus à sauts et risque de défaut." Phd thesis, Université d'Evry-Val d'Essonne, 2001. http://tel.archives-ouvertes.fr/tel-00192209.

Full text
Abstract:
Cette thèse est constitué de deux partie : dans la première partie, nous etudions un marché complet dont l'actif risqué est un processus discontinu.
La seconde est consacrée à une modélisation du risque de défaut. Nous insistons sur la différence entre l'information liée au défaut de celle du marché sans défaut. Nous établissons des théorèmes de représentation prévisibles pour les martingales dans la filtration élargie.
APA, Harvard, Vancouver, ISO, and other styles
3

Monter, Espinosa Maria del Rosario Cristina. "Trois essais sur le risque de défaut." Lyon 1, 2008. http://www.theses.fr/2008LYO10078.

Full text
Abstract:
Le premier essai analyse le risque de crédit lié à la dette extérieure du Mexique pour laquelle un changement de régime a été observé au début des années 90. Différents facteurs d'actualisation stochastiques sont pris en compte et une comparaison avec des données du marché est effectuée. Dans un deuxième essai, le risque de crédit est modélisé en prenant en compte à la fois: (a) la période de grâce avant la faillite (option dite parisienne), et (b) les conditions macroéconomiques du marché (modèle de changement de régime). Pour évaluer le modèle, une méthode numérique est proposée. Le troisième essai montre comment incorporer le risque de défaut dans l'évaluation de primes d'assurance-vie en utilisant le modèle de changement de régime. Une étude économétrique sur plusieurs assurances est effectuée, qui montre que le modèle est bien adapté à la description statistique de l'évolution des actifs. Finalement, une méthode numérique est également proposée pour évaluer les primes
The first essay analyses the default risk related to the Mexican external debt which exhibits a structural change at the beginning of the 90’s. Different stochastic discount factors are taken into account and a comparison with market data is presented. On the second essay, credit risk is modelled by incorporating simultaneously: (a) a grace period before declaring bankruptcy (Parisian option feature), and (b) the macro economic market conditions (regime switching model). A numerical method is proposed to evaluate the model. The third essay shows how the risk of default is incorporated to the market value of assets and liabilities of a life insurance company under a regime switching model. An econometric study using life insurance data is performed, providing strong evidence of switching behaviour on the market, affecting the contingent claim valuation. Finally, a numerical method is also proposed
APA, Harvard, Vancouver, ISO, and other styles
4

Merli, Maxime. "Les mesures alternatives du risque de défaut des obligations : notation, écart de rentabilité et probabilité de défaut." Université Louis Pasteur (Strasbourg) (1971-2008), 1998. http://www.theses.fr/1998STR1EC05.

Full text
Abstract:
Le risque de défaut est le risque le plus important auquel est confronté un investisseur obligataire puisque ce dernier traduit la possibilité de non paiement d'un coupon ou du coupon et du principal de la part de l'émetteur. Dans la pratique deux + outils ; sont généralement usités afin de le mesurer. La notation, outil qualitatif, est attribuée à l'émetteur par des agences spécialisées dans cette activité. L'écart de rentabilité (ou spread de rendement), outil quantitatif, résulte de la cotation de l'emprunt sur le marché. Ce travail de recherche s'attache précisément à la construction et à la validation par les données de marches de modélisations intégrant cette potentielle défaillance de l'émetteur. Plusieurs modélisations originales sont proposées dans un cadre actuariel ou d'évolution dynamique des prix zéro-coupon. Dans une approche actuarielle, nous proposons une modélisation originale a deux paramètres permettant la construction de la structure par termes des probabilités de défaut à partir des prix de marche des dettes court et long terme de chaque émetteur. Dans ce cadre théorique, nous mettons également en évidence un lien positif entre l'écart de rentabilité (spread de taux) et le niveau général des taux d'intérêt. Ce résultat va à l'encontre de nombreux travaux théoriques (par exemple Leland et Toft (1996)). Nous présentons également une extension du modèle d'évolution dynamique des prix zéro-coupon de Jarrow et Turnbull (1995). Le modèle propose dans ce travail permet, en particulier, d'envisager des formes de défaillance diverses dans un cadre théorique unifié. D'un point de vue empirique, nous proposons des mesures alternatives originales au spread actuariel (mesure communément admise), fondées sur la déformation de la structure par termes des taux zéro-coupon. Enfin, nous testons ces mesures sur divers échantillons d'obligations françaises. Nous mettons en particulier en évidence un faible lien entre la notation de l'émetteur et le niveau de rémunération exige par les investisseurs. En d'autres termes, quatre classes de notations semblent suffisantes a la description du marché français. L'impact du changement de note sur les prix de marche des obligations est également étudié et les différents tests mettent en évidence une anticipation de ce changement par les investisseurs
The default risk is the most important risk for coupon bearing bonds investors. Indeed, it represents the potential non-payment of coupon or coupon and principal by the issuers. Two + tools ; are generally used by professionals in order to measure this risk. The rating is a qualitative measure allocated by agencies such as standard and poor's or moody's. The yield spread is a quantitative measure deduced from asset prices on the financial market. This work is dedicated to the construction of modelisations integrating this potential bankruptcy of the issuer and their validations using market data. Several modelisations are proposed wich use the actuarial default spread or the dynamic evolution of zero-coupon bond prices. In an actuarial approach, we propose an original two parameter model that can be easily used to construct the default probabilities term structure using the prices of long and short term debts of the issuer. With this modelisation, we demonstrate that the actuarial default spread is positively linked to the level of interest rate. This result is in opposition to the ones obtained by other theoretical approaches (for example Leland and Toft (1996)). In another part of this work, we extend the approach for pricing bonds subject to default risk proposed by Jarrow et Turnbull (1995). Our original modeling enables the description of different types of bankruptcy in a unified modelisation. From an empirical point of view, we propose alternative original measure based on the deformation of interest rate term structure which can replace the actuarial yield default spread. Then, we test these measures using various samples of French bonds. We show that the typology induced by ratings is not reproduced in the default spreads. Only four classes of risk are necessary in order to describe the risky bond market. Finally, we study the effect of bond rating change on asset prices and we show that this change is generally anticipated by the investors
APA, Harvard, Vancouver, ISO, and other styles
5

Ngoupeyou, Armand Brice. "Optimisation des portefeuilles d'actifs soumis au risque de défaut." Thesis, Evry-Val d'Essonne, 2010. http://www.theses.fr/2010EVRY0012/document.

Full text
Abstract:
Cette thèse porte sur l'optimisation des portefeuilles d'actifs soumis au risque de défaut. La crise actuelle nous a permis de comprendre qu'il est important de tenir compte du risque de défaut pour pouvoir donner la valeur réelle de son portefeuille. En effet dûs aux différents échanges des acteurs du marché financier, le système financier est devenu un réseau de plusieurs connections dont il est indispensable d'identifier pour évaluer le risque d'investir dans un actif financier. Dans cette thèse, nous définissons un système financier avec un nombre fini de connections et nous proposons un modèle de la dynamique d'un actif dans un tel système en tenant compte des connections entre les différents actifs. La mesure de la corrélation sera faite à travers l'intensité de sauts des processus. A l'aide des Equations stochastiques Différentielles Rétrogrades (EDSR), nous déduirons le prix d'un actif contingent et nous tiendrons compte du risque de modèle afin de mieux évaluer la consommation et la richesse optimal si on investit dans un tel marché
The topic of this thesis is about the optimization of portfolio of defaultable assets. The subprime crisis show us that in the future, we should deal with the default risk to get the real value of the portfolio. In fact, there are so many exchanges in the markets that the financial market become a network with many connections and we should identity it to understand the real risk that we take when we deal with financial assets. In this thesis; we define a financial system with a finite number of connections and we give a model for the dynamics of the asset in such system considering the connections in the network. We deal with the jumps intensity processes to take account the correlation in the network. Using Backward Stochastic Differential Equations (BSDE), we get the price of a contingent claim and we consider the model risk to get the optimal consumption and terminal wealth in such financial network
APA, Harvard, Vancouver, ISO, and other styles
6

Gaillardetz, Patrice. "Structures de dépendance en théorie du risque et pour les obligations avec risque de défaut." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ53946.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Damel, Pascal. "La détection avancée du risque de défaut : l'impact de l'information comptable sur le risque de faillite et le risque boursier." Nancy 2, 1996. http://www.theses.fr/1996NAN22001.

Full text
Abstract:
La problématique de cette thèse propose d'étudier l'impact de l'information comptable de la liasse fiscale sur le risque de faillite et le risque boursier pour les entreprises. En ce qui concerne le risque de faillite, nous avons montré que la théorie financière n'est pas unifiée à ce sujet. Notre réflexion méthodologique sur la construction de modèle de prévision de faillite nous a permis d'améliorer la qualité de la différenciation entre les entreprises faillies et les entreprises non faillies. La cotation comprend en amont, un système expert de détection des manipulations comptables afin de fiabiliser l'analyse statistique et propose une méthode optimale de construction pas à pas du modèle sous deux contraintes statistiques et financières. La cotation prend en compte l'activité sectorielle des entreprises et intègre les derniers développements comptables (trésorerie nette au bilan de R. Dornier). Le modèle a été construit sur 901 entreprises et testé sur près de 5000 bilans appartenant à la clientèle entreprise de la banque SNVB. Pour les entreprises cotées sur le marché financier, nous avons réalisé successivement une recherche phypthetico-déductive formelle, empirique et positiviste pour appréhender l'impact de l'information comptable sur le risque boursier. Nous avons montré dans les deux modèles théoriques que l'évaluation du risque boursier peut être enrichie par des variables comptables notamment celles liées à la croissance de l'entreprise. Finalement, nous avons montré sur un petit échantillon exploratoire de 155 cas, que l'impact de l'information comptable peut être amélioré par des fonctions mathématiques de saut au sens de Rothschild et Stiglitz sur les distributions de rentabilité
The problematic of this thesis is the impact of accounting information on the risk or failure and on the market risk form firms. We have showed that the financial theory is not unified about the risk of failure. We have improved the prediction of failure risk with expert system and with a new building method of discrimination model. The expert system detects some accounting handing. Therefore the statistical analysis is more reliable with the expert system. The improvement of discrimination model is the use of step by step building under two constraints (statistical and financial constraints). The risk of failure rating includes the sectorial activity and the last accounting innovation (The cash flow of R. Dornier). The model is conceived with 901 firms and tested with 5000 balance sheets belonging to SNVB customers. For firms rating on the stock exchange, we have successively realised an analytical and empirical approach to apprehend the impact of accounting information on the market risk. We pointed out in two theorical models that the evaluation of market risk may be improved by accounting variables such as the firm growth. Finally, we have showed, on a small sample (155 cases) that the impact of accounting information may be improved by mathematical fonction of jump on the share returns distributions
APA, Harvard, Vancouver, ISO, and other styles
8

Bouguerra, Faiza. "L'évaluation du risque de défaillance de l'émetteur : la prime de risque de défaut et la notation." Paris 13, 1992. http://www.theses.fr/1992PA131002.

Full text
Abstract:
Tout investissement fait courir aux souscripteurs un risque de placement qui est compose de plusieurs biens types de risque de defaut de paiement, ce risque peut etre evalue par le marche ou par les organismes de notation. L'indeminite compensatrice oferte en contre partie du risque de defaillance de l'emetteur est la prime de risque de defaut, aui ajoutee au taux de rendement sans risque comparable (memes coupon et maturite), donne le taux de rendement du titre. La premiere partie de la recherche est axee sur la prime de defaut, qui est le premier outil, qui renseigne la communaute financiere sur le risque de defaillance des titres obligataires. Quels sont ses determinants? pour repondre a cette question nous avons procede comme suit : dans une premiere etape nous avons recherche les parametres qui avaient une influence sur le risque de defaillance et la prime correspondante a partir de l'abondante litterature financiere existante? puis dans une deuxieme etape, nous avons procede a une etude empirique afin de mettre en exergne les variables financieres (a travers les ratios) qui exercent un impact sur la prime de defaillance de l'emetteur. La deuxieme partie est axee sur l'evaluation du risque de defaut par les organismes de notation, dont les plus connues de par leur experience et credibilite sont installees aux u. S. A. . Il s'agit notamment de moody's et standard & poor's. Apres une presentation descriptive des agences de notation en france et dans le monde, nous avons essaye, a partir d'une etude empirique et rechercher les variables qui sont d'un pouvoir predictif de la defaillance, et par la celles qui sont utilisees par les organismes de notation, lors du classement des titres obligataires. Enfin, nous avons compare les variables explicatives de la prise de risque de defaut a celles considerees lors de la procedure de notation (de par les resultats obtenus a partir des deux travaux empiriques) et ce afin de voir si le marche et les agences de rating ont ou pas les memes criteres d'evaluation du risque de. .
All bondholders have to face many kinds of investment risks, including the risk or non paiement of the capital and interest, called default paiement risk. This kind of risk can be estimated by the market or by rating organisms. The counter value of the this kind of risk is the spread, which added to a comparable (same interest rate and maturity), gives the yield of the bond. The first part of the ressearch studies the spread which is the first tool that gives information to financial communauty about the bond default risk. What are this determinants? to answer to the question, we procede this way : in the first step, we scarch the parameters which have influence on the default risk and the corresponding spread, from the existant financial studies and researchs. Then, in a second step, we monde experimental study in order to niveal the financial raitos which have an impact on the spread. The second part of the research studies the risk default as evaluated by rating organisms. The well-known are moody's an standard & poor's estalished in the u. S. A. From about one century. After a description of the rating agencies established in france and on all aver the word, we tried, accross an empirical test to search the variables which have apredictive power of default issuers, and used by the rating organisms when they note bonds. At the end we comparaed the variables which have an impact on spreads to those found as having an impact on ratings in order to see whether or not the market and rating agencies have the same evaluation of issues default risk
APA, Harvard, Vancouver, ISO, and other styles
9

Ho, Sy Hoa. "Essais sur le risque de défaut souverain dans les pays émergents." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA131016/document.

Full text
Abstract:
Cette thèse sur travaux empiriques en quatre articles s’intéresse aux déterminants de risque de défaut souverain. Le premier chapitre résume l’état de l’art du risque de défaut souverain et trois principales approches des déterminants du risque de défaut souverain: le modèle structurel, le modèle dynamique stochastique et les modèles économétriques. Le deuxième chapitre étudie la probabilité de défaut de l’Argentine (2002) en utilisant un modèle structurel proposé par Gray and Malone 2008. Le troisième chapitre propose un modèle stochastique afin de calculer le spread du crédit souverain journalier. Les deux derniers chapitres économétriques déterminent deux proxies du risque de défaut souverain: Sovereign CDS spread et Emerging Market Bond Index Plus (EMBI+). Le quatrième chapitre essaye de déterminer le sovereign CDS spread à longterme et court-terme en utilisant trois estimations: Pooled Mean Group, Mean Group et Dynamic Fixed Effect. Dans le dernier chapitre, on applique un modèle non-linéaire asymétrique Autorégressif à retards échelonnés pour étudier l’effet d’asymétrie à longterme de compte courant sur l’EMBI+ y compris les variables explicatives telles que la dette extérieure et les réserves internationales pour deux pays émergents: la Turquie et le Brésil
This thesis on empirical results in four articles focused on the determinants of the sovereign default risk. The first chapter summarizes the state of the art of sovereign default risk and the three main approaches of determinants of sovereign default risk: the structure model, the dynamic stochastic model and the econometric models. The second chapter studies the default probability in Argentina (2002) by using a structural model proposed by Gray and Malone 2008. The third chapter provides a stochastic model to calculate the daily sovereign credit spread. Last two econometric chapters determine two sovereign default risk proxies: Sovereign CDS spread and Emerging Market Bond Index Plus. The fourth chapter focuses on the sovereign CDS spread in long-run and short-run by using three estimations of Pooled Mean Group, Mean Group and Dynamic Fixed Effect. The last chapter applies a nonliear Autoregressive Distributed Lag asymmetry model to study the long-run asymmetric effect of the current account to the EMBI+ including the explanatory variables such as the external debt and international reserves for the two typical emerging countries Turkey and Brazil
APA, Harvard, Vancouver, ISO, and other styles
10

Gatfaoui, Hayette. "Évaluation et analyse du risque de défaut de paiement des actifs financiers." Paris 1, 2002. http://www.theses.fr/2002PA010025.

Full text
Abstract:
A la lumière des directives du Comité de Bâle, le risque de défaut de paiement constitue un élément clé parmi les risques affectant tout actif financier. Les travaux présentés analysent certains aspects de l'évaluation du risque de défaut pour appréhender au mieux le prix de ce risque. Selon l'approche structurelle, nous considérons les actions et la dette émise par une entreprise comme des I actifs contingents optionnels sur la valeur de la firme. Supposant que toute action subit un risque de marché et un risque idiosyncratique, nous proposons une formule d'évaluation de call européen sur action paramétrée par la volatilité et le bêta du sous-jacent ainsi que la volatilité du facteur de risque de marché. La formule obtenue permet d'évaluer le prix des obligations risquées selon l'approche de Merton (1974). Ensuite, nous tentons de rendre compte de l'influence du cycle d'affaires sur le risque de défaut en analysant les spreads de crédit, déterminants de la situation financière des entreprises.
APA, Harvard, Vancouver, ISO, and other styles
11

Minca, Andreea Catalina. "Modélisation mathématique de la contagion de défaut." Paris 6, 2011. http://www.theses.fr/2011PA066362.

Full text
Abstract:
Cette thèse porte sur la modélisation mathématique de la contagion de défaut. Un choc économique induit des pertes initiales, de là le défaut de quelques institutions est amplifié par des liens financiers complexes ce qui engendre alors des défauts à large échelle. Une première approche est donnée par les modèles à forme réduite. Les défauts ont lieu en fonction des instants d'arrivée d'un processus ponctuel marqué. On propose une approche rigoureuse de la calibration des modes “top down” pour les dérivés de crédit multi noms, en utilisant des méthodes de projection Markovienne et de contrôle d'intensité. Une deuxième approche est celle des modèles structurels de risque de défaut. On modélise spécifiquement les liens économiques qui mènent à la contagion, en représentant le système financier par un réseaux de contreparties. Les principaux types de contagion sont l'illiquidité et l'insolvabilité. En modélisant le réseau financier par un graphe aléatoire pondéré et orienté on obtient des résultats asymptotiques pour la magnitude de la contagion dans un grand réseau financier. On aboutit à une expression analytique pour la fraction finale de défauts en fonction des caractéristiques du réseau. Ces résultats donnent un critère de robustesse d'un grand réseau financier et peuvent s'appliquer dans le cadre des stress tests effectués par les régulateurs. Enfin, on étudie la taille et la dynamique des cascades d'illiquidité dans les marchés OTC et l'impact, en terme de risque systémique, dû à l'introduction d'une chambre de compensation pour les CDS
The subject of this thesis is the mathematical modeling of episodes of default contagion, by which an economic shock causing initial losses and defaults of a few institutions is amplified due to complex financial linkages, leading to large scale defaults. A first approach is represented by reduced form modeling by which defaults occur according to the arrival times of a marked point process. We propose a rigorous approach to the calibration of “top down” models for portfolio credit derivatives, using Markovian projection methods and intensity control. A second, more ambitious approach is that of structural models of default risk. Here, one models specifically the economical linkages leading to contagion, building on the representation of the financial system as a network of counterparties with interlinked balance sheets. The main types of financial distress that cause financial failure are illiquidity and insolvency. Using as underlying model for a financial network a random directed graph with prescribed degrees and weights, we derive asymptotic results for the magnitude of balance-sheet contagion in a large financial network. We give an analytical expression for the asymptotic fraction of defaults, in terms of network characteristics. These results, yielding a criterion for the resilience of a large financial network to the default of a small group of financial institutions may be applied in a stress testing framework by regulator who can efficiently contain contagion. Last, we study the magnitude and dynamics of illiquidity cascades in over-the-counter markets and assess the much-debated impact, in terms of systemic risk, of introducing a CDS clearinghouse
APA, Harvard, Vancouver, ISO, and other styles
12

Margaretic, Paula. "Probabilité de défaut, informations privées et publiques." Thesis, Toulouse 1, 2012. http://www.theses.fr/2012TOU10048.

Full text
Abstract:
Le premier chapitre est motivé par trois éléments de paniques bancaires, qui combinés entre eux, sont encore que très peu compris. Le premier élément est le fait que les informations sur la qualité des investissements de longue durée des banques ne sont pas parfaites. Le second est le fait que la qualité des investissements des banques peut être corrélée. Le troisième élément est le fait que les déposants d’une banque peuvent observer quand il y a une ruée vers une autre banque. Ce chapitre étend l'application des « jeux globaux » mais pour examiner comment ces éléments affectent le contrat de dépôt que les banques offrent aux déposants et la probabilité ex ante de panique bancaire séquentielle. Tout en observant l’attention portée sur les faits que la qualité des investissements des banques n’est pas parfaite et que cette qualité peut être corrélée, le second chapitre se focalise sur le marché interbancaire. Ce chapitre étend aussi l'application des « jeux globaux » pour examiner cette fois-ci, comment ces trois nouveaux éléments affectent le contrat de dépôt que les banques offrent et la probabilité ex ante de panique bancaire. Le troisième chapitre présente un modèle dynamique d’anticipations rationnelles pour expliquer la volatilité observée dans les primes de risques des marchés émergents. Ce modèle repose sur l'hypothèse selon laquelle les agents reçoivent régulièrement de nouvelles informations sur la capacité du pays à rembourser sa dette souveraine. Nous étudions ensuite de façon empirique les prédictions originales du modèle théorique, en utilisant les données mensuelles des marchés émergents au cours de la période 1994-2006
The first chapter focuses on three elements of bank runs in reality which combined are less wellunderstood. The first element is the fact that information about the quality of banks' long-run investments is not perfect. The second one is the fact that the quality of banks' investments may be correlated. The third one is the fact that depositors in one bank can observe when there is a run in another bank. This chapter extends the application of global games to examine how these elements affect the deposit contract that banks offer to depositors and the ex ante probability of sequential bank run.The second chapter shares with the first chapter the attention given to the fact that information about the quality of banks' long-run investments is not perfect and that this quality may be correlated. But instead of focusing on sequentiality, the second chapter focuses on the interbank market. Chapter 2 also extends the application of global games to examine this time how the combination of these three new elements affects the deposit contract that banks offer to depositors and the ex ante probability of bank run. The third chapter proposes a dynamic, rational expectation model explain the observed volatility in emerging market risk premia. The model relies on the assumption that investors update their expectations about the unobserved emerging country's capacity to service its sovereign debt if default, based on available periodic information. It then empirically tests the theoretical predictions of the model, using a monthly panel data for 17 EMs over the period 1994-2006
APA, Harvard, Vancouver, ISO, and other styles
13

Minca, Andreea. "Modélisation mathématique de la contagion de défaut." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00624419.

Full text
Abstract:
Cette thèse porte sur la modélisation mathématique de la contagion de défaut. Une première approche est donnée par les modèles à forme réduite, dans laquelles les occurrences de défaut son modelises par des instants d'arrivée d'un processus ponctuel marqué. On propose une approche rigoureuse de la calibration de ces modeles a partir de prix de produits dérivés de crédit, en utilisant des méthodes de projection Markovienne et de contrôle d'intensité. Une deuxième approche est celle des modèles structurels de risque de défaut: on modélis les liens économiques entre bilans des differentes entreprises comme un réseau de contreparties. Dans de tel réseau, un choc macroéconomique, qui induit des pertes initiales et le défaut de quelques institutions, peut etre amplifié par une contagion, via des cascades d'illiquidité ou d'insolvabilité, qui engendrent alors des défauts à grande échelle. Les principaux types de contagion sont l'illiquidité et l'insolvabilité. En modélisant le réseau financier par un graphe aléatoire pondéré et orienté on obtient des résultats asymptotiques pour l'amplitude de la contagion dans un grand réseau financier. On aboutit en particulier à une expression analytique pour la fraction finale de défauts en fonction des caractéristiques du réseau. Ces résultats donnent un critère de robustesse d'un grand réseau financier et peuvent s'appliquer dans le cadre des stress tests effectués par les régulateurs. Enfin, on étudie la taille et la dynamique des cascades d'illiquidité dans les marchés de gré a gré et l'impact, en terme de risque systémique, dû à l'introduction d'une chambre de compensation pour les Credit default swaps (CDS).
APA, Harvard, Vancouver, ISO, and other styles
14

Coculescu, Delia. "Evaluation d'actifs et politiques optimales de la firme en présence de risque de défaut." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090004.

Full text
Abstract:
Nous abordons, en trois parties, l'évaluation des actifs financiers en présence de risque de défaut. Dans la première partie nous identifions les conditions assurant l'unicité des prix des actifs à risque de défaut, dans les modélisations structurelles et à forme réduite. Pour les modèles à forme réduite, nous mettons en évidence un problème de non-unicité de l'intensité, telle qu'elle est couramment définie dans la littérature et plaidons pour les méthodes utilisant le grossissement des filtrations, qui permettent une caractérisation plus fine des temps de défaut. Finalement, nous proposons une formule d'évaluation lorsque le prix les actifs sans risque de défaut peuvent présenter des sauts au temps de défaut. La deuxième partie caractérise les politiques optimales d'endettement et des dividendes d'une firme. Nous utilisons comme critère d'optimisation un indicateur de performance attendue des actions, dépendant du versement des dividendes, du niveau de risque de défaut et de l'exigence de rendement des actionnaires. Aussi, nous caractérisons les seuils supérieurs de réorganisation de la firme et nous donnons une mesure des coûts d'agence induits par la politique des dividendes. La troisième partie traite de l'évaluation en information imparfaite. Nous partons d'une modélisations structurelle de la survenance du défaut et supposons que la perception de la variable d'état déclenchant le défaut est continûment affectée par un bruit. Nous démontrons que l'hypothèse (H) est respectée et que le temps de défaut est totalement inaccessible. Enfin, nous calculons les probabilités conditionnelles de défaut et proposons des formules d'évaluation des actifs financiers en présence d'information incomplète
In this dissertation we treat in three parts the valuation of assets subject to default risk. In the first part we identify the conditions leading to the unicity of prices, for both structural and reduced-form approaches. For the reduced-form modeling, we emphasize the non-unicity of the intensity process, such as it is defined in the credit risk literature. We plead for the methods using the enlargement of filtrations, which permit a more precise characterization of the default time. Finally, we propose a evaluation formula to apply when the prices of default-free assets may jump at the default time. The second part characterizes the optimal leverage and payout policies, when shareholders act to maximize an indicator of the expected performance of shares, which depends on the expected dividends, the level of the default risk and a fixed minimum return level. In this framework, we also define the upper reorganization triggers and give a measure of the agency costs induced by the dividends policy. The third part treats the evaluation when agents face imperfect information. We give a structural explanation of the default event by a state variable, and suppose that a noise continuously obscure the perception of the state variable by the investors. We prove that the (H) hypothesis holds and the default time is totally inaccessible. Lastly, we compute the default probabilities and propose evaluation formulas in presence of incomplete information
APA, Harvard, Vancouver, ISO, and other styles
15

Belhaj, Riadh. "Modélisation des obligations et des options sur obligations en présence de risque de défaut." Paris 1, 2000. http://www.theses.fr/2000PA010060.

Full text
Abstract:
L'objet de cette thèse est de proposer une modélisation des obligations et des options sur obligation en présence de risque de défaut dans un cadre le plus réaliste possible. Le premier chapitre présente les principaux modèles qui rendent compte de l'évaluation des dettes émises par des entreprises privées, sujettes à un risque de défaut. Nous constatons qu'il est difficile, dans un cadre réaliste, d'obtenir une formule analytique simple et aisée à mettre en œuvre pour calculer la valeur des titres sujets à un risque de défaut. Le deuxième chapitre propose une extension du modèle de Merton (1974). Nous présentons un modèle d'évaluation des obligations des obligations zéro-coupon risquées, reposant à la fois sur le modèle de taux de Cox, Ingersoll et Ross (1985) à un seul facteur et sur la méthode des différences finies explicite améliorée par Hull et White (1990). Le troisième chapitre s'intéresse à l'évaluation des obligations à coupons en présence de risque de défaut. L'évènement de défaut est modélisé comme la première date ou la valeur des actifs de la firme passe au-dessous de la valeur de ses engagements. Conformément à la pratique, le défaut est prononcé non seulement pour l'obligation à coupons, mais également pour toutes les autres dettes de la firme. En cas de défaut, le détenteur de l'obligation reçoit une fraction de la valeur qu'aurait eue l'obligation en cas de non-défaut. Nous montrons que le niveau des spreads déduit par notre modèle correspond à celui observé en pratique. À travers une étude empirique réalisée sur le marché obligataire français, nous montrons que notre modèle estime de manière satisfaisante le prix des obligations à coupons du secteur privé. Dans le quatrième chapitre, nous adaptons le modèle construit au chapitre précèdent à l'évaluation des options sur obligation, d'une part européennes et d'autre part américaines, en présence de risque de défaut. Nous distinguons trois catégories d'option : (I) les options émises par des tiers sans risque de défaut sur des obligations risquées, (II) les options émises par des tiers sujets à un risque de défaut sur des obligations sans risque de défaut et (III) les options en présence de deux sources de risque de défaut, la première relative au vendeur de l'option et la deuxième au sous-jacent.
APA, Harvard, Vancouver, ISO, and other styles
16

Lim, Thomas. "Quelques applications du contrôle stochastique aux risques de défaut et de liquidité." Paris 7, 2010. http://www.theses.fr/2010PA077084.

Full text
Abstract:
Cette thèse se compose de trois parties indépendantes portant sur l'application du contrôle stochastique à la finance. Dans la première partie, nous étudions le problème de maximisation de la fonction d'utilité dans un marché incomplet avec défauts et information totale/partielle. Nous utilisons le principe de la programmation dynamique pour pouvoir caractériser la fonction valeur solution du problème. Ensuite, nous utilisons cette caractérisation pour en déduire une EDSR dont la fonction valeur est solution. Nous donnons également une approximation de cette fonction valeur. Dans la seconde partie, nous étudions les EDSR à sauts. En utilisant les résultats de décomposition des processus à sauts liée au grossissement progressif de filtration, nous faisons un lien entre les EDSR à sauts et les EDSR browniennes. Cela nous permet de donner un résultat d'existence, un théorème de comparaison ainsi qu'une décomposition de la formule de Feynman-Kac. Puis nous utilisons ces techniques pour la détermination du prix d'une option européenne dans un marché complet et le prix d'indifférence d'un actif contingent non duplicable dans un marché incomplet. Enfin, "dans la troisième partie, nous utilisons la théorie des erreurs pour expliquer le risque de liquidité comme une propriété intrinsèque au marché. Cela nous permet de modéliser la fourchette Bid-Ask. Puis nous résolvons dans ce modèle le problème de liquidation optimale d'un portefeuille en temps discret et déterministe en utilisant la programmation dynamique
This PhD dissertation consists of three independent parts and deals with applications of stochastic control to finance. In the first part, we study the utility maximization problem in a market with defaults and total/partial information. The dynamic programming principle is used to characterize the value function. Given this characterization, we find a BSDE of which the value function is a solution. We also give an approximation of this value function. In the second part, we study BSDEs with jumps. We link BSDEs with jumps and Brownian BSDEs using the decomposition of processes in the reference filtration. With this link, we get a result of existence, a comparison theorem and a decomposition of Feynman-Kac formula. We use these techniques to work out the price of a European option in a complete market and the indifference price of a contingent claim in an incomplete market. Finally, in the third part, we use the error theory to explain the liquidity risk and to model the Bid-Ask spread. Then we solve an optimal liquidation problem for a large portfolio in discrete and deterministic time
APA, Harvard, Vancouver, ISO, and other styles
17

Tchapda, Djamen Idriss. "Évaluation de flux monétaires en présence d'un ou plusieurs risques de défaut." Lyon 1, 2002. http://www.theses.fr/2002LYO10164.

Full text
Abstract:
. Cette thèse s'intéresse, dans un cadre d'intensité de défaut, à l'évaluation de flux monétaires de type européen soumis à un ou plusieurs risques de défaut. Elle comporte deux parties suivant la nature de la corrélation entre le risque de crédit et le risque de marché représenté par les fluctuations des taux d'intérêt. Dans la première partie, constituée de deux chapitres, nous supposons le risque de défaut indépendant du risque de taux d'intérêt. Le cadre économique du premier chapitre est identique à celui de Jarrow et Turnbull (1995). Nous prolongeons les résultats de ces auteurs à l'évaluation et la couverture de produits de taux d'intérêt plus complexes soumis au risque de défaut. Le deuxième chapitre prolonge les résultats du premier; cette fois, il existe dans l'économie deux agents soumis à des risques de défaut dépendants. Dans la seconde partie, également constituée de deux chapitres, nous supposons que le défaut est corrélé aux taux d'intérêt. De plus lorsqu'il existe plusieurs intervenants de marché soumis au risque de défaut, nous supposons leurs instants de défaut conditionnellement indépendants connaissant l'information sur les taux d'intérêt. Dans le troisième chapitre nous obtenons, en utilisant la technique de changement de numéraire, des formules fermées pour l'évaluation d'options vulnérables pour lesquelles le sous-jacent est soumis ou non au risque de défaut. Enfin, le quatrième chapitre s'intéresse à l'évaluation des produits dérivés sur crédit dans le cadre de Bielecki et Rutkowski (2001). Nous accordons une importance à la vulnérabilité des contrats en prenant en compte le risque de défaut du vendeur et, dans certains cas, celui de l'acheteur de la protection. Nous établissons des relations entre les prix des instruments financiers vulnérables et les prix de leur valeur sans défaut.
APA, Harvard, Vancouver, ISO, and other styles
18

Fiore, Karine. "Industrie nucléaire et gestion du risque d'accident en Europe : du défaut d'internalisation à l'organisation de la couverture." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX32064.

Full text
Abstract:
La production d'énergie nucléaire génère des risques environnementaux et sanitaires au premier rang desquels le risque d'accident. La gestion de ce risque présente deux dimensions : l'une préventive et l'autre compensatoire. Etant donné son caractère catastrophique et imprévisible, le risque nucléaire a toujours fait l'objet d'une gestion spécifique. En Europe, la gestion de ce risque se révèle insatisfaisante. Le régime de responsabilité civile dont bénéficie l'industrie nucléaire conduit à un défaut d'internalisation du risque par l'exploitant et de là, à une insuffisance de la couverture des dommages. Le plafond financier dont fait l'objet la responsabilité civile de l'exploitant nucléaire réduit ses incitations à la prévention des accidents. En limitant sa responsabilité, il diminue également la charge de couverture des dommages auxquels il devrait être exposé. L'organisation de la couverture du risque nucléaire en Europe a été conditionnée par le régime de responsabilité civile mis en place, et en particulier par le plafond financier. Dans sa forme actuelle, cette organisation est inefficace. La capacité financière du marché de l'assurance nucléaire est insuffisante pour indemniser les victimes potentielles d'un accident nucléaire majeur. De surcroît, ce marché est très coûteux pour les exploitants. Dans la perspective du lancement de nouveaux programmes électronucléaires en Europe, la gestion du risque nucléaire doit être reconsidérée afin de mieux répondre aux exigences d'internalisation, de prévention et d'indemnisation. Les exploitants devraient être soumis à l'intégralité des dommages qu'ils sont susceptibles de causer aux tiers par la mise en place d'une règle de responsabilité illimitée. Quant à la couverture de ces dommages, son organisation pourrait être améliorée par la mise en œuvre d'un accord de risk-sharing entre exploitants à l'échelle européenne
The production of nuclear energy creates environmental and sanitary risks among which the risk of nuclear accident. There is a twofold dimension in the management of such a risk: a preventive dimension and a compensatory one. Given its catastrophic and unpredictable character, the nuclear risk has always been managed in a specific way. In Europe, its management is unsatisfactory. The civil liability regime is beneficial to the nuclear industry as it leads to a lack of internalisation and thus to a limited coverage of potential damages. The financial cap of the nuclear operator's civil liability reduces his incentives for the prevention of accidents. By narrowing its liability, it also limits the burden tied to the coverage of the full potential damages. The organisation of the nuclear risk coverage was heavily conditioned by the civil liability regime and the financial cap it creates. Such an organisation is inefficient. The nuclear insurance market's financial capacity is not enough to compensate for all the potential victims of a major nuclear accident. Moreover, the functioning of this market is quite costly for the nuclear operator. While new electronuclear projects are being launched in Europe, the management of nuclear risks must be questioned in order to find better solutions to the necessity of internalising, preventing and compensating. Nuclear operators should be responsible for all the damages caused through an unlimited liability rule. The coverage of potential damages could also be improved by setting up a risk-sharing agreement at the European scale between operators
APA, Harvard, Vancouver, ISO, and other styles
19

Lim, T. "Quelques applications du contrôle stochastique aux risques de défaut et de liquidité." Phd thesis, Université Paris-Diderot - Paris VII, 2010. http://tel.archives-ouvertes.fr/tel-00499532.

Full text
Abstract:
Cette thèse se compose de trois parties indépendantes portant sur l'application du contrôle stochastique à la finance. Dans la première partie, nous étudions le problème de maximisation de la fonction d'utilité dans un marché incomplet avec défauts et information totale/partielle. Nous utilisons le principe de la programmation dynamique pour pouvoir caractériser la fonction valeur solution du problème. Ensuite, nous utilisons cette caractérisation pour en déduire une EDSR dont la fonction valeur est solution. Nous donnons également une approximation de cette fonction valeur. Dans la seconde partie, nous étudions les EDSR à sauts. En utilisant les résultats de décomposition des processus à sauts liée au grossissement progressif de filtration, nous faisons un lien entre les EDSR à sauts et les EDSR browniennes. Cela nous permet de donner un résultat d'existence, un théorème de comparaison ainsi qu'une décomposition de la formule de Feynman-Kac. Puis nous utilisons ces techniques pour la détermination du prix d'une option européenne dans un marché complet et le prix d'indifférence d'un actif contingent non duplicable dans un marché incomplet. Enfin, dans la troisième partie, nous utilisons la théorie des erreurs pour expliquer le risque de liquidité comme une propriété intrinsèque au marché. Cela nous permet de modéliser la fourchette Bid-Ask. Puis nous résolvons dans ce modèle le problème de liquidation optimale d'un portefeuille en temps discret et déterministe en utilisant la programmation dynamique.
APA, Harvard, Vancouver, ISO, and other styles
20

Pradat, Yannick. "Retraite et risque financier." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED022/document.

Full text
Abstract:
Le premier chapitre examine les caractéristiques statistiques à long terme des rendements financiers en France et aux USA. Les propriétés des différents actifs font apparaître qu’à long terme les actions procurent un risque sensiblement moins élevé. En outre, les propriétés de retour à la moyenne des actions justifient qu’elles soient utilisées dans une stratégie de cycle de vie comme « option par défaut » de plans d’épargne retraite. Le chapitre deux fournit une explication au débat sur l'hypothèse d’efficience des marchés. La cause du débat est souvent attribuée à la petite taille des échantillons et à la faible puissance des tests statistiques dédiés. Afin de contourner ce problème, nous utilisons l'approche développée par Campbell et Viceira (2005) qui utilisent une méthode VAR pour mettre en évidence l’existence de retour vers la moyenne dans le cours des actifs risqués.Le troisième chapitre évalue la vitesse de convergence des cours des actions. Un moyen classique pour caractériser la vitesse de retour vers la moyenne est la « demi-vie ». En comparant les indices boursiers de quatre pays développés (États-Unis, Royaume-Uni, France et Japon) sur la période 1950-2014, nous établissons une vitesse de convergence significative, avec une demi-vie entre 4,0 et 5,8 ans.Le dernier chapitre présente les résultats d'un modèle conçu pour étudier les interactions entre la démographie et les régimes de retraite. Afin d’étudier les risques inhérents à l’utilisation des revenus du capital pour financer les retraites, nous utilisons un « Trending OU process » au lieu d’un MBG classique pour modéliser les rendements. Pour un épargnant averse au risque le marché pourrait concurrencer les régimes par répartition
Chapter one examines the long run statistical characteristics of financial returns in France and the USA for selected assets. This study clearly shows that the returns’ distributions diverge from the Gaussian strategy as regards longholding periods. Thereafter we analyze the consequences of the non-Gaussian nature of stock returns on default-option retirement plans.Chapter two provides a reasonable explanation to the strong debate on the Efficient Market Hypothesis. The cause of the debate is often attributed to small sample sizes in combination with statistical tests for mean reversion that lackpower. In order to bypass this problem, we use the approach developed by Campbell and Viceira (2005) who have settled a vectorial autoregressive methodology (VAR) to measure the mean reversion of asset returns.The third chapter evaluates the speed of convergence of stock prices. A convenient way to characterize the speed of mean reversion is the half-life. Comparing the stock indexes of four developed countries (US, UK, France and Japan) during the period 1950-2014, we establish significant mean reversion, with a half-life lying between 4,0 and 5,8 years.The final chapter provides some results from a model built in order to study the linked impacts of demography and economy on the French pension scheme. In order to reveal the risks that are contained in pension fund investment, we use a Trending Ornstein-Uhlenbeck process instead of the typical GBM for modeling stock returns. We find that funded scheme returns, net of management fees, are slightly lower thanthe PAYG internal rate of return
APA, Harvard, Vancouver, ISO, and other styles
21

Hooper, Emma. "Essays on international finance and sustainable growth in natural resource rich countries." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM2027/document.

Full text
Abstract:
Les questions de croissance durable mêlées aux enjeux d’accès aux marchés financiers internationaux des pays riches en ressources naturelles ont souvent été occultées dans la littérature économique. Or, ces enjeux s’avèrent de plus en plus présents dans le débat public face à la baisse récente des prix du pétrole. Cette thèse tente de mieux comprendre comment des économies dépendantes de leur production de ressources épuisables gèrent leur dette externe en vue d’une croissance soutenable dans le long-terme et comment les marchés financiers perçoivent le risque souverain lors de l’émission de leur dette. Pour y répondre, elle recourt à de la modélisation dynamique, à travers un cadre théorique, ainsi qu’à des études économétriques. Elle contribue à la littérature en intégrant de nouvelles dimensions, comme l’ouverture financière dans un modèle de croissance avec des ressources épuisables, modèles qui jusque-là étaient étudiés sous la forme d'économies fermées. Par ses analyses empiriques, elle prend en compte la notion de volume à travers l’étude des réserves de pétrole et de gaz. Les principaux résultats sont que l'ouverture financière ne permet pas d’avoir une croissance soutenable à taux d’intérêt constant, mais la consommation peut croître un temps lorsque le taux d’intérêt est endogène à la dette du pays. Les réserves de pétrole et de gaz ont un effet significatif sur les spreads souverains. La thèse n'élude pas pour autant la question des prix, puisqu'elle montre que les rendements et la volatilité des prix du pétrole sont des déterminants significatifs des CDS du Venezuela, alors que l'effet des prix se répercute à travers le canal du taux de change pour la Russie
The relationship between sustainable growth and international financial market access in natural resource rich countries has been overlooked in the economic literature. However, those issues have become more present in the public debate with the recent drop in oil prices. This thesis tries to better understand how natural resource dependent economies can deal with their external debt and how financial markets view this sovereign risk. To address those issues, this dissertation refers to dynamic optimization, as well as econometric studies. It contributes to the natural resource literature by including new dimensions, such as financial openness in a growth model with exhaustible resources, contrary to most growth models which are studied as closed economies. Concerning its empirical applications, this thesis takes into account natural resource stocks, through oil and gas reserves, whereas most of the empirical literature focuses on the natural resource price dimension. This price issue is also part of the analysis, especially with oil price returns and oil price volatility. The main results are that long-term sustainability is not feasible with a constant interest rate, but the consumption growth rate can be positive in the case of a debt elastic interest rate, before declining in the long-term. It is also shown that oil and gas reserves have a significant impact on sovereign spreads. Moreover, oil price returns are significant determinants of Venezuela's Credit Default Swaps (CDS), contrary to the case of Russia, where oil prices seem to impact CDS spreads through the exchange rate canal
APA, Harvard, Vancouver, ISO, and other styles
22

Thoumin, Marc-Henri. "Analyse de la dynamique du phénomène de contagion entre les obligations souveraines européennes au cours des récents épisodes de crises financières." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM039/document.

Full text
Abstract:
Les périodes marquées par une aversion au risque intense sont souvent l’origine de distorsions notables dans les prix de marché, et de pertes substantielles pour les investisseurs. Chaque épisode de crise financière montre que les mouvements de ventes généralisées sur les marchés ont des conséquences très négatives sur l’économie réelle. Ainsi, explorer le phénomène d’aversion au risque et la dynamique de propagation du sentiment de panique sur les marchés financiers peut aider à appréhender ces périodes de forte volatilité.Dans ce rapport de thèse, nous explorons différentes dimensions du phénomène d’aversion au risque, dans le cadre de portefeuilles d’obligations souveraines Européennes. Le rendement des obligations d’Etat, quotté par les traders, est sensé refléter entre autre le risque que le Trésor fasse défaut sur sa dette, avant que l’obligation vienne à maturation. Il s’agit là du risque souverain. Les crises financières habituellement occasionnent un mouvement important des rendements vers des niveaux plus élevés. Ce type de correction reflète un accroissement du risque souverain, et implique nécessairement une hausse du coût de financement pour les Trésors nationaux. Un objectif de ce rapport est donc de fournir des détails inédits aux Trésors sur la manière dont les rendements obligataires sont sensés se détériorer en période d’aversion au risque.Chapitre I explore le risque souverain dans le cadre d’un modèle probabiliste impliquant des distributions à queues lourdes, ainsi que la méthode GAS qui permet de capturer la dynamique de la volatilité. L’ajustement obtenu avec les distributions Hyperboliques Généralisées est robuste, et les résultats laissent penser que notre approche est particulièrement efficace durant les périodes marquées par une volatilité erratique. Dans un but de simplification, nous décrivons la mise en place d’un estimateur de volatilité intemporel, sensé refléter la volatilité intrinsèque de chaque obligation. Cet estimateur suggère que la volatilité croit de manière quadratique lorsque celle-ci est exprimée en fonction de la fonction de répartition des variations de rendements. Dans un second temps nous explorons une version bivariée du modèle. La calibration, robuste, met en valeur les corrélations entre chaque obligation. En guise d’observation générale, notre analyse confirme que les distributions à queues épaisses sont tout à fait appropriées pour l’exploration des prix de marché en période de crise financière.Chapitre II explore différentes manières d’exploiter notre modèle probabiliste. Afin d’identifier la dynamique de la contagion entre les obligations souveraines, nous analysons la réaction attendue du marché à une série de chocs financiers. Nous considérons un niveau important de granularité pour ce qui est de la sévérité du choc sous-jacent, et ceci nous permet d’identifier des lois empiriques supposées généraliser le comportement de la réaction de marché lorsque l’aversion au risque s’intensifie. Puis, nous incorporons nos estimateurs de volatilité et de réaction de marché à certaines approches reconnues d’optimisation de portefeuille et nous notons une amélioration de la résistance des portefeuilles, dans cette nouvelle version. Finalement, nous développons une nouvelle méthodologie d’optimisation de portefeuille basée sur le principe de mean-reversion.Chapitre III est dédié au pricing de produits dérivés de taux. Nous considérons maintenant que l’aversion au risque cause l’émergence de discontinuités dans les prix de marché, que nous simulons par le biais de processus à sauts. Notre modèle se concentre sur les processus de Hawkes qui ont l’avantage de capturer la présence d’auto-excitation dans la volatilité. Nous développons une procédure de calibration qui se distingue des procédures habituelles. Les résultats de volatilité implicite sont cohérents avec la volatilité réalisée, et suggèrent que les coefficients de prime de risque ont été estimés avec succès
Periods of deep risk aversion are usually marked by sizeable distortions in market prices, and substantial losses in portfolios. As observed during financial crises, a generalized debacle in financial markets is a very negative shock for the real economy. Against this backdrop, it looks relevant to explore how risk aversion tends to affect global market valuations, especially if this exercise helps make the promotion of more optimal portfolio rebalancing procedures.In this dissertation, we investigate different dimensions of risk aversion, with a focus on European Sovereign debt securities. For a given sovereign bond, the (quoted) yield to maturity has to reflect the underlying risk that the Treasury may default on its debt, before maturation of the bond. This is sovereign risk. Financial crises usually occasion an upward correction in bond yields. Since higher yields reflect larger sovereign risk and higher funding costs, national Treasuries are usually inclined to get a deeper understanding of how sovereign risk could evolve under the influence of fierce risk aversion. This is another objective of our research analysis.In Chapter I, we consider a probabilistic approach to sovereign risk exploration, with the main purpose of illustrating the non-linear reaction ensuing from a gradual deterioration in market sentiment. We consider heavy-tailed distributions, and we use the Generalised Autoregressive Score method as a means to capture the volatility momentum. The goodness of fit provided by Generalised Hyperbolic distributions is compelling, and results suggest that our approach is particularly relevant to fit periods or erratic volatility, typical of financial crises. As an attempt to simplify the model, we focus on an empirical formulation of the ‘untemporal’ volatility of each security. This estimator of the intrinsic volatility suggests that volatility tends to accelerate in a quadratic manner when it is expressed against the cumulative distribution function of the yield variations. In a second part, we extend this approach to a problem of larger dimension and we explore the dynamics of risk aversion from a bivariate point of view. Results look robust and illustrate multivariate correlations between sovereign securities. As a general conclusion, heavy-tailed distributions look remarkably efficient to replicate the distribution of times-series affected by distorted volatility and erratic price variations.Chapter II explores different ways to extract information from the model, about financial contagion and how it is supposed to propagate through sovereign securities. In particular, we explore the market reaction to a series of many shocks with gradual intensity. Results offer a high degree of granularity and we extrapolate empirical rules on the expected market dynamics, when risk aversion intensifies. Then we incorporate our estimators of volatility and market reaction (to shocks) into popular portfolio optimisation procedures and we see positive implications on the general resilience of these portfolios. Finally, we also design an in-house methodology for optimal portfolio rebalancing, based on mean reversion.In Chapter III, we explore how sovereign risk tends to affect the price of financial derivatives in a risk-off environment. We consider that risk aversion and the ensuing volatility now favour the emergence of sizeable discontinuities in market prices, that we model with stochastic jumps. The different approaches we investigate extensively rely on Hawkes processes. These stochastic processes seek to estimate the durable impact of risk aversion onto the dynamics of jumps, via the introduction of dedicated self-excited loops. We develop an original approach to the calibration, different from conventional procedures. In the end, the calculated implied volatility remains in the vicinity of the realised volatility and there is a visible capability to jump on any rise in risk aversion
APA, Harvard, Vancouver, ISO, and other styles
23

Nguyen-Ngoc, Laurent. "Autour des processus de Lévy et quelques applications à des problèmes de mathématiques financières." Paris 6, 2003. http://www.theses.fr/2003PA066239.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Gueye, Djibril. "Some contributions to financial risk management." Thesis, Strasbourg, 2021. http://www.theses.fr/2021STRAD027.

Full text
Abstract:
Cette thèse traite différentes questions liées à la gestion quantitative des risques financiers. Nous nous intéressons, dans une première partie, aux modèles de temps de défaut en risque de crédit dans le cadre de la théorie de grossissement de filtrations. Nous proposons des modèles où le temps de défaut peut coïncider avec des instants de chocs économiques. D’abords, nous étendons le modèle de Jiao et Li (2018) dans le cas où les chocs ne sont pas prévisibles en étudiant les caractéristiques du temps de défaut. Nous présentons ensuite le modèle de Cox généralisé qui est une extention de celui de Lando (voir Lando, 1998). Nous proposons une large gamme d’exemples pour ullistrer notre construction. La seconde partie porte sur la construction de surfaces de volatilités des actifs financiers sous la condition d’absence d’opportunité d’arbitrage (AOA) en utilisant les méthodologies de krigeage (où la regression par processus Gaussien). Notre approche consiste á mettre en œuvre l’apprentissage du krigeage sur les prix d’options européennes en respectant les conditions de non-arbitrage. Ces conditions sont caractérisées par des contraintes de forme sur les prix, à savoir la monotonicité dans la direction des maturités et la convexité dans la direction des strikes. Etant donné que ces contraintes correspondent à un nombre fini d’inégalités linéaires, nous adoptons une technique de krigeage sous contraintes d’inégalités linéaires. Nous utilisons, pour cela, la méthode d’eveloppée par Maatouk et Bay (2016) qui est basée sur l’approximation fini-dimensionnelle du processus Gaussien. L’algorithme de Monte Carlo Hamiltonien de Pakman et Paninski (2014) sera utilisé pour simuler les coefficients Gaussiens. Nous proposons une méthode de calcul du Maximum a Posteriori (MAP) du processus Gaussien. Nous comparons notre méthode avec celles des réseaux de neuronne contraints et des SSVI
This thesis deals with various issues related to quantitative management of financial risks. We are interested, in a first part, in the models of default time in credit risk within the framework of enlargement of filtrations theory. We propose models where the default time can coincide with some instants of economic shocks. We first extend the model of Jiao and Li (2018) in the case where the shocks are not predictable by studying the characteristics of the default time. Secondly, we present the generalized Cox model which is an extension of Lando's (see Lando, 1998). We offer a wide range of examples to ulistate our construction. The second part deals with the construction of volatility surfaces of financial assets under the condition of no arbitrage opportunity (AOA) using kriging methodologies (or Gaussian process regression). Our approach consists in learning kriging on European option prices by taking into account non-arbitrage conditions. These conditions are characterized by shape constraints on prices, namely monotonicity in the direction of maturities and convexity in the direction of strikes. Since these constraints correspond to a finite number of linear inequalities, we adopt a kriging technique under constraints of linear inequalities. For this, we use the method developed by Maatouk and Bay (2016) which is based on the finite-dimensional approximation of the Gaussian process. The Monte Carlo Hamiltonian algorithm of Pakman and Paninski (2014) will be used to simulate the Gaussian coefficients. We propose a method for calculating the Maximum a Posteriori (MAP) of the Gaussian process. We compare our method with those of constrained neural networks and SSVIs
APA, Harvard, Vancouver, ISO, and other styles
25

Nichil, Geoffrey. "Provisionnement en assurance non-vie pour des contrats à maturité longue et à prime unique : application à la réforme Solvabilité 2." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0200/document.

Full text
Abstract:
Nous considérons le cas d’un assureur qui doit indemniser une banque à la suite de pertes liées à un défaut de remboursement de ses emprunteurs. Les modèles couramment utilisés sont collectifs et ne permettent pas de prendre en compte les comportements individuels des emprunteurs. Dans une première partie nous définissons un modèle pour étudier le montant des pertes liées à ces défauts de paiement (provision) pour une période donnée. La quantité clé de notre modèle est le montant d’un défaut. Pour un emprunteur j et une date de fin de prêt Tj , ce montant vaut max(Sj Tj -Rj Tj ; 0), où Sj Tj est le montant dû par l’emprunteur et dépend de la durée et du montant du prêt, et Rj Tj est le montant de la revente du bien immobilier financé par le prêt. Rj Tj est proportionnel au montant emprunté; le coefficient de proportionnalité est modélisé par un mouvement Brownien géométrique et représente les fluctuations des prix de l’immobilier. La loi des couples (Date de fin du prêt, Durée du prêt) est modélisée par un processus ponctuel de Poisson. La provision Ph, où h est la durée maximale des contrats considérés, est alors définie comme la somme d’un nombre aléatoire de montants de défauts individuels. Nous pouvons ainsi calculer l’espérance et la variance de la provision mais aussi donner un algorithme de simulation. Il est également possible d’estimer les paramètres liés au modèle et de fournir une valeur numérique aux quantiles de la provision. Dans une deuxième partie nous nous intéresserons au besoin de solvabilité associé au risque de provisionnement (problématique imposée par la réforme européenne Solvabilité 2). La question se ramène à étudier le comportement asymptotique de Ph lorsque h ! +1. Nous montrons que Ph, convenablement normalisée, converge en loi vers une variable aléatoire qui est la somme de deux variables dont l’une est gaussienne
We consider an insurance company which has to indemnify a bank against losses related to a borrower defaulting on payments. Models normally used by insurers are collectives and do not allows to take into account the personal characteristics of borrowers. In a first part, we defined a model to evaluate potential future default amounts (provision) over a fixed period.The amount of default is the key to our model. For a borrower j and an associated maturity Tj, this amount is max(Sj Tj -Rj Tj ; 0), where Sj Tj is the outstanding amount owed by the borrower and depends on the borrowed amount and the term of the loan, and Rj Tj is the property sale amount. Rj Tj is proportionate to the borrowed amount; the proportionality coefficient is modeled by a geometric Brownian motion and represents the fluctuation price of real estate. The couples (Maturity of the loan, Term of the loan) are modeled by a Poisson point process. The provision Ph, where h is the maximum duration of the loans, is defined as the sum of the random number of individual defaults amounts. We can calculate the mean and the variance of the provision and also give an algorithm to simulate the provision. It is also possible to estimate the parameters of our model and then give a numerical value of the provision quantile. In the second part we will focus on the solvency need due to provisioning risk (topic imposed by the european Solvency 2 reform). The question will be to study the asymptotic behaviour of Ph when h ! +1. We will show that Ph, well renormalized, converges in law to a random variable which is the sum of two random variables whose one is a Gaussian
APA, Harvard, Vancouver, ISO, and other styles
26

Wang, Tingwei. "Three Essays on Sovereign Credit Risk." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED010.

Full text
Abstract:
Cette thèse étudie le risque de crédit souverain et son impact sur les banques et les entreprises. Le premier essai montre que le risque de crédit bancaire est lié au risque de crédit souverain via l’exposition commune au risque systémique au lieu du sauvetage implicite ou de l’exposition excessive aux obligations émises par le pays d’origine. Dans le deuxième essai, je construis un modèle de structure du capital qui prédit une corrélation négative entre le niveau d’endettement des grands entreprises et le risque de crédit souverain à cause du sauvetage implicite. Cette prédiction est confirmée en suite par des preuves empiriques des entreprises dans la zone euro. Le troisième essai donne un modèle joint de CDS et d’obligation pour identifier les composantes de défaut et de liquidité dans les spreads de CDS et les rendements obligataires. Je trouve une composante de liquidité importante dans les spreads de CDS des pays périphériques de la zone euros et conclus que le fait de ne pas prendre en compte de l’illiquidité des CDS conduit à surestimer la composante de défaut dans le rendement obligataire
This thesis studies sovereign credit risk and its impact on banks and industrial firms. The first essay shows that bank credit risk is linked to sovereign credit risk through common exposure to systemic risk instead of implicit bailout or excessive holding of home country bonds. In the second essay, I build a trade-off model of capital structure which predicts negative correlation between optimal leverage of big firms and sovereign credit risk due to implicit bailout. The model prediction is confirmed by empirical evidence from firms in the euro area. The third essay provides a joint pricing model of CDS and bond to disentangle the default and liquidity component in CDS spread and bond yield spread. I find a remarkable liquidity component in the CDS spreads of peripheral euro area countries and conclude that ignoring CDS illiquidity leads to overestimation of default component in bond yield
APA, Harvard, Vancouver, ISO, and other styles
27

Nichil, Geoffrey. "Provisionnement en assurance non-vie pour des contrats à maturité longue et à prime unique : application à la réforme Solvabilité 2." Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0200.

Full text
Abstract:
Nous considérons le cas d’un assureur qui doit indemniser une banque à la suite de pertes liées à un défaut de remboursement de ses emprunteurs. Les modèles couramment utilisés sont collectifs et ne permettent pas de prendre en compte les comportements individuels des emprunteurs. Dans une première partie nous définissons un modèle pour étudier le montant des pertes liées à ces défauts de paiement (provision) pour une période donnée. La quantité clé de notre modèle est le montant d’un défaut. Pour un emprunteur j et une date de fin de prêt Tj , ce montant vaut max(Sj Tj -Rj Tj ; 0), où Sj Tj est le montant dû par l’emprunteur et dépend de la durée et du montant du prêt, et Rj Tj est le montant de la revente du bien immobilier financé par le prêt. Rj Tj est proportionnel au montant emprunté; le coefficient de proportionnalité est modélisé par un mouvement Brownien géométrique et représente les fluctuations des prix de l’immobilier. La loi des couples (Date de fin du prêt, Durée du prêt) est modélisée par un processus ponctuel de Poisson. La provision Ph, où h est la durée maximale des contrats considérés, est alors définie comme la somme d’un nombre aléatoire de montants de défauts individuels. Nous pouvons ainsi calculer l’espérance et la variance de la provision mais aussi donner un algorithme de simulation. Il est également possible d’estimer les paramètres liés au modèle et de fournir une valeur numérique aux quantiles de la provision. Dans une deuxième partie nous nous intéresserons au besoin de solvabilité associé au risque de provisionnement (problématique imposée par la réforme européenne Solvabilité 2). La question se ramène à étudier le comportement asymptotique de Ph lorsque h ! +1. Nous montrons que Ph, convenablement normalisée, converge en loi vers une variable aléatoire qui est la somme de deux variables dont l’une est gaussienne
We consider an insurance company which has to indemnify a bank against losses related to a borrower defaulting on payments. Models normally used by insurers are collectives and do not allows to take into account the personal characteristics of borrowers. In a first part, we defined a model to evaluate potential future default amounts (provision) over a fixed period.The amount of default is the key to our model. For a borrower j and an associated maturity Tj, this amount is max(Sj Tj -Rj Tj ; 0), where Sj Tj is the outstanding amount owed by the borrower and depends on the borrowed amount and the term of the loan, and Rj Tj is the property sale amount. Rj Tj is proportionate to the borrowed amount; the proportionality coefficient is modeled by a geometric Brownian motion and represents the fluctuation price of real estate. The couples (Maturity of the loan, Term of the loan) are modeled by a Poisson point process. The provision Ph, where h is the maximum duration of the loans, is defined as the sum of the random number of individual defaults amounts. We can calculate the mean and the variance of the provision and also give an algorithm to simulate the provision. It is also possible to estimate the parameters of our model and then give a numerical value of the provision quantile. In the second part we will focus on the solvency need due to provisioning risk (topic imposed by the european Solvency 2 reform). The question will be to study the asymptotic behaviour of Ph when h ! +1. We will show that Ph, well renormalized, converges in law to a random variable which is the sum of two random variables whose one is a Gaussian
APA, Harvard, Vancouver, ISO, and other styles
28

Winant, Pablo. "Modèles stochastiques d'équilibre général dynamique à deux agents." Paris, EHESS, 2014. http://www.theses.fr/2014EHES0048.

Full text
Abstract:
Cette thèse se concentre sur la résolution et l’étude de modèles en équilibre général dans lesquels deux agents peuvent échanger un ou plusieurs actifs, risqués ou non. Le premier chapitre développe une méthode d'approximation autour d'un point fixe “risqué” et l'utilise pour montrer l'effet stabilisant de l'épargne de précaution sur la position nette dans un modèle à deux pays. Le second chapitre donne les fondations théoriques pour adapter la méthode classique des perturbations pour caractériser des portefeuilles dynamiques. Il évalue aussi sa précision par rapport aux méthodes concurrentes. Le troisième chapitre compare quantitativement les effets de l'épargne de précaution des pays les plus risqués avec ceux de la réallocation efficiente du capital dans le cadre du modèle néoclassique. Le modèle prédit correctement la direction des flux de capitaux après l'intégration mais les effets d'équilibre général induisent des gains relativement faibles. Contrairement à l'intuition, les pays développés et peu risqués profitent plus de l'intégration que les pays peu développés et risqués. Le quatrième chapitre propose un mécanisme liant une inégalité croissante des revenus à l'augmentation de la dette des ménages les plus pauvres, qui elle-même augmente la probabilité d'une crise par un défaut rationnel des ménages endettés. L'accumulation des créances provient d'une préférence pour la richesse des 5% des ménages les plus riches compatible avec leur comportement observé. Le modèle calibré reproduit correctement l'ampleur de l'accumulation ainsi que les probabilités de défaut observées avant la grande récession et la grande dépression
This dissertation focuses on the numerical solution and properties of dynamic general equilibrium models, in which two agents can trade in one or many assets. In the first chapter, I develop an approximation method around a « risky steady-state » which captures precautionary behavior of economic agents. In a simple two-countries models, I show that this effect stabilizes the net foreign asset position. The second chapter provides theoretical foundations to adapt classical perturbation methods in order to characterize dynamic portfolios in general or partial equilibrium. It also evaluates its precision relative to other concurring methods. The third chapter studies financial integration in the stochastic neoclassical model. By comparing quantitatively the effects of precautionary savings by risky countries with the effects of efficient capital allocation, the model is able to predict capital flow reversals a few years after integration. Counter-intuitively, the safer country benefits more from financial integration that the risky one. Last chapters links an increase in income inequalities with a debt accumulation by the 95% poorest households. The debt buildup induces in turn a rational default by bottom earners, leading to crises episodes similar to the great depression and the great recession. The debt accumulation comes from the preference for wealth by top earners that matches the observed behavior of the top 5% households. When calibrated to empirical data, the model is able to reproduce the magnitude of debt accumulation and the increase in crisis probability that were historically observed before the two historical episodes
APA, Harvard, Vancouver, ISO, and other styles
29

Thieulot-Laure, Emmanuelle. "Méthode probabiliste unifiée pour la prédiction du risque de rupture en fatigue." Cachan, Ecole normale supérieure, 2008. https://tel.archives-ouvertes.fr/tel-01199575v1.

Full text
Abstract:
Une des sources principales dʹaléa en fatigue est la présence de défauts dans le matériau. Pour établir les spécifications sur la propreté inclusionnaire d’un matériau, il faut pouvoir lier la probabilité de présence des défauts par taille et le risque de rupture par fatigue des composants. Les travaux de Kitagawa et Takahashi permettent de distinguer deux domaines en termes de dimensions de défauts vis à vis du risque de rupture par fatigue : celui des petits défauts, dans lequel la limite dʹendurance est indépendante de la dimension des défauts et celui des grands défauts où la dimension des défauts est généralement prise en compte dans le cadre de la MLER. Lorsque les distributions de défauts couvrent les deux domaines, il faut disposer dʹun modèle probabiliste continu en termes de dimensions de défauts. Pour cela nous avons développé un critère de fatigue « unifié » en termes de dimension de défauts. Il sʹagit dʹun critère de non‐propagation (les défauts sont supposés pré‐exister dans la structure) construit à partir dʹune énergie élastique de cisaillement critique en pointe de fissure. Cette énergie est calculée à lʹaide des champs asymptotiques de la MLER étendus à lʹordre supérieur (contrainte T), pour être applicable aux défauts de petites dimensions. Le critère est continu en termes de dimension de défaut et faiblement dépendant de leur taille lorsqu’elle diminue. Représenter le défaut par une fissure, classe le critère proposé dans la catégorie des critères à plan critique. Et, à travers la contrainte T, le critère est sensible au caractère multiaxial du chargement et répond comme le critère de Dang Van pour les très petits défauts. Le caractère probabiliste du risque de rupture par fatigue est alors introduit naturellement dans ce critère via les distributions de dimensions de défauts, en appliquant lʹhypothèse du maillon faible. Mais l’aléa lié à l’interaction entre les défauts et la microstructure intervient également. La dernière partie de notre étude s’est donc centrée sur l’analyse de la fluctuation des contraintes d’origine microstructurale et son influence sur la distribution des contraintes seuils de non‐propagation des défauts. Cette fluctuation induit une dispersion notable du seuil de non‐propagation pour des micro‐fissures dont la dimension est proche d’une dizaine de grains, puis lʹeffet disparaît progressivement avec lʹaugmentation de la dimension du défaut
One of the main sources of randomness in fatigue is the presence of defects in the material. So as to establish specifications about the material cleanliness, i. E. The distribution of inclusion sizes, the relation between the defect size and the risk of failure should be established. The pioneering results of Kitagawa and Takahashi have established that two domains can be distinguished: when defects are small, the endurance limit does not vary with the defect size. Endurance models are therefore expressed within the framework of continuum mechanics. On the contrary, the size of large defects should be accounted for, which is usually done within the framwork of linear elastic fracture mechanics. When the distributions of defects are wide, an accurate prediction of the failure probability requires a unified fatigue criterion in terms of defects sizes. Therefore, a non‐propagation criterion was developed. It is based on a critical elastic distortional energy around the crack tip and includes higher order terms (Tstress) of LEFM asymptotic fields, so as to be applicable to smaller defects. This criterion responds like the Dang Van criterion for small defects and like a non‐propagation threshold stress intensity factor for large defects. The probably of failure is then determined using the weakest link theory from the statistic distribution of defects sizes. However, when defects are small, their non‐propagation threshold becomes sensitive to the local environment of the defect. Therefore, the last part of this thesis concerns the fluctuation of stresses within the microstructure and its effects on the non‐propagation threshold of defects. This “microstructural” fluctuation induces a dispersion of the non‐propagation threshold, when defects have a dimension below ten grains and then vanishes progressively with the inverse of the squareroot of the defect size, when this defect size increases
APA, Harvard, Vancouver, ISO, and other styles
30

Villemot, Sébastien. "Essays on Modeling the Sovereign Default Risk." Paris, EHESS, 2012. http://www.theses.fr/2012EHES0055.

Full text
Abstract:
Cette thèse contribue à la littérature sur la dette souveraine et le risque de défaut, en se fondant notamment sur les récents développements de la littérature quantitative sur la dette souveraine. La première contribution est une solution au problème suivant : la plupart des modèles de dette souveraine prédisent le défaut pour des valeurs très faibles du ratio dette sur PIB, en contradiction avec ce qui est observé dans les données. En partant de l’observation que les pays ne souhaitent généralement pas faire défaut mais y sont forcés par les marchés, je présente un modèle qui peut reproduire les principaux faits stylisés concernant le risque souverain. J'établis ensuite une typologie des crises de dette en trois catégories: les crises qui sont la conséquence d'un choc exogène, celles qui sont des prophéties auto-réalisatrices, et les crises auto-imposées qui sont la conséquence d'une tendance rationnelle au surendettement lorsque le risque d'un choc négatif est élevé. La proportion de crises auto-réalisatrices et auto-imposées dans les données est estimée à environ 10% pour chacune de ces catégories. J'étudie également comment le défaut souverain peut se comprendre dans les modèles de cycles réels en petite économie ouverte. Il ressort que ces modèles oscillent entre deux cas polaires: le défaut y est soit inexistant soit trop fréquent. Ces modèles sont donc peu adaptés à l'étude du risque de défaut, risque qui doit donc être endogénéisé pour obtenir des résultats utiles. Enfin, je fais une contribution méthodologique en présentant une nouvelle méthode de résolution des modèles de défaut souverain endogène. Cette méthode améliore significativement la frontière vitesse-précision actuelle
This thesis contributes to the literature on sovereign debt and default risk, building on theoretical models of strategic default and on more recent developments of the quantitative sovereign debt literature. The first contribution is to suggest a solution to the “sovereign default puzzle:” most quantitative sovereign debt models predict a default at very low debt-to-GDP thresholds, in clear contradiction with what is observed in the data. Starting from the observation that countries generally do not want to default but are rather forced into it by the markets, I present a model which can replicate the key stylized facts regarding sovereign risk. As another contribution, I establish a typology of debt crises in three categories: those crises that are the consequence of exogenous shocks, those that are self-fulfilling prophecies, and those self-enforcing crises that are the consequence of a rational tendency to over-borrow when the risk of a negative shock is high. The estimated proportion of self-fulfilling and self-enforcing crises in the data is about 10% in each case. I also study how sovereign default can be understood in the context of small open economy real business cycle models. The conclusion is that these models oscillate between two polar cases: default is either inexistent or too frequent, depending on the chosen parameter values. These models are therefore not well suited for studying sovereign risk, and default needs to be fully endogeneized in order to get meaningful results. Finally, I make a methodological contribution by presenting a new computational method for solving endogenous default models. It is shown to dramatically improve the existing speed-accuracy frontier
APA, Harvard, Vancouver, ISO, and other styles
31

Jiao, Ying. "Risque de crédit : modélisation et simulation numérique." Phd thesis, Ecole Polytechnique X, 2006. http://pastel.archives-ouvertes.fr/pastel-00002180.

Full text
Abstract:
Cette thèse est motivée par les problèmes induits par la corrélation des défauts dans les produits dérivés de crédit. La thèse contient deux parties. La première est consacrée à analyser théoriquement les défauts successifs. On propose une nouvelle approche, basée sur la densité des probabilités conditionnelles de survie, pour traiter ce qui se passe après le premier défaut en déterminant les compensateurs des défauts successifs et en calculant les espérances conditionnelles par rapport à la filtration du marché. Dans la deuxième partie, on présente une méthode d'approximation pour calculer les prix des CDOs en utilisant la méthode de Stein et la transformation de zéro biais. On obtient un terme correcteur explicite pour l'approximation gausienne et on estime la vitesse de convergence. Les tests numériques montrent l'efficacité de cette méthode par rapport aux méthodes classiques. On établit aussi des résultats similaires pour l'approximation poisonnienne en appuyant sur des variantes discrètes de la méthode. Enfin, pour les fonctions plus régulières, on propose des correcteurs d'ordres supérieurs.
APA, Harvard, Vancouver, ISO, and other styles
32

Aziz, Saqib. "Three Essays on Mergers and Acquisitions and Bank Stability." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1G005/document.

Full text
Abstract:
Cette thèse est constituée de trois essais sur les activités de fusions-acquisitions (F&A) des banques et leurs effets sur la stabilité du secteur bancaire. Le premier essai analyse l’intensité de l’activité F&A des grandes banques Européennes au cours d'une période vaste de 1990-2006 et les liens avec les mesures de sauvetages et les notations de crédit pendant la crise financière de 2007-2009. Trois résultats importants sont mis en évidence à partir de notre étude. En premier lieu, l'intensité de l'activité F&A est liée positivement à la probabilité de sauvetage pendant la crise financière. En second lieu, cette intensité des activités de F&A est liée à la détérioration des notations des émetteurs, suggérant ainsi un risque de défaut plus élevé des banques acquéreuses pendant la période de crise. Enfin, on constate un lien positif entre les mesures de protection gouvernementales et l'effet combiné des activités de F&A et du facteur « too big to fail ». Ceci laisse penser que les banques peuvent poursuive leurs activités de F&A pour exploiter des avantages de protection liés à leur statut de « too big to fail ». Le second essai analyse la relation entre les activités de F&A de grandes banques Européennes et leur vulnérabilité à la crise financière en utilisant l’indicateur DD de Merton (1974) et le ratio de Z-score comme mesures de risque de faillite et de solvabilité. Les résultats mettent en évidence que les stratégies d’acquisition de banques d'investissements sur une période de 1990-2006 sont liées significativement à l'augmentation en leur risque de défaut (mesuré par DD) et l'insolvabilité (mesuré par le Z-score) pendant la crise financière récente. Le troisième et dernier essai s’intéresse aux relations entre les opérations de F&A et les évolutions de la déréglementation bancaire et des réformes de régulation bancaire mises en place aux Etats-Unis. Nous analysons principalement les effets de deux actes de déréglementation significatifs des années 1990 qui ont permis aux banques américaines de s’étendre à travers les états (acte de Riegle-Neal de 1994 et acte de Gramm-Leach-Bliley de 1999). Nous comparons les activités de F&A des banques américaines avec comme groupe de contrôle les banques européennes sur la période 1990-2009. Nous constatons un effet significativement positif de la déréglementation sur les activités de F&A dans le secteur bancaire américain. Cependant, on peut remarquer que les effets constatés ne sont pas forcément les effets souhaités ou visés par les deux actes de déréglementation. De plus, nous montrons que l'intensité des activités de F&A et la déréglementation provoquent conjointement un effet négatif sur la stabilité du secteur bancaire américain, justifiant ainsi le lien souvent établi entre la concentration du système bancaire et sa fragilité
This dissertation consists of three essays on mergers and acquisitions (M&A) activity of banks and various dimensions of their stability. The first essay delves upon whether and how acquisitiveness of large European banks over an extensive period of 1990-2006 relate to their bailouts and credit ratings during the financial crisis of 2007-2009. Three important findings emerge from the performed analysis. First, the intensity of bank M&A activity positively relates to the likelihood and extent of their bailout support during the financial crisis. Second, the ex-ante acquisitiveness of banks relates in a significantly positive manner with the deterioration in bank issuer ratings – suggesting towards higher default risk of acquisitive banks during the crisis period. Third, a positive link between the external support and the joint effect of M&A activity and “too big to fail” factor substantiates that banks may pursue M&A activity to exploit safety net benefits associated with “too big to fail” status in the market. The second chapter analyzes the relation between M&A activity of large European banks and their vulnerability to the financial crisis using Merton (1974) based distance to default (DD) and the Z-score ratio as a measure of bankruptcy risk and solvency. The results suggest that a greater focus of samples banks towards acquiring investment banking operations over a time span of 1990-2006 significantly relates to the increase in their risk default (measured by DD) and insolvency (measured by Z-score) during the recent financial crisis. Moreover, relatively limited evidence indicates towards the positive stability effects of the acquisitions performed in the retail banking segment of industry by the sample banks. The third and final essay of this dissertation provides M&A centric evidence on bank deregulation, consolidation, and stability in the U.S. banking industry. We primarily analyze the effects of two significant deregulatory acts of the 1990s that permitted U.S. banks to expand across states (the Riegle-Neal act of 1994) and functions performed (the Gramm-Leach-Bliley act of 1999). We employ difference-in-difference approach over M&A activity of U.S. (treatment group) and European (control group) banks over a time span of 1990-2009 in an unbalanced panel setting. We find a significantly positive effect of deregulation in spurring M&A centric consolidation in the U.S. banking industry. However, such effects are not fully reflected in the types of diversification aimed at in the two deregulatory acts. Moreover, we also show that M&A intensity and deregulation jointly cast a negative effect on the stability of U.S. banking industry –thus substantiating “Concentration – Fragility” view over banking
APA, Harvard, Vancouver, ISO, and other styles
33

Thorez, Eric. "CDS and the forecasting of bank default." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED073/document.

Full text
Abstract:
A partir d’une analyse du défaut des banques et de la régulation au travers des notations de crédits (et des agences de notation), des modèles portant sur les CDS, de Bâle III et du capital insurance, nous trouvons que les spécificités des CDS en font un bon candidat pour prévoir (et idéalement empêcher) les défauts potentiels des banques. En effet, grâce aux propriétés (financières et économiques) des CDS, ainsi qu’aux résultats d’études empiriques, nous montrons qu’ils reflètent correctement le comportement des risques des banques et qu’ils ont capté les changements informationnels plus rapidement que les notations de crédits qui sont restées relativement constantes durant 2007 et 2008.Ainsi, en utilisant un déclencheur ad hoc basé sur les CDS et l’action appropriée si le déclencheur venait à s’activer, nous pourrions empêcher le défaut d’une banque. Et la compréhension du mécanisme afférent au capital contingent est d’un grand intérêt pour atteindre cet objectif qui optimise le monitoring mis en oeuvre par les banques et les régulateurs
Based on an analysis of the default of the banks and regulation through credit ratings (and rating agencies), CDS models, Basel III, bail-In and capital insurance, we find that the characteristics of CDS make them a good candidate to forecast (and ideally prevent) the potential defaults of the banks. Indeed, thanks to the economics of CDS and results of empirical studies, we show that they are a good proxy of bank risks and that they did capture information changes more quickly than the credit ratings which remained relatively constant during 2007 and 2008.So, using a specific trigger based on CDS and the appropriate action, should the trigger be activated, we could prevent the default of a bank. And the understanding of contingent capital mechanism is of great interest to reach this objective which optimizes the monitoring implemented by banks as well as regulators
APA, Harvard, Vancouver, ISO, and other styles
34

Kouassi, Komlan Prosper. "Adaptation des techniques actuelles de scoring aux besoins d'une institution de crédit : le CFCAL-Banque." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAB004.

Full text
Abstract:
Les institutions financières sont, dans l’exercice de leurs fonctions, confrontées à divers risques, entre autres le risque de crédit, le risque de marché et le risque opérationnel. L’instabilité de ces facteurs fragilise ces institutions et les rend vulnérables aux risques financiers qu’elles doivent, pour leur survie, être à même d’identifier, analyser, quantifier et gérer convenablement. Parmi ces risques, celui lié au crédit est le plus redouté par les banques compte tenu de sa capacité à générer une crise systémique. La probabilité de passage d’un individu d’un état non risqué à un état risqué est ainsi au cœur de nombreuses questions économiques. Dans les institutions de crédit, cette problématique se traduit par la probabilité qu’un emprunteur passe d’un état de "bon risque" à un état de "mauvais risque". Pour cette quantification, les institutions de crédit recourent de plus en plus à des modèles de credit-scoring. Cette thèse porte sur les techniques actuelles de credit-scoring adaptées aux besoins d’une institution de crédit, le CFCAL-banque, spécialisé dans les prêts garantis par hypothèques. Nous présentons en particulier deux modèles non paramétriques (SVM et GAM) dont nous comparons les performances en termes de classification avec celles du modèle logit traditionnellement utilisé dans les banques. Nos résultats montrent que les SVM sont plus performants si l’on s’intéresse uniquement à la capacité de prévision globale. Ils exhibent toutefois des sensibilités inférieures à celles des modèles logit et GAM. En d’autres termes, ils prévoient moins bien les emprunteurs défaillants. Dans l’état actuel de nos recherches, nous préconisons les modèles GAM qui ont certes une capacité de prévision globale moindre que les SVM, mais qui donnent des sensibilités, des spécificités et des performances de prévision plus équilibrées. En mettant en lumière des modèles ciblés de scoring de crédit, en les appliquant sur des données réelles de crédits hypothécaires, et en les confrontant au travers de leurs performances de classification, cette thèse apporte une contribution empirique à la recherche relative aux modèles de credit-scoring
Financial institutions face in their functions a variety of risks such as credit, market and operational risk. These risks are not only related to the nature of the activities they perform, but also depend on predictable external factors. The instability of these factors makes them vulnerable to financial risks that they must appropriately identify, analyze, quantify and manage. Among these risks, credit risk is the most prominent due to its ability to generate a systemic crisis. The probability for an individual to switch from a risked to a riskless state is thus a central point to many economic issues. In credit institution, this problem is reflected in the probability for a borrower to switch from a state of “good risk” to a state of “bad risk”. For this quantification, banks increasingly rely on credit-scoring models. This thesis focuses on the current credit-scoring techniques tailored to the needs of a credit institution: the CFCAL-banque specialized in mortgage credits. We particularly present two nonparametric models (SVM and GAM) and compare their performance in terms of classification to those of logit model traditionally used in banks. Our results show that SVM are more effective if we only focus on the global prediction performance of the models. However, SVM models give lower sensitivities than logit and GAM models. In other words the predictions of SVM models on defaulted borrowers are not satisfactory as those of logit or GAM models. In the present state of our research, even GAM models have lower global prediction capabilities, we recommend these models that give more balanced sensitivities, specificities and performance prediction. This thesis is not completely exhaustive about the scoring techniques for credit risk management. By trying to highlight targeted credit scoring models, adapt and apply them on real mortgage data, and compare their performance through classification, this thesis provides an empirical and methodological contribution to research on scoring models for credit risk management
APA, Harvard, Vancouver, ISO, and other styles
35

Dhima, Julien. "Evolution des méthodes de gestion des risques dans les banques sous la réglementation de Bale III : une étude sur les stress tests macro-prudentiels en Europe." Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E042/document.

Full text
Abstract:
Notre thèse consiste à expliquer, en apportant quelques éléments théoriques, les imperfections des stress tests macro-prudentiels d’EBA/BCE, et de proposer une nouvelle méthodologie de leur application ainsi que deux stress tests spécifiques en complément. Nous montrons que les stress tests macro-prudentiels peuvent être non pertinents lorsque les deux hypothèses fondamentales du modèle de base de Gordy-Vasicek utilisé pour évaluer le capital réglementaire des banques en méthodes internes (IRB) dans le cadre du risque de crédit (portefeuille de crédit asymptotiquement granulaire et présence d’une seule source de risque systématique qui est la conjoncture macro-économique), ne sont pas respectées. Premièrement, ils existent des portefeuilles concentrés pour lesquels les macro-stress tests ne sont pas suffisants pour mesurer les pertes potentielles, voire inefficaces si ces portefeuilles impliquent des contreparties non cycliques. Deuxièmement, le risque systématique peut provenir de plusieurs sources ; le modèle actuel à un facteur empêche la répercussion propre des chocs « macro ».Nous proposons un stress test spécifique de crédit qui permet d’appréhender le risque spécifique de crédit d’un portefeuille concentré, et un stress test spécifique de liquidité qui permet de mesurer l’impact des chocs spécifiques de liquidité sur la solvabilité de la banque. Nous proposons aussi une généralisation multifactorielle de la fonction d’évaluation du capital réglementaire en IRB, qui permet d’appliquer les chocs des macro-stress tests sur chaque portefeuille sectoriel, en stressant de façon claire, précise et transparente les facteurs de risque systématique l’impactant. Cette méthodologie permet une répercussion propre de ces chocs sur la probabilité de défaut conditionnelle des contreparties de ces portefeuilles et donc une meilleure évaluation de la charge en capital de la banque
Our thesis consists in explaining, by bringing some theoretical elements, the imperfections of EBA / BCE macro-prudential stress tests, and proposing a new methodology of their application as well as two specific stress tests in addition. We show that macro-prudential stress tests may be irrelevant when the two basic assumptions of the Gordy-Vasicek core model used to assess banks regulatory capital in internal methods (IRB) in the context of credit risk (asymptotically granular credit portfolio and presence of a single source of systematic risk which is the macroeconomic conjuncture), are not respected. Firstly, they exist concentrated portfolios for which macro-stress tests are not sufficient to measure potential losses or even ineffective in the case where these portfolios involve non-cyclical counterparties. Secondly, systematic risk can come from several sources; the actual one-factor model doesn’t allow a proper repercussion of the “macro” shocks. We propose a specific credit stress test which makes possible to apprehend the specific credit risk of a concentrated portfolio, as well as a specific liquidity stress test which makes possible to measure the impact of liquidity shocks on the bank’s solvency. We also propose a multifactorial generalization of the regulatory capital valuation model in IRB, which allows applying macro-stress tests shocks on each sectorial portfolio, stressing in a clear, precise and transparent way the systematic risk factors impacting it. This methodology allows a proper impact of these shocks on the conditional probability of default of the counterparties of these portfolios and therefore a better evaluation of the capital charge of the bank
APA, Harvard, Vancouver, ISO, and other styles
36

Ma, Xiaofei. "Structural Change, Mobility and Economic Policies." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2073/document.

Full text
Abstract:
Il y a quatre chapitres dans cette thèse.Dans le premier chapitre, nous analysons les intéractions entre le marché interbancaire et le risque de défaut souverain dans un modèle d’équilibre général à deux pays, en focalisant sur la transmission de la crise financière récente et la politique monétaire non conventionnelle.Dans le deuxième chapitre, les effets de la dévaluation fiscale sur les indicateurs macroéconomiques et le bien être sont analysés en utilisant un modèle à deux pays en union monétaire o`u les variétés de biens et le commerce sont endogènes.Dans le troisième chapitre, l’impact du facteur démographique sur la croissance du secteur des services à long terme est mis en exergue.Dans le quatrième chapitre, on étudie les effets de la mobilité des travailleurs et de la mobilité du capital dans une union monétaire
This thesis studies challenges for modern developped economies, including the structural change toward services, population ageing, weak labor mobility in the EMU and unconventional monetary policies after the 2008 financial crisis. The manuscript is divided into four chapters.In the first chapter, we analyze the interaction between interbank markets and default risk using a two-country dynamic general equilibrium model, with a focus on the transmission of the recent financial crisis and unconventional monetary policies.In the second chapter, we investigate the effects of fiscal devaluations on key macroeconomic aggregates and welfare using a two-country monetary-union model with endogenous varieties and endogenous tradability.In the third chapter, we study the impact of demographic factor and the growth of service sector by using a multi-sectoral OLG model, and effectuate counterfactual experiments in which the annual growth rate of young generation is ±1pp than the actual growth rate.In the fourth chapter, we study the potential interactions between financial integration and labor mobility in a currency union facing asymmetric shocks, and simulate the impacts of 2008 financial crisis under different mobility costs
APA, Harvard, Vancouver, ISO, and other styles
37

Daass, Bilal. "Approches informationnelles pour une navigation autonome collaborative de robots d'exploration de zones à risques." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I054.

Full text
Abstract:
Ces dernières années, de nombreux travaux ont été menés afin de fournir une estimation précise de l’état d’un système dynamique. Dans cette thèse, nous ciblons les systèmes composés de sous-systèmes collaboratifs possédant une multitude de capteurs. Nous proposons un filtre combinant les avantages du filtre de Kalman et du filtre informationnel, nécessitant une charge de calculs bien moins élevée. Afin de prendre en compte la méconnaissance des covariances des mesures, une fusion multi-capteurs basée sur l'intersection des covariances est analysée en termes de charge calculatoire. Trois architectures de fusion multi-capteurs sont dès lors considérées. On réalise, sur les différents composants de ces architectures, une analyse fine de la répartition de la charge calculatoire du filtre et de l’algorithme d’intersection des covariances. Dans l’objectif de rendre un système tolérant aux défauts, des méthodes statistiques informationnelles sont développées. Elles sont applicables à toute méthode basée sur le rapport de vraisemblance généralisé, entraînant un seuillage adaptatif de ce rapport. Leurs mises en œuvre à travers deux types de cartes de contrôle permettent une détection rapide des défaillances des capteurs. Nos approches théoriques sont validées à travers un système de robots mobiles collaboratifs. Nous intégrons une phase de diagnostic et de détection de défauts des capteurs. Celle-ci est basée sur l’intégration de ces méthodes statistiques informationnelles dans le processus de fusion et d’estimation composé d’un filtre bayésien et de l’intersection des covariances. L’objectif est d’assurer une navigation autonome sûre, précise et tolérante aux défaillances des capteurs. Enfin, nous présentons une preuve de concept d'une méthode de contrôle et d'évaluation non destructive des matériaux dans l’environnement immédiat des robots. En particulier, il s'agit d'introduire un capteur hyperfréquence pour l'interaction entre l'onde électromagnétique propagée et le matériau sous investigation. Cette méthode, connue sous le vocable radar, a connu un essor grandissant dans les laboratoires de recherche et dans les applications courantes liées notamment à la mesure de vitesse. Néanmoins, sa transposition sur des robots mobiles collaboratifs demeure un challenge pour adresser l'évaluation sans contact de matériaux, notamment en environnement sévère. Elle consiste à déterminer les caractéristiques du matériau sous test à l'aide de capteurs micro-ondes embarqués
In the recent years, there was a growing interest to provide an accurate estimate of the state of a dynamic system for a wide range of applications. In this work, we target systems built up with several collaborative subsystems integrating various heterogeneous sensors. We introduce a filter concept that combines the advantages of both Kalman and informational filters to achieve low computational load. To consider any system whose measurement covariances are incomplete or unknown, a multi-sensor fusion based on the covariance intersection is analyzed in terms of calculation burden. Three multi-sensor fusion architectures are then considered. A fine analysis of the calculation load distribution of the filter and the covariance intersection algorithm is performed on the different components of these architectures. To make the system fault tolerant, informational statistical methods are developed. They are applicable to any method based on the generalized likelihood ratio. They lead to an adaptive threshold of this ratio. The technique has been implemented considering two types of control charts for the fast detection of sensor failures. Our theoretical approaches are validated through a system of collaborative mobile robots. We integrate a diagnosis and fault detection phase, which is based on the integration of these informational statistical methods into the fusion and estimation process, the latter being composed of a Bayesian filter and the covariance intersection. The main objective is to ensure that this system provides safe, accurate and fault-tolerant autonomous navigation. Finally, we present a proof-of-concept method for nondestructive and evaluation of materials in close proximity of the robot environment. In particular, we introduce a microwave sensor to characterize the electromagnetic wave to material under test interaction. This technique, known under the name radar, had a growing interest in academic laboratories and for usual applications related to speed measurements. Nevertheless, its adaptation to collaborative mobile robots remains a challenging task to address contactless characterization of materials, especially in harsh environments. This latter consists to determine the material characteristics from embedded microwave sensors
APA, Harvard, Vancouver, ISO, and other styles
38

David, Paul. "Le traitement de l'incertitude dans le contentieux des produits de santé défectueux." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCB218.

Full text
Abstract:
Alors que le contentieux des produits de santé n'a jamais été aussi fourni, l'application du régime spécial de responsabilité du fait des produits défectueux issu de la directive européenne du 25 juillet 1985, entraîne l'émergence d'un certain nombre d'incertitudes qui affectent directement le sort des demandes en réparation. Les incertitudes matérielles ont, pour la plupart reçu un traitement efficace par l'action conjuguée de la jurisprudence et du législateur. Si les outils juridiques traditionnels, tels que les présomptions ou la causalité alternative, ont permis de résoudre une partie non négligeable de ces incertitudes, les juges se sont également attachés à développer des outils nouveaux comme la balance bénéfice/risque ou encore la répartition de l'obligation à la dette selon les parts de marché. Cependant, si le développement de ces outils juridiques, plus adaptés aux spécificités des produits de santé, a permis d'apporter une solution efficace aux incertitudes matérielles, le traitement de l'incertitude scientifique, fondé sur les présomptions du fait de l'homme, n'apporte, toujours pas, de solutions satisfaisantes. L'étude du traitement des incertitudes dans le contentieux des produits de santé défectueux permet d'apprécier les acquis mais également les limites atteintes par l'utilisation de certains outils mis à la disposition des juges et qui se révèlent parfois inadaptés. L'intervention du législateur et la prise en compte des spécificités des produits de santé, permettraient de développer un système d'indemnisation adapté qui interviendrait de façon subsidiaire en cas d'échec de la voie contentieuse
At a time when healthcare-product litigation is attaining record heights, the implementation into French law of the special liability regime for defective products, which derives from the European Council Directive of 25 July 1985, has led to the emergence of several grey areas of uncertainty which have a direct impact on the outcome of claims for compensation. Areas of material uncertainty have, for the most part, been effectively dealt with through the combined application of case law and the intervention of the legislator. While classic legal tools such as presumption and alternative causality provide a means to resolve a non-negligible part of these uncertainties, judges have also endeavoured to develop new tools, such as risk/utility test and market-share liability. Still, although the development of these legal tools - better suited as they are to the specific features of healthcare products - provide an effective solution to resolving areas of material uncertainty, the treatment of scientific uncertainty, which is based on presumptions of fact, does not always provide satisfactory solutions. The study of the legal treatment of uncertainty in healthcare-product litigation provides a means to assess the benefits but also the limitations of certain tools that are now available to judges but which at times prove inadequate. Intervention on the part of the legislator, while at the same time taking into account the specific features of healthcare products, could lead to the development of a suitable compensation system that could afford relief when litigation fails
APA, Harvard, Vancouver, ISO, and other styles
39

Dakkoune, Amine. "Méthodes pour l'analyse et la prévention des risques d'emballement thermique Zero-order versus intrinsic kinetics for the determination of the time to maximum rate under adiabatic conditions (TMR_ad): application to the decomposition of hydrogen peroxide Risk analysis of French chemical industry Fault detection in the green chemical process : application to an exothermic reaction Analysis of thermal runaway events in French chemical industry Early detection and diagnosis of thermal runaway reactions using model-based approaches in batch reactors." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMIR30.

Full text
Abstract:
L’histoire des événements accidentels dans les industries chimiques montre que leurs conséquences sont souvent graves sur les plans humain, environnemental et économique. Cette thèse vise à proposer une approche de détection et de diagnostic des défauts dans les procédés chimiques afin de prévenir ces événements accidentels. La démarche commence par une étude préalable qui sert à identifier les causes majeures responsables des événements industriels chimiques en se basant sur le retour d’expérience (REX). En France, selon la base de données ARIA, 25% des évènements sont dus à l’emballement thermique à cause d’erreurs d’origine humaine. Il est donc opportun de développer une méthode de détection et de diagnostic précoce des défauts dus à l’emballement thermique. Pour cela nous développons une approche qui utilise des seuils dynamiques pour la détection et la collecte de mesures pour le diagnostic. La localisation des défauts est basée sur une classification des caractéristiques statistiques de la température en fonction de plusieurs modes défectueux. Un ensemble de classificateurs linéaires et de diagrammes de décision binaires indexés par rapport au temps sont utilisés. Enfin, la synthèse de l'acide peroxyformique dans un réacteur discontinu et semi-continu est considérée pour valider la méthode proposée par des simulations numériques et ensuite expérimentales. Les performances de détection de défauts se sont révélées satisfaisantes et les classificateurs ont démontré un taux de séparabilité des défauts élevés
The history of accidental events in chemical industries shows that their human, environmental and economic consequences are often serious. This thesis aims at proposing an approach of detection and diagnosis faults in chemical processes in order to prevent these accidental events. A preliminary study serves to identify the major causes of chemical industrial events based on experience feedback. In France, according to the ARIA database, 25% of the events are due to thermal runaway because of human errors. It is therefore appropriate to develop a method for early fault detection and diagnosis due to thermal runaway. For that purpose, we develop an approach that uses dynamical thresholds for the detection and collection of measurements for diagnosis. The localization of faults is based on a classification of the statistical characteristics of the temperature according to several defectives modes. A multiset of linear classifiers and binary decision diagrams indexed with respect to the time are used for that purpose. Finally, the synthesis of peroxyformic acid in a batch and semi batch reactor is considered to validate the proposed method by numerical simulations and then experiments. Faults detection performance has been proved satisfactory and the classifiers have proved a high isolability rate of faults
APA, Harvard, Vancouver, ISO, and other styles
40

Berg, Florian. "Extra-Financial Risk Factors and the Cost of Debt." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED030/document.

Full text
Abstract:
Cette thèse a pour ambition d’analyser si la performance environnementale, sociale et de gouvernance (ESG) est intégrée par les marchés de la dette d'entreprise et souveraine. Le premier chapitre se concentre sur les informations ESG publiés à contenu négatif et leur impact négatif sur le coût de la dette. Plus exactement, dans les secteurs industriels et utilitaires les événements négatifs sociaux et de gouvernance font augmenter le coût de la dette. Également, un bon niveau général de performance ESG agit comme un mécanisme d'assurance contre ces événements négatifs. Dans un deuxième chapitre seront présentés les résultats d’une simulation de portefeuille intégrant la performance ESG d'entreprise. Un gérant de portefeuille peut améliorer le niveau agrégé de la performance ESG du portefeuille de 1,5 écart-type sans faire baisser la performance financière. Ainsi, le gérant peut combiner cette intégration avec des stratégies d'allocation d'actif financiers ou des stratégies de rendement absolu. Dans un troisième chapitre les résultats sur la réduction du coût de la dette dû à une bonne performance environnementale et sociale de souverains émergents seront analysés. Enfin dans le quatrième chapitre je décris comment la performance de gouvernance des souverains influence la différence entre le yield émis en devise étrangère et celui émis en devise locale. Dans les pays développés cette différence augmente avec le risque politique, i.e. le yield étranger augmente plus rapidement que le yield domestique. Dans les pays émergents, c'est l’effet inverse qui est observé. Cette différence entre les deux yields varie plus fortement avec un taux croissant de la dette domestique détenue par des investisseurs étrangers
This thesis analyzes if and to what extent debt markets value the environmental, social and governance (ESG) performance of firms and sovereigns. The first chapter shows that negative ESG news has a negative impact on the cost of debt of firms. The news relates to environmental and social events within the industrial/utilities sector. In this sector, a sound corporate social performance acts as an insurance against the adverse impact of negative environmental events on bond prices. The second chapter reveals that ESG scores integrated into portfolios do not change the financial performance ex post. A portfolio manager can increase the average ESG rating of her portfolio by 1.5 standard deviations without incurring cost. This leaves substantial room and opportunity for ESG ratings to be combined with asset allocation or absolute return strategies. The third chapter shows how ESG performance is linked to a lower cost of debt of emerging sovereigns. Research indicates that an emerging country’s average cost of capital decreases with its positive environmental and social performance. The fourth chapter discusses how governance performance may influence the spread of debt denominated in local and foreign currency. In developed countries, the spread between a foreign currency yield and a hedged local currency yield increases with our political risk indicator, i.e. the foreign yield increases faster than the domestic one. For emerging countries, the reverse trend is true. Interestingly, the foreign currency and local currency yield spreads move significantly stronger in absolute terms with increasing foreign investment participation in both emerging countries and developed countries’ debt markets
APA, Harvard, Vancouver, ISO, and other styles
41

Chen, Rui. "Dynamic optimal control for distress large financial networks and Mean field systems with jumps Optimal connectivity for a large financial network Mean Field BSDEs and Global Dynamic Risk Measures." Thesis, Paris Sciences et Lettres (ComUE), 2019. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2019PSLED042.

Full text
Abstract:
Cette thèse propose des modèles et des méthodes pour étudier le contrôle du risque dans de larges systèmes financiers. Nous proposons dans une première partie une approche structurelle : nous considérons un système financier représenté comme un réseau d’institutions connectées entre elles par des interactions stratégiques sources de financement mais également par des interactions qui les exposent à un risque de contagion de défaut. La nouveauté de notre approche réside dans le fait que ces deux types d’interaction interfèrent. Nous proposons des nouvelles notions d’équilibre pour ces systèmes et étudions la connectivité optimale du réseau et le risque systémique associé. Dans une deuxième partie, nous introduisons des mesures de risque systémique définies par des équations différentielles stochastiques rétrogrades dirigées par des opérateurs à champ moyen et étudions des problèmes d’arrêt optimal associés. La dernière partie aborde des questions de liquidation optimale de portefeuilles
This thesis presents models and methodologies to understand the control of systemic risk in large systems. We propose two approaches. The first one is structural : a financial system is represented as a network of institutions. They have strategic interactions as well as direct interactions through linkages in a contagion process. The novelty of our approach is that these two types of interactions are intertwined themselves and we propose new notions of equilibria for such games and analyze the systemic risk emerging in equilibrium. The second approach is a reduced form.We model the dynamics of regulatory capital using a mean field operator : required capital depends on the standalone risk but also on the evolution of the capital of all other banks in the system. In this model, required capital is a dynamic risk measure and is represented as a the solution of a mean-field BDSE with jumps. We show a novel dual representation theorem. In the context of meanfield BSDEs the representation gives yield to a stochastic discount factor and a worst-case probability measure that encompasses the overall interactions in the system. We also solve the optimal stopping problem of dynamic risk measure by connecting it to the solution of reflected meanfield BSDE with jumps. Finally, We provide a comprehensive model for the order book dynamics and optimal Market making strategy appeared in liquidity risk problems
APA, Harvard, Vancouver, ISO, and other styles
42

Mercier-Wiart, Françoise. "Le management de l'école à l'épreuve de réalités éducatives et sociales. Entre confiance et défiance. Etude de cas." Phd thesis, Université Charles de Gaulle - Lille III, 2010. http://tel.archives-ouvertes.fr/tel-00838703.

Full text
Abstract:
L'analyse du contenu des réponses de directeurs rencontrant dans leur école des dysfonctionnements consécutifs à des défauts d'information (rumeur, désinformation, double-langage, propagande, mensonge...) mettent d'abord en exergue les rôles tenus par les différents personnels et partenaires, selon leur profil psychosociologique, leurs intérêts et leur statut. Le manque de soutien hiérarchique, une ''fausse'' démocratie et l'utilisation de défauts d'information influent sur le climat de l'école en ôtant la confiance au et du directeur d'école. Les réponses au questionnaire confortent notre questionnement à propos du rôle du management organisationnel dans la gestion du dysfonctionnement - voire du conflit - corrélée à la notion de pouvoir individuel et groupal. La décentralisation (appliquée le 1er janvier 1986) et la déconcentration ont créé un paradoxe. Homme de terrain, le directeur d'école n'a pas de statut et une autonomie très réduite ou inexistante dans la gestion des dysfonctionnements. L'interrogation des individus, des structures internes et externes à l'Education nationale et d'autres institutions susceptibles de pouvoir aider le directeur à supprimer les dysfonctionnements et conflits montrent leur inefficacité. En revanche, des décisions destructrices et injustes pour le directeur (mutation forcée, retrait de fonctions) sont parfois prises par les hautes autorités hiérarchiques, à la demande de l'IEN, sans qu'elles aient connaissance des causes réelles des dysfonctionnements sur le terrain. Les notions de compétences, de santé au travail, d'intérêts privés et d'intérêt général, de démocratie, de politique, de droit...sont alors interrogées. Pour essayer de pallier les contradictions du système liées à la pluralité des ancrages dans la société, nous poursuivons notre réflexion sur les besoins en formation des futurs directeurs d'école mais aussi des supérieurs hiérarchiques et des partenaires, pour une école plus humaine.
APA, Harvard, Vancouver, ISO, and other styles
43

Bedini, Matteo. "Information on a default time : Brownian bridges on a stochastic intervals and enlargement of filtrations." Thesis, Brest, 2012. http://www.theses.fr/2012BRES0032.

Full text
Abstract:
Dans ce travail de thèse le processus d'information concernant un instant de défaut τ dans un modèle de risque de crédit est décrit par un pont brownien sur l'intervalle stochastique [0, τ]. Un tel processus de pont est caractérisé comme plus adapté dans la modélisation que le modèle classique considérant l'indicatrice I[0,τ]. Après l'étude des formules de Bayes associées, cette approche de modélisation de l'information concernant le temps de défaut est reliée avec d'autres informations sur le marché financier. Ceci est fait à l'aide de la théorie du grossissement de filtration, où la filtration générée par le processus d'information est élargie par la filtration de référence décrivant d'autres informations n'étant pas directement liées avec le défaut. Une attention particulière est consacrée à la classification du temps de défaut par rapport à la filtration minimale mais également à la filtration élargie. Des conditions suffisantes, sous lesquelles τ est totalement inaccessible, sont discutées, mais également un exemple est donné dans lequel τ évite les temps d'arrêt, est totalement inaccessible par rapport à la filtration minimale et prévisible par rapport à la filtration élargie. Enfin, des contrats financiers comme, par exemple, des obligations privée et des crédits default swaps, sont étudiés dans le contexte décrit ci-dessus
In this PhD thesis the information process concerning a default time τ in a credit risk model is described by a Brownian bridge over the random time interval [0, τ]. Such a bridge process is characterised as to be a more adapted model than the classical one considering the indicator function I[0,τ]. After the study of related Bayes formulas, this approach of modelling information concerning the default time is related with other financial information. This is done with the help of the theory of enlargement of filtration, where the filtration generated by the information process is enlarged with a reference filtration modelling other information not directly associated with the default. A particular attention is paid to the classification of the default time with respect to the minimal filtration but also with respect to the enlarged filtration. Sufficient conditions under which τ is totally inaccessible are discussed, but also an example is given of a τ avoiding the stopping times of the reference filtration, which is totally inaccessible with respect to its own filtration and predictable with respect to the enlarged filtration. Finally, common financial contracts like defaultable bonds and credit default swaps are considered in the above described settings
APA, Harvard, Vancouver, ISO, and other styles
44

Barbaro, Vanessa. "Les nouveaux risques : aspects de responsabilité civile et d'assurance : étude de droit français à la lumière des droits américain et chinois." Thesis, Lyon 3, 2015. http://www.theses.fr/2015LYO30023.

Full text
Abstract:
L’expression « nouveaux risques » est de plus en plus employée pour désigner les risques sanitaires et environnementaux liés au progrès scientifique et technique lorsque leurs conséquences dommageables bien qu’anticipées sont entourées d’un fort contexte d’incertitude scientifique. Cette incertitude est souvent invoquée par les professionnels créateurs de ces risques pour tenter d’échapper à leur responsabilité et, quand ils n’y parviennent pas, pour en faire supporter la charge par leur assureur de responsabilité, au risque d’accréditer l’idée que l’assurance déresponsabilise. C’est autour de la question de l’assurabilité des nouveaux risques, ou plutôt de leur inassurabilité, que cette thèse est construite. Il s’est agi d’étudier l’aptitude du système actuel de responsabilité du fait des produits, aidé par l’assurance de cette responsabilité, à satisfaire l’objectif social de prise en charge des victimes de nouveaux risques. Les solutions du droit français ont été éprouvées à la lumière de celles retenues par les droits américain et chinois qui sont confrontés aux mêmes problèmes. A cet égard, l’étude des nouveaux risques, en conduisant à revisiter la notion de risque assurable, fait prendre conscience des limites des systèmes actuels de prise en charge. Il apparaît opportun de revenir aux fondamentaux du droit de la responsabilité et du droit des assurances tout en recherchant des techniques complémentaires. Ce pourrait être le recours à la solidarité nationale (par la création d’un fonds d’indemnisation) ou aux marchés financiers
The expression « emerging risks » is increasingly used to describe the health and environmental risks related to scientific and technical progress whenever their damaging consequences, although anticipated, are shrouded in an opaque veil of scientific uncertainty. The professionals, who created these risks, often use this uncertainty in an attempt to avoid any liability. When unable to do so, they try to have them covered by their liability insurance, even though such behavior fuels the idea that insurance promotes irresponsible behavior. This thesis is built around the question of the insurability, or to be more precise, the non-insurability of emerging risks. The aim was to study the capacity of the current products liability system, complemented by the relevant liability insurance, to meet the social goal of taking care of the victims of those « emerging risks ». The solutions provided by the French law system have been put up for a test by comparing them with those of the American and Chinese ones, while taking into account the contextual problems met by the latter. In this regard, the study of emerging risks leads us to review the concept of insurable risk, and to admit there are limits to the current system dealing with the victims’ compensation. It seems appropriate to refer back to the fundamentals of liability law and insurance law while seeking additional solutions. Appealing to national solidarity (through the setting up of a compensation fund) or to financial markets could be the solution
APA, Harvard, Vancouver, ISO, and other styles
45

Nguyen-Dinh, Ngoc. "Experimental study of the trimming of carbon-epoxy composite : machinability and material integrity." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30059.

Full text
Abstract:
Le détourage est la première opération d’usinage après la fabrication et le démoulage des structures composites. Cette opération, qui est généralement effectuée avec un procédé conventionnel d’enlèvement de matière à l’aide d’un outil de coupe, conduit à l'apparition de plusieurs types d’endommagements qui sont suivi par la génération de particules nocives lors d’un usinage sans lubrification. Ces particules, générées lors de l'usinage à sec de composites constituent une menace sanitaire, car elles peuvent rester en suspension dans l'air et s'infiltrer dans le corps de l'opérateur, représentant un risque de danger respiratoire. Malheureusement, la compréhension des phénomènes d’émission de particules lors de l'usinage du composite est actuellement insuffisante. De plus, l’apparition de dommages localisés sur la surface usinée (due à l’interaction entre l’outil et le composite) peut réduire la tenue de la structure en service du fait de la formation de zones de concentration de contraintes. En conséquence, il est nécessaire de mieux comprendre les causes sous-jacentes de la création de dommages, ainsi que la relation entre les dommages induits par l'usinage et le comportement mécanique. Il est important de noter que d’un point de vue industriel le critère de rugosité de surface est largement utilisé pour quantifier la qualité d’usinage de la surface composite ainsi engendrée ; cependant la relation entre ces deux critères reste complexe. Ainsi, afin de répondre à cette problématique, ce travail de thèse s’est concentré sur trois objectifs principaux. Tout d'abord, des études ont été menées sur l'usinabilité d'échantillons de stratifiés composites multidirectionnels à base de résine époxy et de fibres de carbone lors du détourage à l'aide d'outils de coupe en PCD (diamant polycristallin). Plus précisément, l’influence des paramètres de coupe (vitesse d’avance et vitesse de coupe) et de la distance de coupe (usure de l’outil) ont été étudiés afin de voir leur influence sur les efforts de coupe et sur la température d’usinage induite, puis une caractérisation multi-échelle des dommages induits par l’usinage a été menée. Cette caractérisation multi-échelles des dommages induits par l’usinage a consisté à l’observation post-mortem des échantillons usinés à l’aide de différentes techniques telles que la tomographie à rayons X, la microscopie confocale et le MEB. Grâce à cette caractérisation multi-échelles, la qualité d’usinage a été quantifiée à l’aide de nouveaux paramètres tels que le volume de cratères, Cv, basé sur la quantification des défauts de cratères et la profondeur des dommages, D, mesurés à l’aide d’observations tomographiques à rayons X. Le deuxième objectif de cette thèse était centré sur l'influence des paramètres de coupe (vitesse de coupe, vitesse d'avance et profondeur de coupe radiale), la distance de coupe et la géométrie de l'outil sur le nombre de particules nocives générées lors de la coupe. Les résultats de cette étude sur les émissions de poussières pourront être très utiles à la communauté industrielle pour choisir les bonnes conditions d’usinage afin de protéger les opérateurs susceptibles d’inhaler les particules présentes dans l’air dans la zone d’usinage. Les résultats obtenus ont clairement montré que pour réduire les émissions de particules nocives, il était nécessaire d’augmenter la profondeur de coupe radiale ou la vitesse d’avance. Néanmoins cette combinaison de conditions de coupe conduit en général à une mauvaise qualité d'usinage
Trimming is the first operation of machining after the manufacturing and demolding of the composite structures. This operation which is usually conducted with conventional process of material removal (by cutting tool) induces various forms of damage which is accompanied by the generation of harmful particles in case of dry machining. In fact, particles generated during dry machining of composite pose a dangerous threat, as they can get suspended in the air and infiltrate inside body of operators giving rise to risk of respiratory hazard. Unfortunately, the understanding of particulate emission during machining of composite is presently incomplete. In addition, the appearance of damages located on the machined surface (due the interaction tool/plies) can reduce the structural performance in service due to the formation of stress concentration zones. As a result, it is necessary to understand the underlying causes for generation of damage, and also the relationship between machining induced damage and mechanical behavior. It is important to notice that, industrially, surface roughness criterion is widely used to quantify the machined quality of the newly generated composite surface. However, so far this has been ambiguous approach. Hence, to address the problems mentioned, this thesis focuses on three main objectives. Firstly, studies on the machinability of multi-directional specimens made of carbon fiber reinforced plastics laminates (CFRPs) during trimming with PCD (Polycrystalline Diamond) cutting tools. Specifically, the influence of cutting parameters (feed speed and cutting speed), cutting distance (tool wear) on the cutting forces, machining temperature induced as well as the multi-scale characterization of the machining induced damages have been investigated. For the multi-scale characterization of the induced machining postmortem observations of the machined specimens, using different techniques such as X-ray tomography, confocal microscopy and SEM, are used. Thanks to this multi-scale characterization, the machining quality was quantified using newly proposed parameters such as crater volume ‘CV’ based on the quantification of the crater defects and maximum depth of damage (D) based on the X-ray tomography. The second objective of this thesis was focused on influence of cutting parameters (cutting speed, feed speed, and radial depth of cut), cutting distance, and tool geometry on the number of harmful particles generated during trimming. The outcome of this study on the dust emission can be beneficial for the industrial community to select the safe machining condition for protecting the operators who potentially inhale the particles in the air in the machining area. The obtained results clearly highlighted that to reduce the emission of the harmful particles it is necessary to increase the radial depth of cut or the feed rate. However, this combination of cutting conditions, leads to poor machining quality. This inspired to propose a new design of cutting tool geometry in collaboration with ASAHI Company
APA, Harvard, Vancouver, ISO, and other styles
46

Al-Kharaz, Mohammed. "Analyse multivariée des alarmes de diagnostic en vue de la prédiction de la qualité des produits." Electronic Thesis or Diss., Aix-Marseille, 2021. http://theses.univ-amu.fr.lama.univ-amu.fr/211207_ALKHARAZ_559anw633vgnlp70s324svilo_TH.pdf.

Full text
Abstract:
Cette thèse s’intéresse à la prédiction de la qualité de produits et à l’amélioration de la performance des alarmes de diagnostics au sein d’une usine de semi-conducteurs. Pour cela, nous exploitons l’historique des alarmes collecté durant la production. Premièrement, nous proposons une approche de modélisation et d’estimation du risque de dégradation du produit final associé à chaque alarme déclenchée en fonction du comportement d’activation de celle-ci sur l’ensemble des produits durant la production. Deuxièmement, en utilisant les valeurs de risque estimées pour toute alarme, nous proposons une approche de prédiction de la qualité finale d’un lot de produits. Grâce à l’utilisation des techniques d’apprentissage automatique, cette approche modélise le lien entre les événements d’alarmes des processus et la qualité finale du lot. Dans la même veine, nous proposons une autre approche basée sur le traitement du texte d’évènement d’alarmes dans le but de prédire la qualité finale du produit. Cette approche présente une amélioration en termes de performances et en termes d’exploitation de plus d’information disponible dans le texte d’alarme. Enfin, nous proposons un cadre d’analyse des activations d’alarmes en présentant un ensemble d’outils d’évaluation de performances et plusieurs techniques de visualisation interactive plus adaptées pour la surveillance et l’évaluation des processus de fabrication de semi-conducteurs. Pour chacune des approches susmentionnées, l’efficacité est démontrée à l’aide d’un ensemble de données réelles obtenues à partir d’une usine de fabrication de semi-conducteurs
This thesis addresses the prediction of product quality and improving the performance of diagnostic alarms in a semiconductor facility. For this purpose, we exploit the alarm history collected during production. First, we propose an approach to model and estimate the degradation risk of the final product associated with each alarm triggered according to its activation behavior on all products during production. Second, using the estimated risk values for any alarm, we propose an approach to predict the final quality of the product's lot. This approach models the link between process alarm events and the final quality of product lot through machine learning techniques. We also propose a new approach based on alarm event text processing to predict the final product quality. This approach improves performance and exploits more information available in the alarm text. Finally, we propose a framework for analyzing alarm activations through performance evaluation tools and several interactive visualization techniques that are more suitable for semiconductor manufacturing. These allow us to closely monitor alarms, evaluate performance, and improve the quality of products and event data collected in history. The effectiveness of each of the above approaches is demonstrated using a real data set obtained from a semiconductor manufacturing facility
APA, Harvard, Vancouver, ISO, and other styles
47

Brailovsky, Javier. "Modèles de risque de crédit à la consommation : étude du rôle de l'économie dans la probabilité de défaut." Mémoire, 2008. http://www.archipel.uqam.ca/1779/1/M10704.pdf.

Full text
Abstract:
Cette recherche vise à étudier les modèles de risque de crédit à la consommation et à évaluer les effets des conditions économiques sur la probabilité de défaut des emprunteurs. Dans le cadre des travaux, un modèle empirique élémentaire sera développé et estimé. Il sera tenté de vérifier si l'incorporation de variables macroéconomiques permet d'augmenter la performance du modèle de base. Une réglementation internationale a vu le jour dans les années quatre-vingt suite à de nombreuses crises bancaires. Une gestion saine et responsable du crédit doit considérer, entre autres, une évaluation adéquate du risque de crédit, et permettre de calculer le capital économique réglementaire qui est requis en fonction du niveau de risque de la banque. Cette pratique a comme objectif d'assurer une stabilité financière et d'éviter des faillites de banques lors de crises de crédit. L'utilisation des statistiques pour estimer ce type de risque remonte aux années cinquante. Initialement, les modèles étaient utilisés lors des décisions d'octroyer un prêt à un demandeur. Aujourd'hui, ils sont également utilisés pour estimer la probabilité de défaut des portefeuilles de crédit. L'analyse discriminante est la première technique d'estimation qui a été utilisée. Plusieurs autres méthodes sont couramment utilisées depuis. Ces méthodes sont soit paramétriques (régression linéaire, régression logistique, modèle de panel, etc.) ou bien, non paramétriques (arbres de décision, réseaux de neurones, etc.). Les variables prédictives du risque d'un emprunteur sont bien connues et documentées. Traditionnellement, les modèles utilisaient des caractéristiques individuelles qui évaluent le risque de l'individu (âge, sexe, occupation, revenus, etc.) et le risque transactionnel (historique de crédit, historique bancaire, etc.). De nos jours, les tendances de la recherche dans le domaine consistent à ajouter des dimensions économiques qui permettent d'évaluer le risque inhérent au marché et ainsi mieux anticiper la probabilité de défaut. Une régression logistique sera employée pour estimer le modèle. Des variables microéconomiques d'emprunteurs seront utilisées pour estimer la composante individuelle du risque, alors que des variables macroéconomiques régionales et nationales seront utilisées pour représenter le risque inhérent aux conditions du marché. Les résultats obtenus ont démontré que l'ajout de variables macroéconomiques au modèle permettait de mieux représenter l'événement de défaut. La capacité du modèle à différencier les types d'emprunteurs ainsi que son pouvoir à prédire l'événement de défaut ont aussi été améliorés quoique faiblement. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Crédit à la consommation, Risque de crédit, Régression logistique.
APA, Harvard, Vancouver, ISO, and other styles
48

Lamantia, Valérie. "Le lien entre l’apoB plasmatique et le risque de diabète de type 2 chez les individus obèses : un défaut de clairance des gras diététiques." Thèse, 2015. http://hdl.handle.net/1866/13015.

Full text
Abstract:
OBJECTIF: L’apoB plasmatique prédit le diabète de type 2 chez l’humain. Une clairance ralentie des triglycérides (TG) favorise la lipotoxicité et la résistance à l’insuline (RI). Nous avons démontré ex vivo que les LDL, forme majeure d’apoB-lipoprotéines, altèrent le stockage des gras dans le tissu adipeux blanc (TAB) humain. Nous émettons l’hypothèse que le lien reliant l’apoB plasmatique à la RI et l’hyperinsulinémie est médié par un retard de clairance des gras diététiques. MÉTHODE/RÉSULTATS: Nous avons examiné la sécrétion d’insuline (SI), puis la RI lors d’un test de tolérance au glucose intraveineux suivi d’un clamp hyperinsulinémique-euglycémique chez des sujets obèses normoglycémiques (N=29, 45%hommes, indice de masse corporelle (IMC)≥27kg/m2, 45-74ans, post-ménopausés). La clairance des TG diététiques a été mesurée suivant l’ingestion d’un repas gras marqué au 13C. La fonction d’une biopsie de TAB (à jeun) a été mesurée comme la capacité à stocker un substrat de 3H-TG. L’apoB était de 1,03±0,05g/L et corrélait avec la RI, la 2ième phase de SI, un délai de clairance des TG diététiques et une réduction de la fonction du TAB. Un retard de clairance des TG diététiques était associé à la RI et la 2ième phase de SI. Une correction pour la clairance des TG diététiques ou la fonction du TAB a éliminé l’association entre l’apoB et la RI et la 2ième phase de SI. CONCLUSION: L’association entre l’apoB plasmatique et la RI et la SI chez les sujets obèses est médiée par une clairance ralentie des gras diététiques et une dysfonction du TAB.
OBJECTIVE: Plasma apoB predicts type 2 diabetes in humans. Delayed TG clearance promotes lipotoxicity and insulin resistance (IR). We demonstrated ex vivo that LDL, the major form of apoB-lipoproteins, impairs human white adipose tissue (WAT) fat storage. We hypothesized that the link between plasma apoB, IR and hyperinsulinemia is mediated through delayed dietary fat clearance. METHODS/RESULTS: We examined insulin secretion (IS) and IR during a intravenous-glucose tolerance test followed by a hyperinsulinemic-euglycemic clamp in normoglycemic obese (N=29, 45%men, body mass index (BMI)≥27kg/m2, 45-74yrs, postmenopausal). Dietary TG clearance was measured after the ingestion of a 13C-triolein-labeled high-fat meal. The function of a fasting WAT biopsy was measured as the ability to store a 3H-TG substrate. Plasma apoB averaged 1.03±0.05g/L, and correlated with IR, 2nd phase IS, delayed dietary TG clearance and reduced WAT function. Moreover, delayed dietary TG clearance was associated with higher IR and 2nd phase IS. Correcting for dietary TG clearance or WAT function eliminated the association of plasma apoB with IR and 2nd phase IS. CONCLUSION: The association of plasma apoB with IR and IS in obese subjects is mediated by delayed dietary fat clearance and WAT dysfunction.
APA, Harvard, Vancouver, ISO, and other styles
49

Fournier-Gendron, Hugo. "Sécurité informationnelle des systèmes cyberphysiques et risques à la santé et sécurité : quelle responsabilité pour le fabricant ?" Thèse, 2017. http://hdl.handle.net/1866/21353.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography