To see the other types of publications on this topic, follow the link: Mesures cohérentes de risque.

Dissertations / Theses on the topic 'Mesures cohérentes de risque'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Mesures cohérentes de risque.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mailhot, Mélina. "Mesures de risque et dépendance." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29656/29656.pdf.

Full text
Abstract:
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités.
In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
APA, Harvard, Vancouver, ISO, and other styles
2

Di, Bernardino Éléna. "Modélisation de la dépendance et mesures de risque multidimensionnelles." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00838598.

Full text
Abstract:
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant " Estimating Bivariate Tail : a copula based approach ", soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: " A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation", soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant " Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory", accepté pour publication dans la revue ESAIM:Probability and Statistics.
APA, Harvard, Vancouver, ISO, and other styles
3

Said, Khalil. "Mesures de risque multivariées et applications en science actuarielle." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1245.

Full text
Abstract:
L'entrée en application depuis le 1er Janvier 2016 de la réforme réglementaire européenne du secteur des assurances Solvabilité 2 est un événement historique qui va changer radicalement les pratiques en matière de gestion des risques. Elle repose sur une prise en compte importante du profil et de la vision du risque, via la possibilité d'utiliser des modèles internes pour calculer les capitaux de solvabilité et l'approche ORSA (Own Risk and Solvency Assessment) pour la gestion interne du risque. La modélisation mathématique est ainsi un outil indispensable pour réussir un exercice réglementaire. La théorie du risque doit être en mesure d'accompagner ce développement en proposant des réponses à des problématiques pratiques, liées notamment à la modélisation des dépendances et aux choix des mesures de risques. Dans ce contexte, cette thèse présente une contribution à l'amélioration de la gestion des risques actuariels. En quatre chapitres nous présentons des mesures multivariées de risque et leurs applications à l'allocation du capital de solvabilité. La première partie de cette thèse est consacrée à l'introduction et l'étude d'une nouvelle famille de mesures multivariées élicitables de risque qu'on appellera des expectiles multivariés. Son premier chapitre présente ces mesures et explique les différentes approches utilisées pour les construire. Les expectiles multivariés vérifient un ensemble de propriétés de cohérence que nous abordons aussi dans ce chapitre avant de proposer un outil d'approximation stochastique de ces mesures de risque. Les performances de cette méthode étant insuffisantes au voisinage des niveaux asymptotiques des seuils des expectiles, l'analyse théorique du comportement asymptotique est nécessaire, et fera le sujet du deuxième chapitre de cette partie. L'analyse asymptotique est effectuée dans un environnement à variations régulières multivariées, elle permet d'obtenir des résultats dans le cas des queues marginales équivalentes. Nous présentons aussi dans le deuxième chapitre le comportement asymptotique des expectiles multivariés sous les hypothèses précédentes en présence d'une dépendance parfaite, ou d'une indépendance asymptotique, et nous proposons à l'aide des statistiques des valeurs extrêmes des estimateurs de l'expectile asymptotique dans ces cas. La deuxième partie de la thèse est focalisée sur la problématique de l'allocation du capital de solvabilité en assurance. Elle est composée de deux chapitres sous forme d'articles publiés. Le premier présente une axiomatisation de la cohérence d'une méthode d'allocation du capital dans le cadre le plus général possible, puis étudie les propriétés de cohérence d'une approche d'allocation basée sur la minimisation d'indicateurs multivariés de risque. Le deuxième article est une analyse probabiliste du comportement de cette dernière approche d'allocation en fonction de la nature des distributions marginales des risques et de la structure de la dépendance. Le comportement asymptotique de l'allocation est aussi étudié et l'impact de la dépendance est illustré par différents modèles marginaux et différentes copules. La présence de la dépendance entre les différents risques supportés par les compagnies d'assurance fait de l'approche multivariée une réponse plus appropriée aux différentes problématiques de la gestion des risques. Cette thèse est fondée sur une vision multidimensionnelle du risque et propose des mesures de nature multivariée qui peuvent être appliquées pour différentes problématiques actuarielles de cette nature
The entry into force since January 1st, 2016 of Solvency 2, the European regulatory reform of insurance industry, is a historic event that will radically change the practices in risk management. It is based on taking into account the own risk profile and the internal view of risk through the ability to use internal models for calculating solvency capital requirement and ORSA (Own Risk and Solvency Assessment) approach for internal risk management. It makes the mathematical modeling an essential tool for a successful regulatory exercise. The risk theory must allow to support this development by providing answers to practical problems, especially those related to the dependence modeling and the choice of risk measures. In the same context, this thesis presents a contribution to improving the management of insurance risks. In four chapters we present multivariate risk measures and their application to the allocation of solvency capital. The first part of this thesis is devoted to the introduction and study of a new family of multivariate elicitable risk measures that we will call multivariate expectiles. The first chapter presents these measures and explains the different construction approaches. The multivariate expectiles verify a set of coherence properties that we also discuss in this chapter before proposing a stochastic approximation tool of these risk measures. The performance of this method is insufficient in the asymptotic levels of the expectiles thresholds. That makes the theoretical analysis of the asymptotic behavior necessary. The asymptotic behavior of multivariate expectiles is then the subject of the second chapter of this part. It is studied in a multivariate regular variations framework, and some results are given in the case of equivalent marginal tails. We also study in the second chapter of the first part the asymptotic behavior of multivariate expectiles under previous assumptions in the presence of a perfect dependence, or in the case of asymptotic independence. Finally, we propose using extreme values statistics some estimators of the asymptotic expectile in these cases. The second part of the thesis is focused on the issue of solvency capital allocation in insurance. It is divided into two chapters; each chapter consists of a published paper. The first one presents an axiomatic characterization of the coherence of a capital allocation method in a general framework. Then it studies the coherence properties of an allocation approach based on the minimization of some multivariate risk indicators. The second paper is a probabilistic analysis of the behavior of this capital allocation method based on the nature of the marginal distributions of risks and the dependence structure. The asymptotic behavior of the optimal allocation is also studied and the impact of dependence is illustrated using some selected models and copulas. Faced to the significant presence of dependence between the various risks taken by insurance companies, a multivariate approach seems more appropriate to build responses to the various issues of risk management. This thesis is based on a multidimensional vision of risk and proposes some multivariate risk measures that can be applied to several actuarial issues of a multivariate nature
APA, Harvard, Vancouver, ISO, and other styles
4

El, Amraoui Sonia. "Trois essais sur les mesures et déterminants du risque systémique." Thesis, Lille, 2018. http://www.theses.fr/2018LIL2D017.

Full text
Abstract:
Le risque systémique est un risque qui peut mettre en danger la survie du système financier. En effet, le risque systémique désigne la propagation d’un risque de défaillance bancaire unique aux autres banques. Quels sont les mesures et les déterminants du risque systémique ? Ainsi pourrait-être résumée la question transversale qui anime les recherches présentées dans cette thèse. Un premier chapitre dresse un état des lieux des différentes mesures du risque systémique, en identifie les points communs et les différences et précise l’intérêt de chaque mesure. La question abordée est celle de la corrélation entre les résultats des stress tests et les différentes mesures du risque systémique. Un second chapitre étudie la notion d’« Asset Commonality » comme une nouvelle mesure de risque systémique. Le troisième chapitre examine le lien entre les différentes mesures du risque systémique et la responsabilité sociétale des entreprises. Les résultats empiriques révèlent que -1- les résultats des stress tests devraient être complétés par une évaluation des mesures du risque systémique, -2- l’« Asset Commonality » pourrait être considéré comme un outil complémentaire pour évaluer le risque systémique, -3- la responsabilité sociale des institutions financières est importante afin de réduire le risque systémique
Systemic risk is a risk that can compromise the survival of the financial system. Systemic risk refers to the spread of a single bank failure to other banks. What are the measures and determinants of systemic risk? This thesis proposes an investigation of this transversal question through three chapters. The first chapter gives an overview of the various measures of systemic risk, identifies commonalities and differences and specifies the interest of each measure. The issue is the correlation between the stress test results and the various measures of systemic risk. The second chapter studies the concept of Asset Commonality as a new measure of systemic risk. The third chapter examines the relationship between different measures of systemic risk and corporate social responsibility. The empirical results show that -1- the stress test results should be supplemented by an evaluation of the systemic risk measures, -2- Asset Commonality could be considered as a complementary tool to assess the systemic risk, -3- the corporate social responsibility of financial institutions is important in order to reduce systemic risk
APA, Harvard, Vancouver, ISO, and other styles
5

Usseglio-Carleve, Antoine. "Estimation de mesures de risque pour des distributions elliptiques conditionnées." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1094/document.

Full text
Abstract:
Cette thèse s'intéresse à l'estimation de certaines mesures de risque d'une variable aléatoire réelle Y en présence d'une covariable X. Pour cela, on va considérer que le vecteur (X,Y) suit une loi elliptique. Dans un premier temps, on va s'intéresser aux quantiles de Y sachant X=x. On va alors tester d'abord un modèle de régression quantile assez répandu dans la littérature, pour lequel on obtient des résultats théoriques que l'on discutera. Face aux limites d'un tel modèle, en particulier pour des niveaux de quantile dits extrêmes, on proposera une nouvelle approche plus adaptée. Des résultats asymptotiques sont donnés, appuyés par une étude numérique puis par un exemple sur des données réelles. Dans un second chapitre, on s'intéressera à une autre mesure de risque appelée expectile. La structure du chapitre est sensiblement la même que celle du précédent, à savoir le test d'un modèle de régression inadapté aux expectiles extrêmes, pour lesquels on propose une approche méthodologique puis statistique. De plus, en mettant en évidence le lien entre les quantiles et expectiles extrêmes, on s'aperçoit que d'autres mesures de risque extrêmes sont étroitement liées aux quantiles extrêmes. On se concentrera sur deux familles appelées Lp-quantiles et mesures d'Haezendonck-Goovaerts, pour lesquelles on propose des estimateurs extrêmes. Une étude numérique est également fournie. Enfin, le dernier chapitre propose quelques pistes pour traiter le cas où la taille de la covariable X est grande. En constatant que nos estimateurs définis précédemment étaient moins performants dans ce cas, on s'inspire alors de quelques méthodes d'estimation en grande dimension pour proposer d'autres estimateurs. Une étude numérique permet d'avoir un aperçu de leurs performances
This PhD thesis focuses on the estimation of some risk measures for a real random variable Y with a covariate vector X. For that purpose, we will consider that the random vector (X,Y) is elliptically distributed. In a first time, we will deal with the quantiles of Y given X=x. We thus firstly investigate a quantile regression model, widespread in the litterature, for which we get theoretical results that we discuss. Indeed, such a model has some limitations, especially when the quantile level is said extreme. Therefore, we propose another more adapted approach. Asymptotic results are given, illustrated by a simulation study and a real data example.In a second chapter, we focus on another risk measure called expectile. The structure of the chapter is essentially the same as that of the previous one. Indeed, we first use a regression model that is not adapted to extreme expectiles, for which a methodological and statistical approach is proposed. Furthermore, highlighting the link between extreme quantiles and expectiles, we realize that other extreme risk measures are closely related to extreme quantiles. We will focus on two families called Lp-quantiles and Haezendonck-Goovaerts risk measures, for which we propose extreme estimators. A simulation study is also provided. Finally, the last chapter is devoted to the case where the size of the covariate vector X is tall. By noticing that our previous estimators perform poorly in this case, we rely on some high dimensional estimation methods to propose other estimators. A simulation study gives a visual overview of their performances
APA, Harvard, Vancouver, ISO, and other styles
6

PRADIER, PIERRE CHARLES. "Concepts et mesures du risque en theorie economique essai historique et critique." Cachan, Ecole normale supérieure, 1998. http://www.theses.fr/1998DENS0031.

Full text
Abstract:
La these comporte 6 chapitres. Le premier ordonne les significations du mot risque grace a un travail sur l'etymologie et l'histoire du champ semantique. Le deuxieme propose de faire le point sur les theories du risque avant le dix-huitieme siecle, d'abord dans l'arithmetique mercantile, puis chez condorcet, laplace, tetens et dalembert. Ces auteurs doivent etre consideres comme les fondateurs dela theorie de la decision risquee. Le chapitre 3 presente le concept en economie politique, de cantillon a frank knight. Dans ce cadre analytique, le risque apparait essentiellement comme un argument des problemes de repartition. Les trois derniers chapitres presentent des developpements plus recents, justifies par la conception de l'economie comme science des choix rationnels. Les chapitres 4 et5 dessinent l'histoire des deux paradigmes rivaux autour du risque : la methode esperance-variance (dite de markowitz) et l'utilite esperee. Le chapitre 4 montre la dette de markowitz a ces predecesseurs et tente d'evaluer son apport ; tandis que le chapitre 5 montre que la theorie de l'utilite esperee, si elle conduit ses partisans a employer la notion de risque, n'offre pas modelisation satisfaisante de cette notion avant la fin des annees soixante. Enfin le chapitre 6 propose de tester les mesures du risque, du point de vue de leur attrait normatif. Le caractere normatif des mesures n'est d'ordinaire aborde qu'in abstracto, comme dans le contre-exemple de borch. Ici, on teste l'efficacite statistique des mesures et la pertinence des contre-exemples theoriques a la borch. Ces tests reposent sur des simulations informatisees : les programmes et des resultats exploratoires figurent en annexe.
APA, Harvard, Vancouver, ISO, and other styles
7

Caillault, Cyril R. "Le risque de marché : mesures et backtesting : approche par les copules dynamiques." Cachan, Ecole normale supérieure, 2005. http://www.theses.fr/2005DENS0009.

Full text
Abstract:
Cette thèse traite de l'utilisation des fonctions copules pour mesurer le risque du marché. Chapitre 1, nous rappelons les résultats principaux relatifs aux copules: définitions,théorème de Sklar,constructions, mesures de concordance, dépendance de queue, algorithmes de simulations. Chapitre 2, nous proposons une méthode non paramétrique d'estimation fondée sur la notion de dépendance de queue. Nous la comparons à la méthode de l'omnibus". Nous montrons que le choix de la meilleure copule peut être différent selon la méthode. Les résultats nous permettent nous permettent de montrer l'existence de co mouvements entre les Tigres d'Asie. Chapitre 3, nous développons des méthodes dynamiques pour calculer la Valeur à Risque et l'Expected Shortfall. Le choix de la mesure de risque est discuté relativement à l'amendement de l'accord de Bâle. Chapitre 4, nous introduisons la notion de copule dynamique pour le calcul de la Valeur à Risque. Trois tests statistiques sont proposés afin de valider cette méthode de calcul
This thesis deals with the copulas in order to measure the market risk. Chapter 1, we recall the Most important results concerning copulas : definition, Sklar's theorem, constructions, tail dependence, concordance measures, and simulation's algorithms. In Chapter 2, we develop a non parametric estimation method based on tail dependence concept that we compare with the “Omnibus" estimator. We show that the choice of the best copula could be different according to the method. Then, our results show existence of co movements between Asian markets. Chapter 3, we develop dynamical methods to compute the Value at Risk and Expected Shortfall measures. The choice of the measure is discussed according to the Basle amendment. Chapter 4, we introduce the dynamical copula to calculate Value at Risk. Three tests are proposed in order to validate this computations method
APA, Harvard, Vancouver, ISO, and other styles
8

Deguest, Romain. "Incertitude de modèle en finance : mesures de risque et calibration de modèle." Palaiseau, Ecole polytechnique, 2009. http://www.theses.fr/2009EPXX0062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Merli, Maxime. "Les mesures alternatives du risque de défaut des obligations : notation, écart de rentabilité et probabilité de défaut." Université Louis Pasteur (Strasbourg) (1971-2008), 1998. http://www.theses.fr/1998STR1EC05.

Full text
Abstract:
Le risque de défaut est le risque le plus important auquel est confronté un investisseur obligataire puisque ce dernier traduit la possibilité de non paiement d'un coupon ou du coupon et du principal de la part de l'émetteur. Dans la pratique deux + outils ; sont généralement usités afin de le mesurer. La notation, outil qualitatif, est attribuée à l'émetteur par des agences spécialisées dans cette activité. L'écart de rentabilité (ou spread de rendement), outil quantitatif, résulte de la cotation de l'emprunt sur le marché. Ce travail de recherche s'attache précisément à la construction et à la validation par les données de marches de modélisations intégrant cette potentielle défaillance de l'émetteur. Plusieurs modélisations originales sont proposées dans un cadre actuariel ou d'évolution dynamique des prix zéro-coupon. Dans une approche actuarielle, nous proposons une modélisation originale a deux paramètres permettant la construction de la structure par termes des probabilités de défaut à partir des prix de marche des dettes court et long terme de chaque émetteur. Dans ce cadre théorique, nous mettons également en évidence un lien positif entre l'écart de rentabilité (spread de taux) et le niveau général des taux d'intérêt. Ce résultat va à l'encontre de nombreux travaux théoriques (par exemple Leland et Toft (1996)). Nous présentons également une extension du modèle d'évolution dynamique des prix zéro-coupon de Jarrow et Turnbull (1995). Le modèle propose dans ce travail permet, en particulier, d'envisager des formes de défaillance diverses dans un cadre théorique unifié. D'un point de vue empirique, nous proposons des mesures alternatives originales au spread actuariel (mesure communément admise), fondées sur la déformation de la structure par termes des taux zéro-coupon. Enfin, nous testons ces mesures sur divers échantillons d'obligations françaises. Nous mettons en particulier en évidence un faible lien entre la notation de l'émetteur et le niveau de rémunération exige par les investisseurs. En d'autres termes, quatre classes de notations semblent suffisantes a la description du marché français. L'impact du changement de note sur les prix de marche des obligations est également étudié et les différents tests mettent en évidence une anticipation de ce changement par les investisseurs
The default risk is the most important risk for coupon bearing bonds investors. Indeed, it represents the potential non-payment of coupon or coupon and principal by the issuers. Two + tools ; are generally used by professionals in order to measure this risk. The rating is a qualitative measure allocated by agencies such as standard and poor's or moody's. The yield spread is a quantitative measure deduced from asset prices on the financial market. This work is dedicated to the construction of modelisations integrating this potential bankruptcy of the issuer and their validations using market data. Several modelisations are proposed wich use the actuarial default spread or the dynamic evolution of zero-coupon bond prices. In an actuarial approach, we propose an original two parameter model that can be easily used to construct the default probabilities term structure using the prices of long and short term debts of the issuer. With this modelisation, we demonstrate that the actuarial default spread is positively linked to the level of interest rate. This result is in opposition to the ones obtained by other theoretical approaches (for example Leland and Toft (1996)). In another part of this work, we extend the approach for pricing bonds subject to default risk proposed by Jarrow et Turnbull (1995). Our original modeling enables the description of different types of bankruptcy in a unified modelisation. From an empirical point of view, we propose alternative original measure based on the deformation of interest rate term structure which can replace the actuarial yield default spread. Then, we test these measures using various samples of French bonds. We show that the typology induced by ratings is not reproduced in the default spreads. Only four classes of risk are necessary in order to describe the risky bond market. Finally, we study the effect of bond rating change on asset prices and we show that this change is generally anticipated by the investors
APA, Harvard, Vancouver, ISO, and other styles
10

Marri, Fouad. "Évaluation des mesures de ruine dans le cadre de modèles avancés de risque." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26001/26001.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Torossian, Léonard. "Méthodes d'apprentissage statistique pour la régression et l'optimisation globale de mesures de risque." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30192.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte général de l'estimation et de l'optimisation de fonctions de type boîte noire dont la sortie est une variable aléatoire. Motivé par la nécessité de quantifier l'occurrence d'événements extrêmes dans des disciplines comme la médecine, l'agriculture ou la finance, dans cette thèse des indicateurs sur certaines propriétés de la distribution en sortie, comme la variance ou la taille des queues de dis- tribution, sont étudiés. De nombreux indicateurs, aussi connus sous le nom de mesure de risque, ont été proposés dans la littérature ces dernières années. Dans cette thèse nous concentrons notre intérêt sur les quantiles, CVaR et expectiles. Dans un premier temps, nous comparons les approches K-plus proches voisins, forêts aléatoires, régression dans les RKHS, régression par réseaux de neurones et régression par processus gaussiens pour l'estimation d'un quantile conditionnel d'une fonction boite noire. Puis, nous proposons l'utilisation d'un modèle de régression basé sur le couplage de deux processus gaussiens estimés par une méthode variationnelle. Nous montrons que ce modèle, ini- tialement développé pour la régression quantile, est facilement adaptable à la régression d'autres mesures de risque. Nous l'illustrons avec l'expectile. Dans un second temps, nous analysons le problème relatif à l'optimisation d'une mesure de risque. Nous proposons une approche générique inspirée de la littérature X-armed bandits, permettantde fournir un algorithme d'optimisation, ainsi qu'une borne supérieure sur le regret, adaptable au choix de la mesure de risque. L'applicabilité de cette approche est illustrée par l'optimisation d'un quantile ou d'une CVaR. Enfin, nous proposons des algorithmes d'optimisation utilisant des processus gaussiens associés aux stratégies UCB et Thompson sampling, notre objectif étant l'optimisation d'un quantile ou d'un expectile
This thesis presents methods for estimation and optimization of stochastic black box functions. Motivated by the necessity to take risk-averse decisions in medecine, agriculture or finance, in this study we focus our interest on indicators able to quantify some characteristics of the output distribution such as the variance or the size of the tails. These indicators also known as measure of risk have received a lot of attention during the last decades. Based on the existing literature on risk measures, we chose to focus this work on quantiles, CVaR and expectiles. First, we will compare the following approaches to perform quantile regression on stochastic black box functions: the K-nearest neighbors, the random forests, the RKHS regression, the neural network regression and the Gaussian process regression. Then a new regression model is proposed in this study that is based on chained Gaussian processes inferred by variational techniques. Though our approach has been initially designed to do quantile regression, we showed that it can be easily applied to expectile regression. Then, this study will focus on optimisation of risk measures. We propose a generic approach inspired from the X-armed bandit which enables the creation of an optimiser and an upper bound on the simple regret that can be adapted to any risk measure. The importance and relevance of this approach is illustrated by the optimization of quantiles and CVaR. Finally, some optimisation algorithms for the conditional quantile and expectile are developed based on Gaussian processes combined with UCB and Thompson sampling strategies
APA, Harvard, Vancouver, ISO, and other styles
12

Bentoumi, Rachid. "Étude et estimation de certaines mesures de risque multivariées avec applications en finance." Thèse, Université du Québec à Trois-Rivières, 2011. http://depot-e.uqtr.ca/2262/1/030269814.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Youta, Momene Ulrich. "Mesures électrophysiologiques : indicateurs d'exposition aux microblessures anatomiques à risque de troubles musculo-squelettiques." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32765.

Full text
Abstract:
Les troubles musculo-squelettiques (TMS) réfèrent à un ensemble de symptômes du système musculo-squelettique comme la douleur, la faiblesse musculaire, les gestes inappropriés, etc. Les TMS dans nos travaux de recherche, sont liés au travail et sont attribuables, entre autres, à des mouvements répétitifs ou à des cadences élevées, aux postures contraignantes ou prolongées, exposant les tissus anatomiques à une sur-sollicitation mécanique. Les TMS sont fréquemment observés chez les travailleurs manuels selon les rangs de « Prévention index ». Toutefois, sur un poste similaire, le rationnel du développement d’un TMS chez une personne et l’absence de TMS chez une autre personne demeure incertain. L’objectif du présent travail est d’identifier les paramètres musculaires (mesurables par un EMG) et d’activation cérébrale (mesurables par un EEG) pouvant constituer des déterminants personnels d’exposition aux microblessures musculaires. Notre hypothèse est que la sur-sollicitation tissulaire engendre des microblessures pouvant entraîner des TMS et que certaines personnes sont plus susceptibles aux microblessures, et donc plus à risque de développer un TMS. Pour ce faire, des données physiologiques (EEG, EMG) ont été collectées sur 12 participants jeunes adultes (26,83± 4,13 ans donc 2 femmes) en bonne santé opérants deux tâches simulées en posture debout dans deux situations de mesure : A) avec faible risque d’exposition aux microblessures (tâche servant de référence) et B) avec un risque plus prononcé exposition aux microblessures (tâche d’évaluation). Nous avons calculé la densité spectrale de puissance (DSP) des signaux à partir des signaux normalisés aussi bien pour l’EEG (ERD/ERS exprimé en %) que pour l’EMG (DSP exprimé en μv2). Une analyse de variance (ANOVA à mesures répétées) à trois facteurs a été conduite pour déterminer s’il y a des différences au travers des conditions expérimentales. Nos résultats montrent l’existence d’une différence significative au niveau des signaux physiologiques durant l’exécution des deux tâches. En particulier, il y a des déterminants personnels à l’origine de ces différences : une augmentation significative de la désynchronisation (ERD) des ondes bêta sur l’électrode temporale gauche durant la tâche à risque élevé (B) par rapport à la tâche à faible risque (A) de microblessures a été observée. De plus, une baisse non significative de la densité spectrale de puissance (DSP), de l’activité musculaire sur deltoïde droit a été observée dans les mêmes conditions. Ce travail pilote contribue à l’avancement d’une nouvelle approche de caractérisation des indicateurs d’exposition aux microblessures, basée sur les signaux physiologiques.
Musculoskeletal disorders (MSDs) refer to a set of symptoms of the musculoskeletal system such as pain, muscle weakness, inappropriate gestures, etc. The MSDs in this research works are work-related and are attributable, among other things, to repetitive or high-speed movements, to constraining or prolonged postures, exposing anatomical tissues to mechanical overstretching. According to the ranks of "Prevention Index", among the top 20 sub-sectors at risk of MSD, almost all are found among manual workers. However, it is unclear why on a similar workstation, one person develops a TMS while another is free. The goal is to identify muscle parameters (EMG) and brain activation (EEG) that may be personal determinants of muscle micro-injury exposure. Our hypothesis is that tissue overload causes micro-injuries that can result in TMS and that some people are more susceptible to micro-injury; and therefore more at risk of developing a TMS. To do this, physiological data (EEG, EMG) were collected on 12 participants young adults (26,83 ± 4,13 years, two women) in good health during two simulated tasks in standing posture including operations A) with a low risk of exposure to micro-injuries (reference task) and B) with a greater risk of micro-injury exposure (evaluation task). We calculated the power spectral density (DSP) of the signals from the normalized signals for EEG (ERD / ERS expressed in%) as well as for EMG (DSP expressed in μv2) An analysis of variance (ANOVA to repeated measurements) to three factors was conducted to determine the differences across each experimental condition. Our results show the existence of a significant difference in physiological signals during the execution of two tasks. In particular, on the personal determinants at the origin of the differences, we see a significant increase in the desynchronization (ERD) of the beta waves on the left temporal electrode during the task at high-level risk (B) compared to the low-level risk task (A) of micro-injury. In addition, a nonsignificant decrease in power spectral density (DSP), muscle activity on the right deltoid was observed under the same conditions. Although our work is exploratory in nature, it contributes to the advancement of a new approach to characterization of exposure indicators to micro injuries based on physiological signals
APA, Harvard, Vancouver, ISO, and other styles
14

Ruiz, Tony. "Analyse de l'interaction entre un sillage tridimensionnel et une paroi – Détection de structures cohérentes responsables de fluctuations de pression pariétale." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. http://tel.archives-ouvertes.fr/tel-00461293.

Full text
Abstract:
En aérodynamique automobile, les écoulements sont caractérisés par des structures fortement décollées, tridimensionnelles et instationnaires qui sont à l'origine de la trainée du véhicule et de la génération de bruit. Une configuration modèle générique de cette aérodynamique a été proposée. On étudie de manière expérimentale l'interaction du sillage tridimensionnel d'un disque de diamètre D placé à une distance H d'une paroi. Sur la base de cet écoulement, l'objectif est de développer une analyse instationnaire des structures de l'écoulement et de leur couplage avec la pression fluctuante. On a mis en oeuvre pour cela des moyens d'essais modernes tels que la mesure synchronisée pression/vitesse ou la mesure HS-PIV (High Speed - PIV) et développé des moyens d'analyse (analyse corrélatoire, outils lagrangien FTLE, moyenne conditionnelle et estimation stochastique). Pour H/D=0.75, le battement du sillage associé au lâcher tourbillonnaire est mis en évidence. Les moyennes de phase, déterminées à l'aide d'une analyse POD du signal de pression, associent le déplacement vertical du sillage au lâcher de structures cohérentes dans le plan de symétrie. L'utilisation de l'estimation stochastique de type spatio-temporelle, dont la supériorité par rapport à l'approche spatiale a été démontrée, a permis de montrer que les structures cohérentes sont reliées de manière linéaire aux fluctuations de pression. Pour H/D=0.3, l'interaction du sillage du disque avec la paroi a considérablement changé. Dans la zone proche du point de décollement, il a été montré à l'aide de l'outil lagrangien FTLE que la fréquence dominante de 30Hz sur les DSP de pression est associée aux fluctuations du point de décollement.
APA, Harvard, Vancouver, ISO, and other styles
15

Claveau, Dominique. "Les mesures de risque d'un portefeuille de titres à revenus fixes et les facteurs de risque de la dette du Québec." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0015/MQ49083.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Zouhal, Adra. "Le risque en droit pénal." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1G025.

Full text
Abstract:
La notion de risque est doublement incertaine : elle contient une part irréductible d’aléa quant à sa concrétisation en dommage d’une part, elle n’est pas définie par la loi d’autre part. Pourtant, cette lacune est en contradiction, tant avec le recours exponentiel à la notion de risque en droit pénal, qu’il soit de fond ou de forme, qu’avec le principe de légalité des délits et des peines, qui implique que le législateur définisse avec clarté et précision les notions et concepts auxquels il fait appel, de sorte que la légitimité de son usage en droit pénal peut être mise en doute. La présence d’une notion aussi incertaine dans une matière qui met en cause les droits fondamentaux de la personne est susceptible de mettre en péril les impératifs de l’État de droit. Au demeurant, ce droit pénal de l’anticipation, qui vise à prévenir la survenance d’une atteinte possible mais incertaine à une valeur protégée, essuie de nombreuses critiques. L’objet de cette démonstration est donc de savoir si le législateur emploie à bon escient ou non la notion de risque en droit pénal. La réponse à cette problématique nécessitera au préalable, de s’assurer que le droit pénal est effectivement légitime à s’intéresser à la notion de risque. Ce n’est pas parce que le législateur consacre une notion que sa prise en compte est forcément légitime. Plus encore, il faut garder à l’esprit que risque et droit pénal sont par nature contradictoires : le risque est incertain, immatériel et relève de la prévention tandis que le droit pénal est le droit de la répression, de la matérialité et de la certitude. Une étude approfondie de leurs natures respectives permettra néanmoins de dépasser la contradiction, attestant alors de ce que le droit pénal est théoriquement légitime à réceptionner la notion de risque. Cette légitimité n’en reste pas moins précaire. Pour la garantir, il ne pourra s’agir que d’un certain risque, c’est-à-dire un risque pourvu d’une certaine qualité, car le législateur, s’il prétend recourir à la notion de risque en droit pénal pour assurer à la société une protection pénale anticipée, ne peut se départir des principes qui y sont applicables. À partir de l’étude des principes fondamentaux du droit pénal, de ses concepts juridiques et de ses sources supralégislatives, cette recherche se proposera alors d’élaborer une définition pénale de la notion de risque, contenant les critères théoriques d’un risque pénalement saisissable en toute légitimité. Leur confrontation, ensuite, avec le droit positif, permettra de révéler si l’exploitation de la notion de risque par le législateur en droit pénal, fait perdre ou non à ce dernier sa légitimité
The notion of risk is doubly uncertain: it contains an irreducible part of hazard as its realization in damage on the one hand, and its lack of definition by the law on the other. However, this gap is at odds, both with the exponential use of the notion of risk in criminal law, whether substantive or form, and with the principle of legality of offences and sentences, which implies that the legislator defines clearly and precisely the notions and concepts to which it refers. That is the reason why the legitimacy of the use of the notion of risk in criminal law can be questionable. The presence of such an uncertain notion in a field involving the fundamental rights of the person is likely to jeopardize the imperatives of the State of laws. Moreover, the criminal law of anticipation, which aims to prevent the occurrence of possible but uncertain interference with a protected right, is criticized. The purpose of this demonstration is therefore to know whether or not the legislature uses wisely the notion of risk in criminal law. The answer to this issue will previously require to ensure that criminal law is actually legitimate to focus on the notion of risk. This is not because the legislature takes into account a notion that its account is necessarily legitimate. Moreover, it is important to keep in mind that risk and the criminal law are inherently contradictory: the risk is uncertain, immaterial and is linked to the concept of prevention while the criminal law is the right of repression, the materiality and the certainty. A deep study of their respective natures will nevertheless make it possible to overcome the contradiction, stating that the criminal law is theoretically legitimate to accept the notion of risk. This legitimacy stays nonetheless quite precarious. To secure this legitimacy, only a certain kind of risk, a risk with a managed level can be taken into account. If the legislator claims using the notion of risk in criminal law for anticipated criminal protection of society, he still cannot ignore the principles that are applicable in criminal law. From the study of the fundamental principles of criminal law, its legal concepts and its supralegislatives sources, this research will then offer a definition of the notion of risk in criminal law, containing the theoretical criteria of a legitimate criminally detectable risk. Its comparison with positive law, will emphasize whether the use of the notion of risk by the legislator in criminal law, makes him lose or not its legitimacy
APA, Harvard, Vancouver, ISO, and other styles
17

Barrios, Carolina. "UneRéconciliation des mesures de l'utilité à l'aide de la "prospect theory" : une approche expérimentale." Paris, ENSAM, 2003. http://www.theses.fr/2003ENAM0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Durand, Cyrielle Lucie. "Développement d'une batterie de mesures biologiques pour l'évaluation du risque associé aux sédiments contaminés." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0387/document.

Full text
Abstract:
Les enjeux écologiques, réglementaires et économiques imposent que des méthodologies robustes d'évaluation des risques environnementaux des sédiments contaminés soient proposées aux gestionnaires et autres parties prenantes. Il importe par ailleurs que ces méthodologies soient organisées selon une approche graduée, qui permette de hiérarchiser et proportionner les efforts mis en oeuvre pour l'évaluation, selon les risques potentiels sur les écosystèmes. Ce travail de thèse vise donc au développement d'un outil biologique pour l'évaluation du danger toxique lié à la contamination des sédiments d'eau douce, intégrables dans une démarche d'évaluation du risque. Il s'agit de mesurer la toxicité des sédiments naturels contaminés par des polluants chimiques, via la mesure des perturbations biologiques provoquées par l'exposition d'organismes au laboratoire. Ainsi une batterie de bioessais, composée de trois espèces phylogénétiquement différentes (G. fossarum arthropode crustacé ; P. antipodarum mollusque gastéropode et C. riparius arthropode insecte), a été mise en place. Le développement de la batterie s'est déroulé en deux étapes principales. La première a porté sur l'évaluation de la variabilité des traits de vie des organismes exposés à une série de sédiments de qualité acceptable, et couvrant une gamme la plus large possible de granulométrie et de quantité de matière organique. La réalisation de cette étape a permis de proposer, pour chaque espèce et chacun des traits considérés, une gamme de réponse considérée comme normale, en dehors de laquelle un effet toxique chimique du sédiment est significativement mis en évidence. La seconde étape consistait à comparer les réponses des traits de vie en conditions contaminées à la gamme de réponses en conditions pas / peu contaminées préalablement définie. Ainsi, la capacité à caractériser des sédiments contaminés a été évaluée pour chaque trait de vie de chaque organisme. Les résultats obtenus montrent que certains traits ont un potentiel de discrimination fort (ex : taux d'alimentation de G. fossarum) alors qu'il est très faible pour d'autres (ex : production d'embryons de P. antipodarum). Les traits au potentiel de discrimination "intermédiaire" sont traités au cas par cas. Ils peuvent en effet être moyennement sensibles à un ensemble de contaminants, ou présenter des sensibilités spécifiques (ex : la croissance de C. riparius n'a répondu qu'aux sédiments présentant une contamination aux pesticides). L'exploitation des résultats a permis d'aboutir à la définition de référentiels de réponse pour chaque trait de vie testé pour les trois espèces et à des recommandations d'utilisation des tests mis en place (quels espèces / traits conserver, comment les combiner, que faudrait-il faire pour perfectionner la batterie ?)
The ecological, regulatory and economic stakes impose to propose reliable methodologies to assess the risk of contaminated sediments for the environment, following a gradual approach (which allows to rank and to proportion efforts), considering the potential risks on the ecosystems. This work aims to develop a biological tool for the hazard assessment of contaminated freshwaters sediments. It consists in the evaluation of natural sediments toxicity contaminated by chemicals pollutants, through the measurement of biological disturbances caused to laboratory exposed organisms. Thus, a bioassay battery composed of three species (G. fossarum crustacean arthropod; P. antipodarum gastropod mollusc and C. riparius insect arthropod), belonging to different phyla, was built. The battery was developed within two main steps. The first concerns the evaluation of the natural variability of organisms life-traits exposed to a good quality (not or few contaminated) sediment series, which present a range of particle size grading and organic matter content as large as possible. The second step consists in a comparison between life-traits responses in contaminated conditions and the range of responses previously obtained in control conditions. Thus, the battery capacity to discriminate was assessed on contaminated sediment for each endpoint for the three tested species. Results show some traits with a high discriminating power (e.g. G. fossarum feeding rate) and on the contrary some traits with a very low discriminating power (e.g. P. antipodarum embryo production). Intermediates responses are treated separately. Actually, it can present median sensitivity to contaminants or specific sensitivities (e.g. C. riparius growth rate responded only to pesticides contaminations). Results allow to obtain biological response thresholds for each endpoint of the three tested species, and recommendations for the use of developed tests (which species / traits to use in which conditions?)
APA, Harvard, Vancouver, ISO, and other styles
19

Encelle, Paul. "Contribution à l'analyse des mécanismes de gestion et de mesures sociales d'un risque : le cas français des accidents du travail." Paris 10, 1985. http://www.theses.fr/1985PA100119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Tokpavi, Sessi Noudele. "Essais sur la Value-at-Risk : mesures de risque intra-journalières et tests de validation." Orléans, 2008. http://www.theses.fr/2008ORLE0510.

Full text
Abstract:
La présente thèse contribue à la littérature sur les deux principaux axes de recherche relatifs à la Value-at-Risk (VaR) : la prévision et le backtesting de la VaR. Concernant le premier axe, la thèse développe une méthodologie pour la prévision de la VaR à des horizons intra-journaliers. La méthodologie conditionne non linéairement les rendements à l'existence de nouvelles sur le marché, mesurée par l'innovation de l'intensité transactionnelle. Dans cette optique nous introduisons deux nouvelles spécifications : un modèle de volatilité qui relie la réponse asymétrique de la volatilité aux rendements, à l'existence de nouvelles et un modèle à changement de régime dans la queue de distribution, dirigé par l'existence de nouvelles. Les applications empiriques démontrent que cette méthodologie constitue un outil flexible de gestion de risque sur des marchés où les fluctuations intra-journalières des prix sont de plus en plus importantes. Pour le deuxième axe, nous introduisons deux nouvelles approches pour le backtesting de la VaR. Premièrement, nous développons un test qui étend ceux existants en vérifiant la validité de la VaR pour plusieurs niveaux de confiance. La statistique de test est une extension au cadre multivarié du test de Ljung-Box pour le processus de violations de la VaR. Deuxièmement, nous utilisons la distribution (géométrique) de la durée entre deux violations consécutives sous l'hypothèse de validité de la VaR et introduisons une nouvelle statistique de test, dérivée des conditions de moments induits par les polynômes orthonormaux associés à la loi géométrique. Il est démontré que les deux nouveaux tests présentent de bonnes propriétés à distance finie.
APA, Harvard, Vancouver, ISO, and other styles
21

Cantin, Etienne. "Cavité à haute finesse pour la production et la détection de sources atomiques cohérentes." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0259/document.

Full text
Abstract:
Cette thèse décrit le développement de deux outils originaux pour l’interférométrie atomique. Le premier est une cavité optique à haute finesse pour la manipulation d’atomes ultra-froids de 87Rb. Cette cavité est d’abord utilisée pour augmenter l’intensité d’un piège dipolaire optique qui permet de piéger et refroidir les atomes. Ainsi, en procédant à un refroidissement par évaporation de l’échantillon atomique, nous avons atteint le régime de condensation de Bose-Einstein. La cavité étant non dégénérée, elle permet également l’injection de différents modes transverses électromagnétiques. Nous avons alors démontré la création et la manipulation de réseau d’ensembles atomiques en utilisant ces modes. La mesure successive de ces ensembles atomiques au cours d’une séquence d’interférométrie atomique permettrait d’augmenter le temps de mesure et ainsi d‘améliorer la sensibilité de l’instrument. Deuxièmement, l’utilisation d’une mesure faible non destructive sur les atomes permet de soutirer de l’information du système sans le perturber. En appliquant une rétroaction après ces mesures, l’état quantique peut être contrôlé. Par l’utilisation d’une séquence de Ramsey adaptée avec des mesures faibles et des corrections de phase, nous avons ainsi démontré la réalisation d’une boucle à verrouillage de phase entre un oscillateur local et l’état atomique. Nous avons ensuite démontré que ce protocole améliore la stabilité d’une horloge atomique en surpassant la limite de stabilité de l’oscillateur local. Nous avons également validé l’utilisation de la plate-forme laser commercial EYLSA de Quantel sur deux expériences de refroidissement d’atomes par laser
This thesis reports the development of two original tools for atom interferometry.The first is a high finesse optical cavity for the manipulation of 87Rb cold atoms. This cavity isfirstly used to enhance the intensity of an optical dipole trap. Thus, by realizing an evaporativecooling on the atomic sample, we reached Bose-Einstein condensation. Furthermore, the nondegeneratecavity allows the injection of different transverse electromagnetic modes. In thisway, we have demonstrated the generation and the manipulation of arrays of atomic ensemblesusing these modes. Successive measurements of these atomic ensembles in an atominterferometric sequence would increase the interrogation time and thus the sensitivity of thesensor.Secondly, the use of weak nondestructive measurements on the atoms allows to extractinformation from the system with negligible perturbation of the ensemble. Applying feedbackafter the measurement, we were able to control the quantum state of the system. Using amodified Ramsey sequence with weak nondestructive measurements and phase corrections, werealized a phase lock loop between a local oscillator and the atomic state. We have thendemonstrated that this protocol leads to a stability enhancement of an atomic clock byovercoming the limit set by the local oscillator.We also contributed to the development of the commercial laser platform EYLSA fromQuantel, testing its performances on two laser cooling experiments
APA, Harvard, Vancouver, ISO, and other styles
22

Sadok, Moufida. "Veille anticipative stratégique pour réduire le risque des agressions numériques." Grenoble 2, 2004. http://www.theses.fr/2004GRE21020.

Full text
Abstract:
Ce travail de recherche a mis l'accent sur un problème lié à la gestion à l'ère numérique et apporte la nécessité de considérer le risque des agressions numériques, lié à la sécurité des ressources informationnelles de l'entreprise utilisatrice des TIC, comme étant un risque de management et non pas uniquement un risque technique. Nous avons conçu et construit la Méthode d'Analyse et de Réduction du Risque des Agressions Numériques (MARRAN) afin d'assister une Equipe de Réponse aux Incidents (ERI) de sécurité. Cette méthode assiste le processus d'interprétation collective des informations de type signal faible pour réduire le temps de réponse face aux agressions numériques voire même de les anticiper. MARRAN se base sur un acteur important, le médiateur, qui accomplit un ensemble d'actions qui ont pour objectifs d'aider les membres d'une ERI à construire des vues individuelles, concilier les vues individuelles divergentes ainsi que d'affiner le raisonnement. Le médiateur devrait avoir certaines compétences comme, la crédibilité fondée sur l'expertise et l'expérience ainsi qu'une bonne connaissance de l'entreprise, de ses objectifs, et des caractéristiques de son système d'information. De même, nous avons validé MARRAN sur des cas réels d'agression numérique tout en spécifiant les conditions de sa réplication. Nous avons procédé également à l'évaluation de MARRAN auprès des experts en sécurité informatique. MARRAN est supportée par un logiciel qui utilise certaines applications de la technologie Internet permettant essentiellement la construction d'une base de connaissances à travers la capitalisation des validations des scénarios d'attaques
This research work addresses the problem related to management in the digital era and show the need to consider risk, generated by the digital aggressions targeting the security of the information resources of a corporate which highly using the ICT, as a risk management rather then a technical risk. We have constructed and implemented a method, called MARRAN, for the analysis and the reduction of digital aggressions risk. This method aims to support the process of collective interpretation of information considered as a week signal type in order to reduce the reaction time against digital aggressions and even anticipate there occurrence. MARRAN is based on major actor, the mediator, who accomplishes a set of actions that aim to help the IRT (Incident Response Team) members to construct individual views, conciliate individual divergent views, and refine the needed reasoning. The mediator needs to have skills such as the credibility, which is based on experience and expertise and the well knowledge of the corporate, its objectives and the characteristics of its information system. We have validated MARRAN method based on real cases of digital aggressions and have specified its replication conditions. Also, we have evaluated MARRAN with experts in information security. MARRAN is supported by software that was developed to use various applications in internet technology and allowing mainly the construction of a knowledge base through the capitalization of the attack scenarios processed by the IRT members
APA, Harvard, Vancouver, ISO, and other styles
23

Raïs, Hassen. "Gestion des risques : mesures et stratégies : analyse empirique de la gestion des risques dans les entreprises non financières françaises." Thesis, Toulouse 1, 2012. http://www.theses.fr/2012TOU10063/document.

Full text
Abstract:
Cette thèse s’inscrit dans la lignée des recherches empiriques sur les déterminants de la gestion des risques (Bodnar et al, 2001, Grant et Marshal, 2002, Bailly, El Masry, 2003, Benkhediri, 2006, Judge, 2006). Ces travaux testent différentes hypothèses pour expliquer les stratégies gestion des risques mises en œuvre par entreprises non financières. La contribution de cette thèse est la constitution d’une base de données quantitative incluant non seulement les stratégies de gestion des risques de 400 entreprises non financières françaises mais aussi l’organisation de la fonction gestion des risques au sein de ces entreprises.Les analyses empiriques menées sur ces données conduisent aux résultats suivants : • La sophistication de l’organisation de la fonction gestion des risques d’une entreprise est principalement déterminée par son secteur d’activité, sa diversification, ses liquidités et sa taille.• La sophistication de l’organisation de la gestion des risques d’une entreprise est un facteur explicatif important de la sophistication de sa stratégie de gestion des risques• L’absence de couverture externe par des produits dérivés, n’est pas le fait de la non prise en compte des risques, mais résulte, dans 25% des cas, d’une stratégie active d’assurance interne. • La stratégie de couverture par les produits dérivés est déterminée par l’importance de la fonction gestion des risques, la croissance de l’entreprise, les avantages fiscaux et la taille. • L’utilisation de l’assurance pour couvrir les risques opérationnels est distribuée « en U » par rapport à la taille des entreprises : les plus petites et les plus grandes utilisent plus l’assurance que les moyennes
This thesis is in line with empirical research on the determinants of riskmanagement (Bodnar et al, 2001, Grant and Marshall, 2002, Bailly, El Masry,2003 Benkhediri, 2006, Judge, 2006). These studies test different hypothesesto explain the risk management strategies implemented by non-financial firms.The contribution of this thesis is the building of a database including not onlyquantitative risk management strategies of 400 non-financial French firms butalso the organization of the risk management function.Empirical analyzes conducted on these data the following results:• The sophistication of the organization of the risk management function isdetermined primarily by its sector, diversification, liquidity and size.• The sophistication of the organization of the risk management of a firm is animportant explanatory factor for the sophistication of its risk managementstrategy• The lack of hedging by external derivatives, is not the fact of ignoring therisks, but results in 25% of cases, an active strategy of internal assurance.• The hedging strategy by derivatives is determined by the importance of therisk management function, the growth of the company, tax benefits and size.• The use of insurance for hedging operational risks is "U" shaped distributionin relation to company size: the smallest and the largest firms use moreinsurance than medium
APA, Harvard, Vancouver, ISO, and other styles
24

Belkacem, Lotfi. "Processus stables et applications en finance : CAPM, risque, choix des portefeuilles, évaluation des options dans un marché "[alpha]-stable"." Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090053.

Full text
Abstract:
Le travail présenté dans ce mémoire s'intéresse à divers champs d'applications des lois stables en finance. Nous justifions d'abord la modélisation des taux de rentabilité des actions par des distributions α-stables, en mettant en évidence la structure fractale du marché des actions à travers des tests empiriques d'autosimilarité et de stabilité. Nous dérivons, sous l'hypothèse que les taux de rentabilité des actifs sont conjointement -stable symétriques (1 <α < 2), un modèle d'évaluation des actifs financiers (MEDAF stable). Nous montrons ensuite que les taux de rentabilité d'équilibre de tous les actifs risques sont fonctions de leur covariation avec le taux de rentabilité de portefeuille de marche. Le MEDAF stable met en évidence une nouvelle mesure de risque, qui peut être interprétée comme un coefficient beta stable. D'autre part, nous définissons en matière de choix des portefeuilles, un modèle d'analyse des portefeuilles efficients dans un contexte où les actifs suivent une loi α-stable multivariée. La représentation des portefeuilles efficients 1. 7-stables et gaussiens dans le même espace (rentabilité espérée, paramètre d'échelle), montre que la frontière efficiente 1. 7-stable domine son homologue gaussienne. Enfin, nous développons un modèle simple, en temps continu, d'évaluation des options de type européennes dont le sous-jacent évolue selon une équation différentielle stochastique gouvernée par un mouvement α-stable. Nous exploitons ce modèle pour expliquer l'effet smile de la volatilité implicite de Black et Scholes.
APA, Harvard, Vancouver, ISO, and other styles
25

Defossez, Stéphanie. "EVALUATION DES MESURES DE GESTION DU RISQUE INONDATION. APPLICATION AU CAS DES BASSES PLAINES DE L'AUDE." Phd thesis, Université Paul Valéry - Montpellier III, 2009. http://tel.archives-ouvertes.fr/tel-00542397.

Full text
Abstract:
La gestion du risque inondation s'est longtemps tournée exclusivement vers la maîtrise de l'aléa. Que ce soit des ouvrages de génie civil (digue, barrage) ou des mesures plus douces comme les champs d'expansion des crues, la protection a primé sur la prévention. Cependant les limites des mesures structurelles et le coût croissant des dommages ont amené des réflexions de gestion plus globalisée et concertée. Depuis une quinzaine d'années, les politiques publiques tentent d'introduire des mesures de prévention qui passent par la régulation des enjeux et la réduction des vulnérabilités. Les basses plaines de l'Aude représentent un territoire d'étude privilégié. Il est en effet exposé aux inondations, fréquentes ou catastrophiques. Les dernières graves inondations de novembre 1999, qui ont dévasté le territoire, furent révélatrices des failles de la gestion dont la nature des aménagements et le contexte territorial complexe. Dans les basses plaines de l'Aude, les gestionnaires peinent à atteindre une gestion performante. Depuis quarante ans, les projets se succèdent sans jamais totalement aboutir. Dans un tel contexte, cette recherche se propose d'évaluer les modes de gestion du risque. L'évaluation représente un point de départ à de nouvelles orientations des politiques de prévention. L'objectif visait à estimer l'efficacité, la pertinence et finalement la performance des modes de gestion du risque par différentes approches : diagnostic du risque, approche évaluative coûts/bénéfices, analyse des perceptions...et face à des évènements majeurs et de moindre ampleur. La prégnance des mesures structurelles et les objectifs de gestion centrés sur l'aléa majeur perdurent. Cette gestion restrictive nuit à la cohérence territoriale et laisse peu de place aux mesures préventives pourtant complémentaires à la protection. La gestion du risque dans les basses plaines souffre en outre d'un contexte politique difficile et conflictuel. Les perspectives de la gestion sont à chercher du côté d'une gestion concertée (acteurs) et globalisée (mesures) avec des objectifs clairement définis (aléa).
APA, Harvard, Vancouver, ISO, and other styles
26

Soubaras, Hélène. "Mesures de risque probabilistes et non probabilistes dans les systèmes markoviens pour la planification sous incertitude." Paris, Télécom ParisTech, 2011. http://www.theses.fr/2011ENST0012.

Full text
Abstract:
Dans les applications comme la gestion de crise, le rôle du décideur est crucial. Car s'il fait rapidement un bon choix des actions à mener, il peut éviter une part importante de pertes humaines et financières. Notre objectif est de fournir des algorithmes d'aide à la décision. Nous supposerons que le système à gérer suit un modèle de Markov, qui est adéquat dans de nombreux cas (phénomènes de propagation. . . ). Nous cherchons à définir des mesures de risque en guise de critère de décision dans de tels systèmes, ce qui nous amènera à définir un processus de décision Markovien (MDP) capable de fonctionner dans l'incertitude. La motivation de cette thèse est d' abord d'examiner des mesures de risque probabilistes et proposer des algorithmes pour leur mise en œuvre dans les systèmes modélisés par chaînes de Markov. Mais la principale difficulté dans la gestion précoce de crise est que les données ne sont pas encore en quantité suffisante pour établir un modèle probabiliste. Ceci est dû à l'incertitude sur ce qui est en train de se passer, le manque d'observations et leur imprécision (ex: informations textuelles). C'est pourquoi nous considérerons une généralisation des chaînes de Markov à la théorie des fonctions de croyance, appelée EMC (Evidential Markov chain), qui a été proposée par Pieczynski et al. Nous l'utiliserons pour proposer une nouvelle mesure de risque et l'introduire dans un nouveau modèle de MDP généralisé que nous appellerons EMDP (Evidential MDP). Les principaux résultats sont: - un algorithme pour prédire le risque dans les chaînes de Markov; - un algorithme pour prédire le risque dans les modèles de Markov spatio-temporels; - un algorithme pour prédire le risque dans les EMC ; - la simulation d'une crise avec un EMC ; - des mesures évidentielles d'incertitude applicables au risque (capacité de canal généralisée) ; - un nouveau modèle l'EMDP (Evidential MDP); - un algorithme pour résoudre l'EMDP ; - une application d'un EMDP sur un robot search-and-rescue. Les cas d'étude seront: - une crise géopolitique; - un benchmark du concours de planification IPC (International Planning Competition) en robotique search-and-rescue ; - des petits exemples de gestion de crise
On applications such as crisis management, the decision-maker's role is crucial. Indeed, if he performs a good and early choice of what actions to do, taking into account his limited available resources, he can avoid an important part of human or financial losses. We focus on a Markov modeling of a system, which is suitable in many situations (propagating phenomena. . . ). We aim at defining risk measures as decision criteria in such systems that wililead to define a robust Markov Decision Process (MDP) [107]. The motivation of this thesis is first examining probabilistic risk measures, and we consider Markov chain modeling of systems for this. But the main difficulty in applications such as early crisis management is that the data are missing for determining a probabilistic model, due to the uncertainty about what may happen, the lack of observations at the very beginning of a crisis, and their imprecision (e. G. Textual information). This is why we shall consider a generalization of the Markov chain called Evidential Markov Chain (EMC) [75], to the DS's Theory of Evidence [121]. We shall use this generalization in order to propose a new measure of risk and involve it in a generalized MDP (Evidential MDP). The main results of this thesis are: - an algorithm for forecasting risk in Markov chains; - an algorithm for forecasting risk in Markov space-time model; - an algorithm for forecasting risk in Evidential Markov Chains; - the simulation of a crisis with an Evidential Markov Chain; - evidential measures of uncertainty applicable to risk (generalized channel capacity); - an algorithm for solving the Evidential MDP (EMDP); - application of the EMDP on a search-and-rescue robot. These contributions will be illustrated on the following case studies: - a geopolitical crisis; - a benchmark of the IPC (International Planning Competition) in robotics for searchand-rescue; - small examples of crisis management
APA, Harvard, Vancouver, ISO, and other styles
27

Defossez, Stéphanie. "Évaluation des mesures de gestion du risque inondation. Application au cas des basses plaines de l'Aude." Montpellier 3, 2009. http://www.theses.fr/2009MON30073.

Full text
Abstract:
La gestion du risque inondation s’est longtemps tournée exclusivement vers la maîtrise de l’aléa. Que ce soit des ouvrages de génie civil (digue, barrage) ou des mesures plus douces comme les champs d’expansion des crues, la protection a primé sur la prévention. Cependant les limites des mesures structurelles et le coût croissant des dommages ont amené des réflexions de gestion plus globalisée et concertée. Depuis une quinzaine d’années, les politiques publiques tentent d’introduire des mesures de prévention qui passent par la régulation des enjeux et la réduction des vulnérabilités. Les basses plaines de l’Aude représentent un territoire d’étude privilégié. Il est en effet exposé aux inondations, fréquentes ou catastrophiques. Les dernières graves inondations de novembre 1999, qui ont dévasté le territoire, furent révélatrices des failles de la gestion dont la nature des aménagements et le contexte territorial complexe. Dans les basses plaines de l’Aude, les gestionnaires peinent à atteindre une gestion performante. Depuis quarante ans, les projets se succèdent sans jamais totalement aboutir. Dans un tel contexte, cette recherche se propose d’évaluer les modes de gestion du risque. L’évaluation représente un point de départ à de nouvelles orientations des politiques de prévention. L’objectif visait à estimer l’efficacité, la pertinence et finalement la performance des modes de gestion du risque par différentes approches : diagnostic du risque, approche évaluative coûts/bénéfices, analyse des perceptions…et face à des évènements majeurs et de moindre ampleur. La prégnance des mesures structurelles et les objectifs de gestion centrés sur l’aléa majeur perdurent. Cette gestion restrictive nuit à la cohérence territoriale et laisse peu de place aux mesures préventives pourtant complémentaires à la protection. La gestion du risque dans les basses plaines souffre en outre d’un contexte politique difficile et conflictuel. Les perspectives de la gestion sont à chercher du côté d’une gestion concertée (acteurs) et globalisée (mesures) avec des objectifs clairement définis (aléa)
Flood risk management has long exclusively focused on controlling flood hazard. Structural or soft hazard-related measures such as dikes, dams or catch basins often prevail over prevention. However, both the frequent failure of those structural measures and the increasing damage related to floods compelled practitioners to come up with holistic and multi-stakeholder alternative policies. Over the past fifteen years, public policies have aimed at introducing preventive measures such as land-use planning and vulnerability reduction. The Aude lowlands provide an insightful case study. This region is exposed to frequent and disastrous flooding. The 1999 flood disaster which brought heavy damage in the area emphasized the limits of the existing risk management framework. In the Aude lowlands, practitioners struggle to provide an effective solution to the flooding problem. For the past 40 years, there has been a series of projects which all failed to mitigate the occurrence of disasters. In this context, this research work aimed at assessing the present risk management frameworks. Such an assessment should serve as the basis for revisiting flood policies. The goal of this study was to evaluate the efficiency, pertinence and performance of the existing flood risk management frameworks through different approaches: risk assessments, cost-benefits analyses and perception studies. This evaluation dealt with large-scale and smaller-scale events. Structural measures and hazard-based policies still prevail. This restrictive viewpoint conflicts with the complexity of local territories and leaves little space for preventive actions. Lowland flood risk management should further deal with the complex political context shaped around many conflicts. Perspectives for improving flood risk management should focus on involving a larger range of stakeholders and measures with clearly-defined hazard-based objectives
APA, Harvard, Vancouver, ISO, and other styles
28

Dudek, Jérémy. "Illiquidité, contagion et risque systémique." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00984984.

Full text
Abstract:
Cette thèse est articulée autour de trois risques financiers que sont : la liquidité, la contagion et le risque systémique. Ces derniers sont au centre de toutes les attentions depuis la crise de 2007-08 et resteront d'actualité à la vue des évènements que rencontrent les marchés financiers. Le premier chapitre de cette thèse présente un facteur de liquidité de financement obtenu par l'interprétation d'un phénomène de contagion en termes de risque de liquidité de marché. Nous proposons dans le second chapitre, une méta-mesure de cette liquidité de marché. Cette dernière tient compte de l'ensemble des dimensions présentes dans la définition de la liquidité en s'intéressant à la dynamique de plusieurs mesures de liquidité simultanément. L'objectif du troisième chapitre est de présenter une modélisation des rendements du marché permettant la prise en compte de la liquidité de financement dans l'estimation de la DCoVaR. Ainsi, ce travail propose une nouvelle mesure du risque systémique ayant un comportement contracyclique. Pour finir, nous nous intéressons à l'hypothèse de non-linéarité de la structure de dépendance entre les rendements de marché et ceux des institutions financières. Au cœur de la mesure du risque systémique, cette hypothèse apparait contraignante puisqu'elle n'a que peu d'impact sur l'identification des firmes les plus risquées mais peut compliquer considérablement l'estimation de ces mesures.
APA, Harvard, Vancouver, ISO, and other styles
29

Andrieu, Laetitia. "Optimisation sous contrainte en probabilité." Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001239.

Full text
Abstract:
La décision dans l'incertain est un theme de recherche particulièrement actif à l'heure actuelle, en raison notamment de ses nombreuses applications dans différents domaines de l'ingéniérie (télécommunications, transports,...), de la gestion et de la finance, etc. La formulation de ces problèmes en termes de problèmes d'optimisation sous contraintes est une approche classique. Cependant, dans un contexte aléatoire (ou stochastique), la nature des contraintes prises en compte requiert une attention particulière : -les contraintes à satisfaire "presque sûrement" sont généralement irréalistes ou anti-économiques (on ne dimensionne pas les réseaux pour écouler le traffic des heures de pointe de l'année), en dehors bien sûr des relations mathématiques qui représentent les lois de la Physique ; -les contraintes à satisfaire "en espérance", quoique mathématiquement agréables, n'ont pas de signification pratique très utile dans la mesure où le respect d'une inégalité sur l'espérance ne garantit rien sur la fréquence des dépassements de cette inégalité; -les contraintes à satisfaire avec une certaine probabilité sont généralement celles qui ont le plus de signification pratique, mais elles sont dificiles à traiter mathématiquement; -d'autres mesures de risque ont été récemment proposées CVaR, ordres stochastiques,...), notamment dans le domaine de la finance, pour aller dans le sens d'un traitement mathématique plus facile (préservation de la convexité par exemple), mais avec une certaine perte de l'interprétation intuitive qu'on peut leur donner. Sur le plan théorique, l'une des difficultés fondamentales que soulève le traitement des contraintes en probabilité est que ces contraintes s'expriment essentiellement comme l'espérance d'une fonction indicatrice d'ensemble, fonction à la fois non convexe et discontinue: le traitement de telles quantités par des méthodes d'approximation stochastique est donc très difficile. Dans cette thèse, trois voies sont explorées pour contourner ces difficultés : -le recours à d'autres formulations du risque qui amènent à des problèmes mathématiques plus simples ; -des méthodes d'intégration par parties ou de changement de variables dans le calcul de l'espérance permettent, sous certaine condition, de remplacer la fonction indicatrice par sa primitive, évidemment plus régulière, et donc plus facile à traiter du point de vue de l'approximation stochastique: on obtient ainsi des stimateurs non biaisés mais présentant une certaine variance ; -des méthodes de "lissage" remplaçant la fonction indicatrice par une approximation "adoucie", ce qui introduit un certain biais dans l'estimation, biais que l'on cherche ensuite à faire tendre asymptotiquement vers zéro. Ces méthodes sont évaluées et comparées à la fois sur les plans théorique et numérique, en utilisant pour cela deux exemples issus l'un d'un problèeme de parcours optimal avec risque et l'autre d'un problème d'investissement en finance.
APA, Harvard, Vancouver, ISO, and other styles
30

Richard, Olivier. "Considérations adaptatives. Mesures explicites et implicites de l'anxieté de reblessure." Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30024.

Full text
Abstract:
L’anxiété de reblessure, cette appréhension à l’idée de se reblesser, fait partie des réactions psychologiques survenant suite à une blessure. La littérature scientifique n’a pour le moment fait état de cette dernière uniquement comme un facteur négatif qu’il faut prendre en charge. En effet, étudiée exclusivement chez les sportifs, elle semble être un obstacle lors de la rééducation et du retour au sport. Nous souhaitons adopter un autre point de vue et considérer le caractère adaptatif de cette émotion, en nous basant sur le caractère protecteur que nous connaissons de l’anxiété et ses tendances à l’action (l’évitement et l’inhibition). À travers cet ensemble de recherches, nous avons donc exploré le caractère bénéfique de l’anxiété de reblessure dans une population sportive, mais également non-sportive.Le document se déroule en 5 chapitres. Au cours du premier chapitre, nous faisons état de la littérature sur l’anxiété de reblessure. Puis dans un second chapitre, nous développons une mesure explicite de l’anxiété de reblessure. Un troisième chapitre explore les liens qu’entretiennent l’anxiété de reblessure et la prise de risque alors qu’un quatrième chapitre porte sur la mesure implicite de l’anxiété de reblessure et ses tendances automatiques à l’action. Enfin, un cinquième et dernier chapitre dans lequel nous discutons des résultats et de la prise en charge de l’anxiété de reblessure
Reinjury anxiety is a psychological reaction arising further to an injury. Currently, the scientific literature considers reinjury anxiety solely as a negativ emotion you have to deal with and make disappear. Fact is, reinjury anxiety seems to be an hindrance to reeducation and a potential trouble when restarting a physical activity. We would like to adopt another point of view and consider the adaptive aspect of this emotion. We know anxiety, as a defensive reaction, makes you prone to action (avoidance and inhibition) and therefore could also be used as a positive incentive. Through our researches, we explored the positive aspects and mechanisms of reinjury anxiety on sportsman and non-sportsman people.The file is divided into 5 chapters. The first chapter is an overview of the academic work concerning reinjury anxiety. In a second chapter, we develop an explicit measure to reinjury anxiety. Chapter three explores the connections between reinjury anxiety and risk taking. The fourth chapter is related to the implicit measure of reinjury anxiety and its action readiness. Finally, in the fifth and last chapter, we discuss the results and the psychological treatment for reinjury anxiety
APA, Harvard, Vancouver, ISO, and other styles
31

Chave, Sylvain. "Elaboration d'une méthode intégrée du diagnostic du risque hydrologique." Aix-Marseille 1, 2003. http://www.theses.fr/2003AIX10018.

Full text
Abstract:
L'objectif des recherches effectuées est une reflexion relative à la mise au point d'une méthode pluridisciplinaire (géomorphologie, hydrologie, hydraulique) du diagnostic du risque hydrologique en région méditerranéenne. Applicable en trois étapes successives, la méthode proposée consiste à déterminer le modelé fluviatile conditionnant les écoulements du cours d'eau en crue, lequel est ensuite traduit en données quantitatives de sorte que les calculs hydrauliques soient optimisés par cette dimension. L'apllication de la méthode montre particulièrement la cohérence de l'évolution longitudinale des formes du modelé avec celle des lignes d'eau hydrauliquement calculées. Elle montre ensuite que la valeur des débits obtenus concorde soit avec elle d'évènements historiques soit avec les valeurs de débits rares à exceptionnels disponibles dans la littérature. Elle aboutit enfin à considérer l'enveloppe des lits majeurs comme une enveloppe soumise à des aléas modérés à très forts.
APA, Harvard, Vancouver, ISO, and other styles
32

Larrivée-Hardy, Etienne. "Mesures de ruine sur un horizon infini pour des modèles de renouvellement composés avec dépendance." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26059.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016
La théorie de la ruine est un des domaines des sciences actuarielles où la complexité mathématique est un facteur limitant les chercheurs. Dans ce mémoire, on s'intéresse donc à des méthodes numériques permettant d'approximer différentes quantités d'intérêt. Cependant, avant d'aborder le coeur du sujet, on fournit une revue de la littérature concernant la théorie de la ruine et on étudie certaines mesures de ruine en temps infini pour des modèles de risque où il y a dépendance entre les temps inter-sinistres et les montants de sinistre. On présente aussi les bases mathématiques nécessaires à la compréhension de ce mémoire pour toute personne ayant des connaissances de bases en science actuarielle et en statistiques. Puis, le c÷ur de ce travail, l'évaluation numérique de mesures de ruine à l'aide de trois méthodes numériques basées sur la simulation, respectivement (1) la méthode de Monte Carlo simple, (2) la méthode basée sur l'expression exacte de Gerber pour la probabilité de ruine, et (3) la méthode basée sur l'échantillonnage préférentiel. Nous discuterons également de la qualité respective de chaque méthode. En particulier, nous montrerons que la méthode basée sur l'échantillonnage préférentiel fournit des résultats sans biais et avec une erreur relative bornée. On présentera aussi plusieurs illustrations numériques.
Ruin theory is a field in actuarial science where researchers are often impeded by mathematical complexity. In this thesis, we look at some numerical methods that can be used to alleviate this problem. Before getting to the core of this work, we provide a review of the litterature concerning ruin theory and we study some infinite-time ruin measures within risk models assuming dependence between interclaim times and claim amounts. We also present the mathematical background necessary to understand this memoir for anyone with a basic understanding of actuarial science and statistics. The main focus of this work is the computation of ruin measures via three different methods based on simulations, namely (1) the crude Monte Carlo method, (2) a variant of the previous method based on Gerber's exact expression for the ruin probability, and (3) the importance sampling method based on change of measure techniques. Another topic that is discussed is the quality of the approximation of each method. In particular, we show that the importance sampling method provides unbiased approximations for the Gerber-Shiu function and bounded relative errors. We also present numerous numerical illustrations.
APA, Harvard, Vancouver, ISO, and other styles
33

Souveton, Rémi. "Gestion de portefeuilles internationaux et instruments dérivés : quelques exemples de mesures du risque et de la performance." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX32048.

Full text
Abstract:
Ce travail propose quelques outils destines a ameliorer l'evaluation du risque et la mesure de performance sur les marches financiers. Apres une description, dans les deux premiers chapitres, des marches internationaux et des produits derives, nous etudions dans une troisieme partie les consequences de l'hypothese d'absence d'opportunite d'arbitrage dans un contexte international. En particulier, nous etablissons une relation entre les primes de risque dans deux pays et la seule volatilite du taux de change, nous donnons ensuite le prix des options croisees sur devises. Ceci nous permet de calculer le coefficient de correlation implicite entre deux devises, ce coefficient est compare dans une etude empirique avec la correlation historique. Dans une quatrieme partie, nous traitons de la performance de portefeuille en utilisant la technique statistique du bootstrap. Cette technique statistique permet de resoudre les problemes de petits echantillons que l'on rencontre dans la mesure de performance en particulier lors de situations de krach, mais aussi parce que, sur toute periode, on observe une seule trajectoire realisee des rendements et des prix. Cette etude comporte deux parties empiriques portant d'une part sur des portefeuilles de devises, d'autre part sur des portefeuilles de devises et d'actions. Enfin, dans une derniere partie, nous evaluons le risque de defaut sur les contrats a terme, et les consequences des mecanismes d'appels de marges sur ce risque. Nous donnons le cout et la probalite de ce defaut pour des contrats a terme, dans le cas d'existence ou non d'appels de marges. Pour ces deux quantites et ces deux types de contrats des simulations numeriques sont effectuees. Le prix de l'option de defaut est egalement donne dans le cas ou il existe un mecanisme de coupe-circuit
This dissertation provides some tools intend to improve valuation of risk and measurement of investment performance. The first two chapters discuss international markets and derivatives. The purpose of the chapter 3 is to develop some consequences of the assumption of no arbitrage opportunities on international markets. Especially, we derive a relationship between risk premium in two countries and the sole volatility of exchange rates. Then, we price cross currency option. Such an option provides an implied correlation coefficient between two currencies. In an empirical study we compare this coefficient with the historical coefficient. The chapter 4 deal with measure of performance using the statistical technique of bootstrap. This technique is attractive in order to resolve problems due to small sample that occur when we measure the performance of a portfolio during a krach, but also because, on every period, we observe only one path of returns and prices. This study includes an empirical part about the performance of a portfolio involving currencies and indices. In the last part, we evaluate the risk of default on future and forward contract and the impact of a margin call mechanism on the risk. For the two kind of contract some numerical simulations are run. The "option of default" is also priced when the future price is ruled by some circuit-breaker regulation
APA, Harvard, Vancouver, ISO, and other styles
34

Boehler, Marie-Claude. "Le droit de la radioprotection : la protection contre le risque radiologique en droit interne et en droit international." Nancy 2, 1994. http://www.theses.fr/1994NAN20010.

Full text
Abstract:
La protection contre le risque radiologique est un des rares domaines de la protection de l'homme contre les nuisances du monde moderne où s'est imposée une universalité de réflexion et de doctrine conduisant à des recommandations que tous les états ont adoptées comme base de leur règlementation. Cette unanimité est due à la qualité des travaux menés par un certain nombre d'organisations internationales à caractère scientifique qui ont entrepris d'élaborer les principes fondamentaux de la radioprotection ainsi que par le relais opéré par les organisations internationales gouvernementales qui transcrivent en normes juridiques les recommandations des organismes scientifiques. Le processus d'élaboration des principes fondamentaux de la radioprotection au niveau international ainsi que le mécanisme de transformation de ces principes en normes juridiques sont analysées. Ce mécanisme explique la persistance et le renforcement de la tendance à l'harmonisation formelle et matérielle des systèmes juridiques nationaux de radioprotection dans lesquels sont transposées ces normes. La réception de celles-ci dans les systèmes juridiques nationaux fait l'objet d'une analyse du cadre juridique de la radioprotection en droit comparé et en droit interne français
The protection against radiological risk is one of the few fields of the protection of mankind against the harmful effects of the modern world, where a worldwide reflexion and doctrine have become imperative and have led to recommendations every state has adopted as a basis of its regulations. This has been accepted unanimously because of the quality of the achievements of a number of international organizations of scientific nature which undertook to elaborate the fundamental principles of radiological protection, as well as through some governmental international organizations which registered in judicial norms the scientific organizations recommendations. The radiological protection fundamental principles elaboration process on an international level as well as the technique of turning them into judicial norms has been analysed. This technique explains the persistence and the reinforcement of the tendency toward the formal and material harmonization of the national judicial systems of radiological protection in which these norms are transposed. Their acceptance in national judicial systems is the subject of the analysis of the radiological protection judiciary framework in comparative law and in French internal law
APA, Harvard, Vancouver, ISO, and other styles
35

Charly, Sigogne. "Contribution à l'analyse de l'évaluation du risque de foudroiement d'un site. Application au pic du midi de Bigorre." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3039/document.

Full text
Abstract:
Le but principal des travaux dont fait l’objet cette thèse, consiste à estimer le risque de foudroiement d’une structure ou d’un site. Un modèle de protection a donc été développé afin d’évaluer les probabilités d’impact sur chaque partie d’une structure complexe. Ce modèle, qui est une évolution du modèle électrogéométrique servant de référence dans les normes de protection, permet notamment d’identifier « très finement » les zones les plus vulnérables de cette structure, quel que soit le type de coup de foudre. À cet effet, une analyse statistique des données du réseau de détection a également été menée et intégrée au modèle pour tenir compte du type de coup de foudre ou encore du contexte géographique. Dans le but de valider ce modèle, celui-ci a été appliqué au site du Pic du Midi de Bigorre, au sommet duquel un ensemble de diagnostics électriques et optiques a été installé. Ce site en altitude présente une structure relativement complexe de par la présence de divers bâtiments et d’une antenne de télédiffusion. Les mesures expérimentales recueillies sur ce site ont mis en évidence le foudroiement quasi systématique de cette antenne, validant ainsi les résultats fournis par le modèle. Par ailleurs, les différents phénomènes physiques mis en jeu lors du foudroiement d’une structure en altitude ont été étudiés grâce à l’instrumentation développée au sommet du Pic du Midi de Bigorre : sondes de courant, capteurs de champ et réseau de caméras. Les différentes phases d’un coup de foudre ont notamment été analysées à partir des mesures des variations rapides du champ électrique. L’analyse de ces variations à l’échelle de la cellule orageuse a également mis en évidence le fait que des décharges apparaissant à plusieurs dizaines de kilomètres du Pic du Midi peuvent initier un coup de foudre ascendant sur le site. Enfin, à partir de l’allure du courant écoulé lors d’un coup de foudre, déduite des enregistrements vidéo d’une caméra rapide, la polarité et le sens de propagation (descendant ou ascendant) de ces coups de foudre ont pu être associés à leurs caractéristiques temporelles et aux quantités de charges consommées au cours de leurs développements
The main purpose of this thesis work is to estimate the risk of a structure or a site being struck by lightning. A lightning protection model was developed with the aim to calculate the impact probability on every part of a complex structure. This model is an evolution of the electrogeometric model used as a reference in the lightning protection standards. In particular it allows identifying the most vulnerable areas of the structure, regardless of the type of lightning. To this end, a statistical analysis of the detection network data was also conducted and integrated in the model to take into account the type of flash or the geographical context. In order to validate this model, it was applied to the site of the Pic du Midi de Bigorre, at the top of which several electrical and optical diagnostics were installed. This site in altitude has a relatively complex structure because of the presence of various buildings and a broadcast antenna. The experimental measurements collected on this site show that the broadcast antenna is struck almost systematically which is in line with the results provided by the model. In addition the different physical phenomena involved during a lightning strike on a structure in altitude were studied using the instrumentation developed at the top of the Pic du Midi de Bigorre: current probes, electric field sensors and video cameras. In particular the different phases of a flash were analyzed from the measurements of the electric field variations. The analysis of the latters at the storm cell scale also highlighted the fact that flashes occurring to tens of kilometers from the Pic du Midi can initiate an upward flash on the site. Finally, the lightning current shape was deduced from video recordings of a high-speed camera. Thus the polarity and the propagation direction (upward or downward) of these flashes were associated with their temporal characteristics and with the charges consumed during their development
APA, Harvard, Vancouver, ISO, and other styles
36

Douet, Jean-Yves Guérin Jean-Luc. "Infections à Riemerella anatipestifer chez le canard mulard analyse des facteurs de risque et des mesures de contrôle /." [S.l.] : [s.n.], 2008. http://oatao.univ-toulouse.fr/2097/1/celdran_2097.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Gravel, Marie. "Structure et performance du réseau des sociétés de capital de risque canadiennes, américaines et européennes." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6692.

Full text
Abstract:
L’analyse de réseau est un outil de plus en plus utilisé dans le domaine financier. En effet, bien que ce type d’analyse ait vu le jour dans le domaine de la sociologie moderne, il est aujourd’hui utilisé dans une multitude de secteurs. Son principal attrait réside dans sa capacité à modéliser les relations entre les différents acteurs d’un marché et à les analyser sous différents angles de façon à en faire ressortir les principales caractéristiques. Le domaine financier en est un tout indiqué pour pratiquer ce genre d’analyse en raison des nombreuses interactions y prenant place. En effet, la syndication, soit la pratique d’investir ou de prêter conjointement à une entreprise, est aujourd’hui un outil largement utilisé par les différents acteurs des marchés financiers en raison des avantages évidents qu’il procure, tels que 1) la possibilité de contre-vérifier son analyse d’un titre, 2) la possibilité de répartir le risque et de combiner l’expertise et le support apporté aux firmes financées et 3) l’opportunité de mettre en commun des ressources et des capacités. Bien que la syndication des prêts par les banques soit bien connue, ce type d’investissement est également utilisé dans d’autres marchés dont celui du capital de risque. Quelques études liées à l’analyse de réseau ont jusqu’ici été réalisées dans ce marché, dont celle de Hochberg et al. (2007). Ces derniers utilisent l’analyse de réseau pour mesurer les connections entre les firmes de capital de risque américaines découlant de la syndication de leurs investissements. De façon encore plus intéressante, Hochberg et al. (2007) cherchent par la suite à comprendre en quoi le positionnement d’une firme de capital de risque au sein de son réseau influence la performance des fonds qu’elle crée et trouvent une relation positive et significative entre la centralité et la performance en contrôlant pour différents facteurs. Bien qu’il soit tentant d’extrapoler ces résultats au marché du capital de risque dans son ensemble, des différences au niveau de la structure des réseaux de capital de risque dans d’autres régions géographiques pourraient mener à des résultats différents. En effet, Hege et al. (2009) soulèvent des différences importantes entre le processus d’investissement des capital-risqueurs européens et américains et concluent que l’approche d’investissement moins sophistiquée en Europe mène à une sous-performance des firmes de capital de risque de ce marché. Nitani et Riding (2013) avancent pour leur part que les résultats des études effectuées sur le marché du capital de risque américain ne peuvent être directement appliqués aux plus petits marchés comme le Canada, car la taille des fonds joue un rôle important dans le degré de syndication observé dans un marché. Plus précisément, les auteurs suggèrent que la proportion élevée de petites firmes de capital de risque et la rareté des grosses firmes de capital de risque sur le marché canadien provoquent des contraintes de capital qui mènent à une sursyndication des investissements. Bien que la syndication ait plusieurs bienfaits, Nitani et Riding (2013) concluent que la sursyndication mine la performance des petites firmes de capital de risque sur le marché canadien et résulte en une probabilité de sortie par IPO ou M&A plus faible pour les entreprises supportées par ces dernières. À la lumière de ces résultats, il semble que malgré la relation positive observée par Hochberg et al. (2007) entre centralité et performance sur le marché américain, un niveau d’interrelations trop important a l’effet contraire lorsque la proportion de petites et de grosses firmes de capital de risque n’est pas balancée dans un marché. Les auteurs n’ont toutefois pas utilisé l’analyse de réseaux pour arriver à ces résultats. En ce sens, l’objectif principal de mon étude est d’utiliser l’analyse de réseau pour observer et comprendre la structure du réseau de syndication dans le domaine du capital de risque canadien de façon à la comparer à celle d'autres pays et d'identifier les particularités canadiennes. Je tenterai par la suite de rapprocher les études de Hochberg et al. (2007) et Nitani et Riding (2013) de façon à déterminer si une relation positive entre la centralité et la performance est également observée sur le marché canadien malgré l’impact négatif découlant des contraintes de capital identifiées sur ce marché. Mon mémoire est divisé comme suit. La section 1 est consacrée à la présentation de mon objectif de recherche et des sous-objectifs qui en découlent. Ensuite, la section 2 présente la revue de littérature en lien avec mon étude et traite 1) des caractéristiques propres au marché du capital de risque, 2) des motifs justifiant la syndication des investissements dans ce marché et des différences observées entre le marché américain et les marchés européen et canadien, 3) de la mesure de la performance dans ce domaine et 4) de la méthodologie et des résultats obtenus par Hochberg et al. (2007). La section 3 correspond pour sa part au cadre théorique et englobe la conceptualisation du problème, les hypothèses de recherche et les aspects innovateurs/contributions de l’étude. La section 4 décrit en détail la méthodologie utilisée afin de tester les hypothèses de recherche et la relation entre la centralité et la performance. Finalement, la section 5 est consacrée à l’analyse des résultats obtenus, alors que la section 6 conclut.
APA, Harvard, Vancouver, ISO, and other styles
38

Oliveira, Aurélien. "Conception et développement de capteurs et vêtements intelligents pour le suivi et la protection des pompiers : mesures thermiques non-invasives ambulatoires." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00677778.

Full text
Abstract:
Les secouristes, par la nature et le cadre de leurs missions, interviennent en environnement à risque et mettent parfois leur santé en danger. Afin de minimiser ce risque, de nouveaux Equipements de Protection Individuelle (veste, tee-shirt et bottes) ont été conçus par un consortium européen de 23 partenaires réunis autour du programme de recherche ProeTEX. Ces travaux de thèse s'inscrivent dans le cadre de ce projet et ont pour objectif de développer un système de monitoring ambulatoire des paramètres thermiques du pompier qui sera intégré aux vêtements intelligents destinés aux secouristes. L'intérêt de cette intégration est le prépositionnement des capteurs afin de réduire le temps de préparation du secouriste. La surveillance s'opère à deux niveaux : l'interface Homme-environnement et le corps. Afin d'évaluer le risque thermique encouru, les paramètres faisant l'objet d'un suivi sont : la température interne, mesurée depuis le tee-shirt, et la température externe et le flux thermique, mesurés dans la veste. Ces paramètres permettent d'apprécier la contrainte thermique imposée par l'environnement et l'état de santé du pompier. Deux méthodes de mesure des paramètres thermiques dans la veste ont été développées. Le projet a abouti au développement de prototypes fonctionnels dont les performances ont été attestées en centre de validation. Des tests ont été conduits en laboratoire et en conditions extrêmes sur le terrain à la Brigade de Sapeurs-Pompier de Paris et au " International Firefighting, Survival and Rescue at Sea Training Center " de Pavie, Italie, pour démontrer la fonctionnalité des EPI en conditions réelles.
APA, Harvard, Vancouver, ISO, and other styles
39

Macchi, Luigi. "A Resilience Engineering approach for the evaluation of performance variability : development and application of the Functional Resonance Analysis Method for air traffic management safety assessment." Paris, ENMP, 2010. http://pastel.archives-ouvertes.fr/pastel-00589633.

Full text
Abstract:
Cette thèse montre la nécessité de développer des méthodes systémiques d'estimation de la sécurité permettant de tenir compte de l'effet de la variabilité de la performance sur la sécurité de la gestion du trafic aérien. Comme la plupart des systèmes socio-techniques modernes, la gestion du trafic aérien est tellement complexe que il lui est impossible d'être complètement décrite. Comme conséquence directe, sa performance ne peut être complètement explicitée, car elle doit varier afin de correspondre aux conditions réelles. La variabilité de la performance est un inévitable atout pour assurer le fonctionnement d'une organisation. Mais en même temps elle peut représenter une atteinte à la sécurité du système lorsqu'elle se déroule de manière indésirable ou inattendue. Cet argument indique la nécessité de méthodes d'estimation de la sécurité qui puissent traiter la variabilité de la performance. La Functional Resonance Analysis Method (FRAM) a la capacité de modéliser la variabilité de la performance. Cependant, certains points de la FRAM pourraient être améliorés dans le but de développer ses capacités a évaluer la variabilité de la performance. Cette thèse aborde ce point faible et développe une méthodologie pour l'évaluation de la variabilité de la performance. Cette méthodologie a été appliquée dans une étude de cas dans le domaine de la Gestion du Trafic Aérien Allemand. Ses résultats ont été comparés aux résultats officiels obtenus en utilisant l'estimation de la sécurité traditionnelle. La comparaison montre la valeur ajoutée de la méthodologie proposée. En particulier elle illustre la possibilité d'identifier des risques émergents et la contribution humaine a la sécurité d'un système
This thesis demonstrates the need to develop systemic safety assessment methods to account for the effect of performance variability on air traffic management safety. Like most modern socio-technical systems, air traffic management is so complex that it is impossible for it to be completely described. As consequence, performance cannot be completely specified because it must vary to meet performance demands. Performance variability is an inevitable asset to ensure the functioning of an organisation and at the same time can be harmful for system safety when it combines in an unexpected manner. This argument clearly indicates the need for safety assessment methods that can deal with performance variability. The Functional Resonance Analysis Method (FRAM) has the ability to model performance variability. However parts of the FRAM can be improved to expand its capabilities to evaluate performance variability. This thesis addresses this weakness and develops a methodology for the evaluation of performance variability. The methodology has been applied on a safety assessment case study for the German air traffic management domain. The results have been compared with the official results of a traditional safety assessment. The comparison shows the added valued of the proposed methodology. In particular it illustrates the possibility to identify emergent risks and human contribution to system safety
APA, Harvard, Vancouver, ISO, and other styles
40

Seck, Babacar. "Optimisation stochastique sous contrainte de risque et fonctions d'utilité." Phd thesis, Ecole des Ponts ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004576.

Full text
Abstract:
Dans un contexte d'ouverture à la concurrence et d'émergence des marchés de l'énergie, la production d'électricité est affectée par de nouvelles sources d'aléas : le risque de marché. Nous étudions la possibilité d'introduire des contraintes de risque financier dans le processus d'optimisation de la production de l'électricité. Nous distinguons l'approche "ingénieur" (prise en compte du risque par des mesures de risque) de l'approche "économiste" (prise en compte du risque par des fonctions d'utilité), au Chapitre 1. Ces deux points de vue sont rapprochés dans le Chapitre 2. Une application numérique relativement simple est présentée pour illustrer le lien qui existe entre la Conditional Value-at-Risk et l'aversion aux pertes. Le résultat d'équivalence obtenu dans le Chapitre 2 est étendu à un cadre d'optimisation dynamique dans le Chapitre 3. Une application numérique de cette approche et une programmation dynamique sous contrainte de risque sont faites au Chapitre 4 pour résoudre un problème de gestion de production de l'électricité sous une contrainte de Condition al Value-at-Risk.
APA, Harvard, Vancouver, ISO, and other styles
41

Fellinger, Anne. "Du soupçon à la radioprotection : Les scientifiques face au risque professionnel de la radioactivité en France." Université Louis Pasteur (Strasbourg) (1971-2008), 2008. http://www.theses.fr/2008STR13130.

Full text
Abstract:
Cette thèse traite des scientifiques face au risque professionnel de la radioactivité en France, sur une période longue, du début du XXè siècle à l’avènement d’une réglementation de la protection des travailleurs, en 1967. Ce travail s’inscrit d’une part, dans une histoire des pratiques scientifiques et de la production de savoir sur le danger des radiations ionisantes, et d’autre part, dans une histoire de la santé au travail. Il examine comment les scientifiques de la radioactivité, issus de disciplines distinctes, identifient le danger et y répondent, par l’élaboration de dispositifs de protection, mais aussi par la mise en place de réglementations et par l’établissement de normes. Cette thèse retrace la mise en place d’un cadre législatif au risque professionnel et montre les similitudes et les spécificités de ce cas par rapport à d’autres risques toxiques. Cette étude attache enfin une attention particulière à la dimension de genre présente dans la construction des savoirs scientifiques sur les radiations comme dans l’encadrement législatif du risque
This thesis deals with scientists facing occupational risks due to radioactivity in France, from 1901 to 1967. Scientists are indeed at the same time victims of the dangers of radiations, experts on the hazardous substances and in charge of the organisation of protection. My study explores their role in the process of risks management and regulation and confronts it to the daily scientific practices in laboratories, through the examples of several laboratories in distinct scientific disciplines: the Laboratoire Curie, at the Radium Institute of Paris during the interwar period and the Laboratory of Nuclear Chemistry, the Laboratory of Nuclear Physics and the Laboratory of Biophysics of Strasbourg, after 1945. This history is thus part of an History of Sciences and Medicine, but is also closed to central topics of an History of Environmental Hazards, especially when it comes to risks in the workplace due to toxic substances. It also takes into account gender issue in the setting of regulation and protection against radiations
APA, Harvard, Vancouver, ISO, and other styles
42

Le, goff Roland. "La protection des navires soumis au risque de piraterie : enseignements tirés de l’épisode de piraterie somalien (2006 à 2013)." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT3012/document.

Full text
Abstract:
Alors que le nombre d’attaques des pirates somaliens semble se stabiliser à un niveau bas en océan Indien depuis l’année 2012, il est désormais possible d’étudier l’efficacité des réponses apportées à cette résurgence ponctuelle de la piraterie. Il s’agit dans un premier temps d’examiner l’évolution historique de la piraterie et la réponse juridique opposée à cette évolution. Puis l’étude se concentre sur les failles du droit qui ont laissé émerger la piraterie somalienne en océan indien. Elle traite des possibilités ouvertes par le droit pour permettre aux Etats et aux organisations internationales de lutter contre la piraterie. Elle traite également du cadre légal de la protection des navires, y compris par l’embarquement de gardes privés qui peuvent être amenés à employer la force. En haute mer, cette possibilité dépend essentiellement du droit de l’Etat du pavillon et l’étude se focalise sur le droit français sans pour autant s’interdire d’introduire des éléments de comparaison avec le droit interne d’autres États. Enfin, après avoir étudié la protection des navires contre les pirates, l’étude traite de la sécurisation des espaces maritimes contre les risques de piraterie. Dans cette perspective, elle examine les conséquences de la piraterie sur le droit interne des États mais aussi, le cas échéant, sur le droit international. En résumé, cette étude dresse un panorama des forces et faiblesse du droit dans la lutte contre la forme de piraterie qui a émergé au large des côtes somaliennes avant de toucher l’ensemble de l’océan indien et examine son impact à court et à plus long terme sur la liberté de navigation
While the number of attacks by Somali pirates appears to be stabilizing at a low level in the Indian Ocean since 2012, it is now possible to identify the effects that had the answers given to this resurgence of piracy, in order to study their effectiveness. The study examines the historical evolution of piracy and legal responses opposed to it. Then it focuses on the particularities of the law that allowed the emergence of Somali piracy in the Indian Ocean. It deals with the peculiarities afforded by the law to allow states and international organizations to fight against piracy in the various maritime areas. It also addresses the legal framework for the protection of vessels, including the employment of private guards that could use force. On the high seas, this possibility depends essentially on the law of the flag state, and the study focuses on French law without refrain from introducing elements of comparison with the national law of other states, when they provide interesting solutions. Finally, after studying ways to protect ships against pirates, the study explores ways to sustainably secure maritime areas against the threat of piracy. In this perspective, it examines the impact of piracy on the domestic law of states but also on international law. In summary, this study provides an as comprehensive as possible overview of the strengths and weaknesses of law in the fight against the form of piracy that emerged off the coast of Somalia before spreading into the whole of the Indian Ocean and examines its impact, short and long term, on the freedom of navigation
APA, Harvard, Vancouver, ISO, and other styles
43

Rouzies, Françoise. "La question de la sécurité dans l'aviation civile : la navigation aérienne à l'épreuve de la société du risque." Paris 1, 2009. http://www.theses.fr/2009PA010724.

Full text
Abstract:
L'aviation civile avait mis en oeuvre des mécanismes de contrôle du danger aéronautique bien avant l'intérêt récent pour la sécurité. Les pratiques historiques liées à la sécurité qui reposaient en partie sur la cohésion des collectifs se sont trouvées disqualifiées en même temps que la question de la sécurité passait à la première place des préoccupations institutionnelles. Pour percevoir les raisons de cette disqualification des pratiques qui étaient celles du moment, il est apparu nécessaire de placer la question de la sécurité dans un contexte plus large. La remédiation de la sécurité visait un changement radical d'habitus, pour reconstruire la sécurité sur des bases anhistoriques et scientifiques. Cette transformation ne peut se comprendre que dans le cadre de la libéralisation du ciel. II s'agit un recentrage sur une de ses valeurs fondatrices de façon compatible avec la concurrence. Ce travail analyse les quelques points forts de la remédiation que sont : l'analyse des incidents de contrôle, la perception de la catastrophe aérienne, la mesure objective de la sécurité et Ie contrôle les comportements. La remédiation conduit peu de changements techniques et structurels de grande ampleur par contre il est l'objet de nombreux échanges, de changement d'organisation, d'une amélioration de la connaissance du système. L'invention de la culture sécurité est une construction, un artefact porte par une réduction du courant culturaliste anglo-saxon, qui se résume à des attitudes, à des règles, visant à contrôler les opérateurs.
APA, Harvard, Vancouver, ISO, and other styles
44

Lamontagne, Franck. "Les accidents exposant au sang chez le personnel infirmier : evolution du risque et impact des mesures preventives. resultats d'une enquete multicentrique." Paris 5, 2001. http://www.theses.fr/2001PA05N082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Wiss, Jacques. "Contribution à l'étude de la sécurité des réacteurs chimiques au point d'ébullition par utilisation du refroidissement par évaporation : techniques d'évaluation des risques, méthodes de conception d'installations sûres." Mulhouse, 1992. http://www.theses.fr/1992MULH0250.

Full text
Abstract:
L'étude de la sécurité ou de la conception d'un procédé chimique sous des conditions de reflux comprend quatre volets : 1) les données thermo-chimiques de la réaction déterminées par une nouvelle méthode de mesure de l'enthalpie de réaction et du flux de chaleur grâce à un calorimètre à flux de chaleur ; 2) la puissance de refroidissement maximale du condenseur est calculée afin d'éviter la dispersion d'un nuage de vapeurs inflammables et/ou toxiques dans l'atmosphère ; 3) une nouvelle corrélation permettant de prévoir l'engorgement du tube des vapeurs est proposée. La puissance thermique maximale admissible dépend de l'enthalpie de vaporisation du solvant et de la section du tube des vapeurs ; 4) la puissance thermique maximale possible pour éviter le trop plein du réacteur induit par l'augmentation du volume apparent à l'ébullition est calculée. Ces paramètres peuvent être calculés à l'aide du logiciel de simulation qui a été développé. Une méthodologie récapitulant la marche à suivre pour la conception et l'étude de la sécurité de tels procédés est présentée sous forme d'un arbre de décisions
APA, Harvard, Vancouver, ISO, and other styles
46

Kervarec, Magali. "Etude des modèles non dominés en mathématiques financières." Phd thesis, Université d'Evry-Val d'Essonne, 2008. http://tel.archives-ouvertes.fr/tel-00370713.

Full text
Abstract:
Dans cette thèse, nous cherchons à introduire un cadre d'étude des problèmes de mathématiques financières qui prennent en compte l'incertitude du modèle. Cette incertitude sera spécifiée par une famille de probabilités martingales qui n'est pas, à priori, supposée dominée (c'est-à dire que ces mesures ne sont pas équivalentes à une probabilité de référence, ni même absolument continues).
La première partie est consacrée à la présentation du cadre d'étude et de ses propriétés. La seconde partie traite de l'étude du problème de maximisation de l'utilité de la valeur terminale d'un portefeuille, en considérant ce cadre d'étude. La troisième et la quatrième partie sont dédiées à la définition et aux propriétés des mesures de risque dans notre cadre. Finalement, nous concluons ce travail en proposant un cadre d'étude dynamique pour introduire des mesures de risque dynamiques.
APA, Harvard, Vancouver, ISO, and other styles
47

Stéphan, Maïté. "Fiabilité du temps de transport : Mesures, valorisation monétaire et intégration dans le calcul économique public." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTD043/document.

Full text
Abstract:
Cette thèse aborde la question de la fiabilité du temps de transport. L’étude de la fiabilité du temps de transport trouve ses sources dans le fait que, dans biens des situations, le temps de transport n’est pas certain, mais aléatoire. De nombreux évènements peuvent en effet modifier le temps de transport prévu par les opérateurs ou espéré par les usagers. Par ailleurs, lors de l’évaluation socioéconomique de projets d’investissement en infrastructure de transport, il peut exister un arbitrage entre gain de temps et gain de fiabilité. Or, comme la fiabilité est encore à l’heure actuelle, difficilement intégrable dans ce type d’évaluation, ces projets d’investissement voient leur rentabilité collective sous-estimée conduisant à leurs reports. Il émerge ainsi trois problématiques majeures relatives à l’étude de la fiabilité du temps de transport : sa mesure, sa valorisation monétaire (i.e. la disposition à payer des individus pour améliorer la fiabilité du temps de transport) et enfin, sa prise en compte dans les analyses coûts-avantages. Un premier chapitre permet d’adapter les mesures usuelles de la fiabilité du temps de transport appliquées dans le cadre du transport routier, aux modes de transport collectif (fer et aérien plus particulièrement). Nous proposons également une nouvelle mesure de la fiabilité, le Delay-at-Risk (DaR) inspiré de la littérature financière. Le DaR est une transposition de la mesure de la Value-at-Risk (V aR) à l’économie des transports. Cette mesure est plus utile du point de vue des usagers pour la planification des trajets avec correspondance que les autres mesures. Le deuxième chapitre a pour principal objectif de déterminer la disposition à payer des individus pour améliorer la fiabilité du temps de transport. Nous proposons un cadre théorique inspiré de la théorie de la décision en univers risqué à partir duquel nous définissons la préférence des individus à l’égard de la fiabilité (i.e. reliabilityproneness) ainsi que la prudence. Nous développons des nouvelles mesures de la fiabilité du temps de transport, exprimées comme des primes de risque : la reliability-premium et la V OR. La reliability-premium détermine le temps de transport maximum supplémentaire qu’un individu est prêt à accepter pour supprimer l’intégralité du risque sur le temps de transport. La V OR, quant à elle, se définit comme la disposition maximale à payer d’un individu pour supprimer l’intégralité du risque sur le temps de transport. Par ailleurs, nous établissons également les conséquences sur la valeur du temps (V TTS) et de la fiabilité (V OR), de la prise en considération de l’attitude à l’égard du risque sur le temps de transport des usagers (aversion et prudence). Le dernier chapitre de cette thèse a pour objet d’intégrer la fiabilité dans les évaluations socioéconomiques de projet d’investissement et plus particulièrement dans la détermination du surplus des usagers. Nous mettons en exergue un effet de diffusion des gains de fiabilité par rapport aux gains de temps. Ainsi, nous proposons des recommandations quant à l’arbitrage entre les projets générateurs de gain de temps et de gain de fiabilité en fonction des valeurs monétaires du temps (V TTS) et de la fiabilité (V OR)
This thesis deals with the issue of travel time reliability. The study of travel time reliability emerges from the fact that in many situations, travel time is random. Many events can change the travel time forecasted by operators or expected by users. Moreover, a tradeoff may exist between time and reliability benefits when evaluating socio economic appraisal of transport infrastructure. However, since reliability is still difficult to integrate in this type of evaluation, investment projects’ collective profitability is underestimated and often postponed. Thus, three main issues of travel time reliability analysis emerge: measurement, monetary valuation and implication for cost benefit analysis. This thesis is organized in three chapters. The first chapter adapts the measure of travel time reliability typically used in the road transport context to the collective modes (rail and air, in particular). We also develop a new reliability measure: the Delay-at-Risk (DaR). DaR is an implementation of the Value-at-Risk (V aR) measure into the transport economic framework. The DaR seem to be relevant and understandable information for the users, especially to plan their travel and avoid missing their connections. The main objective of the second chapter is to define the users’ willingness to pay to improve travel time reliability. We present a theoretical framework based on decision theory under risk. We introduce the concept of reliability-proneness (i.e. travel time risk aversion) and prudence. We develop new measures of travel time reliability expressed as risk premium: the reliability-premium and V OR. The reliability-premium is the maximum amount of additional travel time that an individual is willing to accept to escape all the risk of travel time. The V OR is defined as the maximum monetary amount that an individual is willing to pay to escape all the risk of travel time. Furthermore, we also establish the link with attitudes towards risks of travel time (aversion and prudence) and the impact of the value of travel time (V TTS) and the value of reliability (V OR). The final chapter of this thesis integrates reliability in investments project’s socioeconomic appraisal. More particularly, it allows to determine users’ surplus valuation. We highlight a diffusion effect of reliability benefits with regard to travel time benefits. Thus, we propose recommendations regarding the tradeoff between projects that generate time benefits compared with reliability benefits, according to the monetary values of travel time (V TTS) and reliability (V OR)
APA, Harvard, Vancouver, ISO, and other styles
48

Foucher, Karine. "Principe de précaution et risque sanitaire : recherche sur l'encadrement juridique de l'incertitude scientifique." Nantes, 2000. http://www.theses.fr/2000NANT4026.

Full text
Abstract:
L'émergence du principe de précaution résulte, du fait du progrès des connaissances scientifiques, de la prise de conscience des limites du principe de prévention. Consacré dans le champ de la protection de l'environnement, le principe de précaution a aussi vocation à s'appliquer dans le domaine de la santé publique. Il vise à prévenir des risques de dommages caractérisés par l'incertitude, la gravité et l’irréversibilité. Sa mise en œuvre ne requiert pas l'invention de nouveaux instruments juridiques, elle s'appuie au contraire sur l'arsenal juridique existant de la prévention des risques technologiques (évaluation et autorisation préalables, obligation de suivi, seuil, mesures conservatoires), qu'elle enrichit par la prise en compte de l'incertitude scientifique. Les mesures de gestion des risques se trouvent ainsi "surdimensionnées" par rapport a l'action qui serait prescrite sur la base du principe de prévention. On peut distinguer les implications juridiques du principe de précaution selon qu'elles s'inscrivent dans le cadre de la gestion permissive ou de la gestion conservatoire du risque. L'un des intérêts de cette approche est de montrer que le principe de précaution est un principe d'action qui a vocation a s'appliquer aux différentes phases du processus décisionnel. En recensant, sur la base de cette distinction, les vecteurs actuels ou potentiels de prise en compte de l'incertitude scientifique dans le droit positif, l'on peut ainsi identifier la présence substantielle de ce principe dans le droit positif. Sa consécration formelle n’entraîne donc pas de phénomène de rupture par rapport au droit existant. Il y a au contraire renforcement mutuel entre la présence substantielle du principe de précaution dans le droit positif et sa reconnaissance par le législateur en tant que principe juridique
The emergence of the precautionary principle is the outcome, due to the advancement of scientific knowledge, of an awareness of the limitations of the preventionary principle. µAfter it has been acknowledged in the field of environnemental protection, the precautionary principle is moreover liable to apply in the field of public health. Its aims is to prevent risks of typically uncertain, grevious and irreversible damage. Operating it does not require any new legal instruments, it only requires making use of the existing provisions about the prevention of technological risks (preliminary assessment and licence, compulsory follow up, limitations, measures of conservation) taking into account scientific uncertainty. Such steps taken to manage risks happen to be ample dimensions compared with wathever action could be taken according to preventionary principle. The juridical implications of the precautionary principle fall into two categories, wether the risk is managd in a permissive or in a conservatoryway. The point of this approach is so show that the precautionary principle is a principle for action intented to apply of the various stages of decision making. When one considers that distinction to check off the existing or potential means of the taking uncertainty into account in law, substantial presence of that principole can no doubt be traced in law. Its formal consecration does not lead the to a break with existing law. On the contrary, it allows strengthening the precautionary principle widely developed in law, together with is acknowledgement as a juridical principle
APA, Harvard, Vancouver, ISO, and other styles
49

Weill-Engerer, Sébastien. "Comparaison des mesures femorales par absorptiometrie x et par ultrasons sur le calcaneum pour l'analyse du risque de fracture du col du femur." Lyon 1, 1993. http://www.theses.fr/1993LYO1M198.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Ruillé, Jonathan. "Management des risques intégré des navires et de leurs armements : un ferry peut-il être une organisation à haute fiabilité ?" Nantes, 2015. http://www.theses.fr/2015NANT4027.

Full text
Abstract:
Malgré les évolutions technologiques rendant les navires plus « sûrs », les accidents récents - Costa Concordia (2012), Sewol (2014), Norman Atlantic (2014) – nous rappellent que le transport maritime reste une activité à risque. Pour autant, le trafic maritime n’a jamais été aussi important, que ce soit en nombre de navires ou en tonnes de marchandises transportées, et ces accidents ont une fréquence relativement faible. La multiplication de réglementations et conventions (SOLAS, MARPOL, STCW, ISM, ISPS, MLC 2006, etc. ) vise à les réduire car leurs conséquences peuvent être rapidement dramatiques : des centaines, voire des milliers, de personnes peuvent perdre la vie suite à un naufrage. Les ferries ont donc un impératif de fiabilité face aux dangers qui les menacent. Les responsabilités qui pèsent sur l’équipage sont importantes et chaque jour ils doivent mener le navire d’un point A à un point B en toute sécurité tout en respectant les délais. Cette thèse s’intéresse à la fiabilité organisationnelle en examinant l’organisation permettant à l’équipage, en lien avec les parties prenantes (armement, organisme de contrôle, etc. ), de se saisir de l’ensemble des exigences en matière de gestion des risques et de performance attendue, dans un contexte de mondialisation et de concurrence exacerbée. Durant nos cinq semaines d’embarquement à bord de deux ferries, nous avons combiné une démarche qualitative (observations, entretiens) à une approche quantitative (questionnaires) afin de répondre à la question suivante : un ferry peut-il être une organisation à haute fiabilité ?
Despite the technological developments making the ships more "safe", the recent accidents - Costa Concordia (2012), Sewol (2014), Norman Atlantic (2014) - remind us that the maritime transport remains a risk activity. For as much, the maritime traffic has never been as important, either in number of vessels or in tons of freight transported, and these accidents have a relatively low frequency. The multiplication of regulations and conventions (SOLAS, MARPOL, STCW, ISM, ISPS; MLC 2006, etc. ) is intended to reduce them because their consequences can be quickly dramatic: hundreds, or even thousands, of people may lose their lives due to a shipwreck. Thus, ferries have an imperative of reliability counteracting the dangers that threaten them. The responsibilities which weigh on the crew are important, and each day they have to lead the ship of a point A to a point B safely while respecting the deadlines. This thesis is concerned with the organizational reliability by examining the organization allowing the crew, in link with the stakeholders (shipping company, approved inspection body, etc. ), to seize all of requirements for risk management and performance expected, in a context of globalization and increased competition. During our five-week boarding of two ferries, we combined a qualitative approach (observations, interviews) to a quantitative approach (questionnaires) to answer the question: a ferry can be a high reliability organization ?
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography