To see the other types of publications on this topic, follow the link: Évaluation de modèle de risque.

Dissertations / Theses on the topic 'Évaluation de modèle de risque'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Évaluation de modèle de risque.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Orou, Zime Hamed. "Une évaluation du risque d'innovation sur les rendements boursiers des entreprises américaines." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/35199.

Full text
Abstract:
L’objectif principal de ce mémoire est de mesurer le risque d’innovation sur le rendement des actifs des entreprises. Pour ce faire, nous utilisons trois mesures de l’innovation à savoir : dépense en R&D/Valeur comptable (RD/VC), dépense en R&D/Actif total (RD/AT), et l’élasticité R&D du revenu total (r). Grâce à ces trois mesures, nous construisons trois primes de risques d’innovation. Lorsque la prime d’innovation est associée au ratio RD/VC ou RD/AT, nos résultats indiquent que les entreprises sont non seulement exposées au risque d’innovation, mais aussi que leur sensibilité à ce risque est inversement proportionnelle à leur taille. En revanche, lorsque la prime d’innovation est associée à r, nous remarquons que nos coefficients sont très faibles et peu significatifs. Nous confirmons donc que les entreprises les plus innovantes sont celles qui investissent le plus en recherche et développement.
The principal objective pursued by this thesis is to measure the risk of innovation on the return on corporates assets. To do this, we use three measures of innovation, namely: R&D expenditure / Book value (RD/VC ), R&D / Total assets expense (RD/AT), and the elasticity R&D of the total income (r). Through these three measures, we build three innovation risk premiums. When the innovation premium is associated with the ratio RD/VC or RD/AT , our results indicate that firms are not only exposed to the risk of innovation, but also that their sensitivity to the risk of innovation is inversely proportional to their size. On the other hand, when the innovation premium is associated with r, we notice that our coefficients are very weak and insignificant. We therefore conclude that the most innovative companies are those that invest the most in research and development.
APA, Harvard, Vancouver, ISO, and other styles
2

Longin, Estelle. "Evaluation et régulation émotionnelles dans une situation à risque : le modèle de l'anxiété." Paris 6, 2011. http://www.theses.fr/2011PA066096.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Kacem, Manel. "Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10051/document.

Full text
Abstract:
Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées
In this thesis we focus on two different problems which have as common point the contribution to the modeling and to the risk management in insurance. In the first research theme, we are interested by the modeling of the dependence in insurance. In particular we propose an extension to model with common factor. In the second research theme we consider the class of nonincreasing discrete distributions and we are interested in studying the effect of additional constraint of convexity on the convex extrema. Some applications in ruin theory motivate our interest to this subject. The first part of this thesis is concerned with factor models for the modeling of the dependency in insurance. An interesting property of these models is that the random variables are conditionally independent with respect to a factor. We propose a new model in which the conditioning is with respect to the entire memory of the factor. In this case we give some mixing properties of risk process under conditions related to the mixing properties of the factor process and to the conditional mixing risk process. The law of the sum of random variables has a great interest in actuarial science. Therefore we give some conditions under which the law of the aggregated process converges to a normal distribution. In the second part of the thesis we consider the class of discrete distributions whose probability mass functions (p.m.f.) are nonincreasing on a finite support. Convex extrema in that class of distributions are well-known. Our purpose is to point out how additional shape constraints of convexity type modify these extrema. Two cases are considered : the p.m.f. is globally convex on N or it is convex only from a given positive point. The corresponding convex extrema are derived by using a simple crossing property between two distributions. Several applications to some ruin problems are presented for illustration
APA, Harvard, Vancouver, ISO, and other styles
4

Ramette, François. "Modèle de diagnostic d'entreprise avec des combinaisons de critères qualitatifs : Contribution à l'évaluation du risque de défaillance par une analyse multicritères." Paris 2, 1997. http://www.theses.fr/1997PA020099.

Full text
Abstract:
L'analyse explicative du risque de defaillance est abordee dans cette recherche en deux etapes. La premiere consiste a elaborer une methode permettant de formaliser le lien entre des informations d'ordre qualitatif et la defaillance d'une entreprise. Ensuite, il s'agit de determiner si cette methode complete de maniere significative un diagnostic obtenu a l'aide du score de la banque de france. Ainsi, nous proposons un modele empirique qui, a partir de vingt-cinq variables issues de la base sesame de la banque de france (enquetes 1993 et 1994), permet d'identifier des profils structurels de l'environnement et des processus decisionnels caracteristiques du risque de defaillance. Le modele se fonde sur une synthese des courants de recherche en economie industrielle et en sciences de gestion traitant des differents aspects d'un diagnostic d'entreprise. Les informations utilisees pour connaitre la structure de l'environnement concernent la croissance du marche, le degre de rivalite, l'existence de produits de substitution, et l'importance des barrieres a l'entree. En matiere decisionnelle, les informations prises en compte pour construire le profil de l'entreprise concernent trois centres d'interet: l'anticipation strategique, le positionnement, et la mise en oeuvre de la strategie. En definitive, le modele elabore distingue trois groupes d'entreprises distincts statistiquement en fonction du risque de defaillance. Le premier rassemble des entreprises risquees, le second rassemble des entreprises presentant un risque intermediaire, le dernier rassemble des entreprises faiblement risquees. Pour mesurer l'interet de ce modele, nous avons verifie son pouvoir explicatif au sein des differentes classes de risque obtenues a l'aide du nouveau score de la banque de france. Ce resultat constitue donc une premiere etape dans la construction d'un score qualitatif de la defaillance a partir de donnees economiques et strategiques
The principal aim of this study is to explain the bankruptcy with a combination of economic and strategic variables and to show that this kind of information could improve the performance of models of scoring using financial data. Our study propose a model with twenty five variables from sesame database of the banque de france and their interactions, which explain more than 64% of the bankruptcy. The model is based on concepts belonging to several schools of thought and more specifically the industrial economics, the theory of the firm, and the competitive strategy
APA, Harvard, Vancouver, ISO, and other styles
5

Cruz, Jorge Garcia de la. "Choix et risque en contexte de projet : conception d'un modèle décisionnel." Aix-Marseille 3, 1996. http://www.theses.fr/1996AIX30033.

Full text
Abstract:
La prise de decision est un element majeur de tous les processus d'industrialisation. La globalisation des marches, la diversification croissante des produits, l'eclatement des systemes politiques, les changements sociaux, l'arrivee de secteurs nouveaux et inconnus ; sont autant de facteurs qui contribuent a l'augmentation du niveau de risque lie a la realisation des projets. Ces changements deviennent de plus en plus discontinus, instables, imprevisibles, et conduisent a un monde turbulent, incertain et difficile. Pour les decideurs, donner une structure au probleme s'avere donc, necessaire dans le but de justifier la prise de decision. En gestion de projets, la problematique de la decision est particulierement interessante, car il existe: - une complexite tant au niveaux des faits que des impacts - une temporalite dans le cycle de vie du projet lui meme - une complexite au niveau des acteurs parmi lesquels figure le decideur. En partant de cette problematique, la realisation de cette etude devient essentielle et a pour objectif principal de fournir aux decideurs une methodologie liee a la modelisation du choix et a la minimisation des risques dans la realisation des projets. La demarche systematique que nous avons concue et developpee, compte-tenu de la complexite des projets nous a permis de concevoir une sequence operationnelle que constitue l'approche multicritere-multiacteur. Cette approche, par le biais des outils de l'aide a la decision multicritere, depasse l'approche de la simple optimisation, car elle integre la complexite inherente a tout projet. Les outils d'aide a la decision permettent a la fois d'aboutir a un choix rationnel, en integrant aussi la minimisation du risque dans la demarche decisionnelle
APA, Harvard, Vancouver, ISO, and other styles
6

Fares, Almabrouk. "Risque de salmonellose humaine liée à la consommation de fromage à pâte molle au lait cru : développement d’un modèle pour l’appréciation quantitative du risque." Paris, AgroParisTech, 2007. http://pastel.paristech.org/3463/01/Fares_Thesis_PDF.pdf.

Full text
Abstract:
Les salmonelles sont l'une des causes les plus importantes de maladie transmise par les produits laitiers crus. L'appréciation du risque associé à la consommation de ces produits est nécessaire et la méthode la plus appropriée pour réaliser ce but est l'utilisation du processus d'analyse de risque qui associe les microbes pathogènes dans l’aliment au problème de santé publique. Le but principal de cette thèse est donc d'évaluer quantitativement le risque de salmonellose humaine lié à la consommation de Camembert fromage au lait cru. Les lacunes qui sont en général identifiées pour l’appréciation des risques sont le manque de données quantitatives sur les microbes pathogènes contaminant les aliments. Donc, comme premier objectif de cette thèse, nous avons developeé une méthode rapide, sensible et fiable pour la quantification des salmonelles dans le lait artificiellement contaminé. La méthode a combiné les principes de la méthode du nombre-le plus-probable (NPP) avec une analyse PCR en temps réel. Avec cette analyse (NPP-PCR en temps réel) fiable niveau de la contamination (1- 5 ufc/mL) du lait peut être énuméré après 8 h d'enrichissement non-sélectif dans l'eau peptone tamponée. Toutes les valeurs de nombre le plus probable ont bien correspondu au niveau estimé de contamination des salmonelles inoculées dans des échantillons de lait. Afin d'évaluer l'utilité de cette analyse de quantification, nous l’avons appliquée aux échantillons naturellement contaminés de lait de tank d’exploitations laitières situées dans l’Ouest de la France. Huit (2,68%) des 299 échantillons de lait de tank étaient trouvés positifs, avec des comptes estimés de nombre plus probable s'étendant de 3,7 à 79,2 /mL de lait. En dépit des problèmes d'inhibition observés avec quelques échantillons de lait, l'application de l'analyse par PCR en temps réel pour mesurer des salmonelles dans le lait cru s’est avérée être rapide, facile à exécuter et extrêmement sensible. Dans l'appréciation des risques potentiels liés aux salmonelles dans le lait cru et les produits à base de lait cru il était nécessaire d'examiner la vii capacité des salmonelles à se développer dans le lait. Par conséquent, nous présentons dans cette thèse des modèles primaires et secondaires décrivant mathématiquement la croissance des salmonelles (S. Typhimurium et S. Montevideo) dans le lait à température constante pendant différentes périodes d'incubation. Le modèle logistique avec délai a été employé pour décrire la croissance des salmonelles en fonction du temps. Les taux de croissance spécifiques de S. Typhimurium et de S. Montevideo différent selon le sérotype et la température. Les taux de croissance maximum ont été alors modélisés en fonction de la température en utilisant le modèle cardinal secondaire de Rosso. Les valeurs cardinales obtenues avec S. Typhimurium et S. Montevideo étaient: Tmin 3,02, 3,40 ; Topt 38,44, 38,55 et Tmax 44,51, 46,97°C, respectivement. À la température optimum de croissance (Topt) les taux de croissance maximum étaient 1,36 et 1,39 log10 ufc/h-1 pour S. Typhimurium et S. Montevideo respectivement. Les modèles primaires et secondaires ont permis de bons ajustements aux données de croissance avec un pseudo R2 = 0. 97-0. 99. Un modèle d’appréciation du risque de salmonellose humaine liée à la consommation de Camembert au lait cru est présentée qui est basée sur les résultats des objectifs précédemment mentionnés dans cette thèse. Différentes distributions ont été posées en hypothèse pour des paramètres du modèle et une simulation de Monte Carlo a été employée pour modeler le processus et pour mesurer le risque lié à la consommation de la portion de 25 g du fromage. Le 99th percentile du nombre de cellules de salmonelles dans les portions de 25 g de fromage était 5 cellules à l'heure de la consommation, correspondant à 0,2 cellule des salmonelles par gramme. Le risque de salmonellose par portion de 25 g est compris entre 0 et 1,2 × 10-7 avec une médiane de 7,4 × 10-8. Pour 100 millions de portions de 25g, le nombre de cas de salmonellose prévue par le modèle est en moyenne de 7,4. Quand la prévalence est réduite dans le modèle d’un facteur de 10, le nombre de cas par 100 millions de portions est réduit à moins de 1 cas. En dépit des limites et des données manquantes, nous avons démontré l'avantage de l’appréciation du viii risque non seulement comme outil d’évaluation de risque mais également comme dispositif d’aide à la prise de décision et à la gestion des risques
Salmonellae are one of the most important causes of foodborne illness associated with raw dairy products. The assessment of the real risk associated with the consumption of these products is needed and the most appropriate method to achieve this goal is the risk analysis process which links pathogens in food to the public health problem. The main aim of this thesis is to quantitatively assess the risk of human salmonellosis linked to the consumption of Camembert cheese made from raw milk. A data gap that is routinely identified in risk assessment is the lack of quantitative data on pathogens contaminated food. Therefore, as a first objective of this thesis, we developed a rapid, sensitive and reliable method for the quantification of Salmonella in artificially contaminated milk samples. The method combined the principles of most-probable-number (MPN) method with a real-time PCR assay. With this developed assay (MPN-real-time PCR) low levels of Salmonella (1-5 CFU/mL) in milk could be enumerated after 8 h of non-selective enrichment in buffered peptone water. All estimated MPN counts corresponded well to the estimated contamination level of Salmonella inoculated into milk samples. In order to evaluate the utility of this developed quantification assay, our second objective was to apply it to naturally contaminated bulk tank milk samples collected from dairy farms located in western France. Eight (2. 68%) of 299 bulk tank milk samples were found positive, with estimated MPN values ranging from 3. 7 to 79. 2 MPN/mL of milk. Despite the PCR inhibitors that were apparently present in some raw bulk tank milk samples, the application of the MPN-real-time PCR assay for quantifying Salmonella in raw milk proved to be rapid, easy-to-perform and highly sensitive. In the assessment of potential risks associated with Salmonella in raw milk and raw milk products it was necessary to examine the ability of Salmonella to grow in milk. Therefore, we presented in this thesis as a third v objective, primary and secondary models describing mathematically the growth of two Salmonella strains (S. Typhimurium and S. Montevideo) in milk under constant temperatures during different incubation periods. The primary logistic-with-delay model was used to describe Salmonella growth as a function of time. The specific growth rates of S. Typhimurium and S. Montevideo varied according to serotype and temperature. The maximum growth rates were then modeled as function of temperature using the secondary cardinal Rosso model. The reported cardinal estimates obtained with S. Typhimurium and S. Montevideo were: Tmin 3. 02, 3. 40; Topt 38. 44, 38. 55 and Tmax 44. 51, 46. 97°C, respectively. At the optimum growth temperature (Topt) the maximum growth rates were 1. 36 and 1. 39 log10 CFU/h-1 for S. Typhimurium and S. Montevideo respectively. Both the primary and secondary models fitted growth data well with a high-pseudo R2 (0. 97-99). Finally, a quantitative risk assessment of human salmonellosis linked to the consumption of Camembert cheese made from raw milk is presented. Different distributions were assumed for the parameters of the model and a Monte Carlo simulation was used to model the process and to quantify the risk associated with the consumption of 25 g serving of cheese. The 99th percentile of Salmonella cell numbers in servings of 25 g of cheese was 5 cells at the time of consumption, corresponding to 0. 2 cells of Salmonella per gram. The risk of salmonellosis per 25 g serving varied from 0 to 1. 2 × 10-7 with a median of 7. 4 × 10-8. For 100 million servings of 25g, the expected number of cases of salmonellosis predicted by the model is in average of 7. 4. When the prevalence was reduced in the model by a factor of 10, the number of cases per 100 million servings was reduced to less than 1 case. Despite the limitations and the data gap, we demonstrated the benefit of risk assessment not only as a risk evaluation tool but also as a helping device in the decision-making and the risk management
APA, Harvard, Vancouver, ISO, and other styles
7

Loison, Bertrand. "Les déterminants de l'exposition aux risques liés à l'externalisation des prestations de services informatiques : modèle explicatif et validation empirique." Paris 1, 2009. http://www.theses.fr/2009PA010007.

Full text
Abstract:
L’objectif de cette recherche consiste à modéliser l’exposition aux risques liés à l’externalisation de prestations de services informatiques dans le but d’identifier les dépendances stratégiques directes et induites qui en découlent. Dans un premier temps, un modèle théorique est, sur la base de la revue de la littérature et des principaux travaux empiriques sur le sujet, élaboré puis modélisé par le biais des équations structurelles. Dans un second temps, une démarche de triangulation alliant études qualitative et quantitative permet de valider statistiquement le modèle, avant finalement de confronter nos résultats avec les acteurs du terrain dans l’optique de donner du « sens » et de la « profondeur » aux résultats statistiques. Cette étude renforce l’idée selon laquelle c’est l’identification et la formalisation des liens entre le « coeur de métier » et la fonction informatique qui permet de limiter l’exposition aux risques liés à l’externalisation des PSI et en corollaire d’augmenter la performance et de diminuer la dépendance.
APA, Harvard, Vancouver, ISO, and other styles
8

Torgeman, Mohamed. "Asymétrie d'information et évaluation d'actifs risques." Toulouse 1, 1997. http://www.theses.fr/1997TOU10046.

Full text
Abstract:
Cette thèse étudie différents aspects de l'évaluation des actifs financiers en présence d'agents diversement informés. Elle s'articule autour de trois chapitres indépendants les uns des autres. Le chapitre 1 explore l'efficience au sens fort de Fama (1970) dans les équilibres d'anticipations rationnelles révélateurs. En s'appuyant sur les travaux de Grossman (1978), on établit d'abord un lien entre l'équilibre d'anticipations rationnelles révélateur et l'efficience au sens fort dans un cadre général sans hypothèse particulière sur la distribution des variables, la fonction d'utilité ou la dimension des vecteurs d'information privée. Nous étendons ensuite notre analyse des équilibres d'anticipations rationnelles révélateurs à un contexte dynamique. Le chapitre 2 propose une nouvelle modélisation de l'aléa exogène dans l'équilibre d'anticipations rationnelles partiellement révélateur. Cet aléa n'est plus introduit comme une offre aléatoire, comme cela a été proposé jusqu'à présent dans la littérature, mais plus généralement comme une contrainte aléatoire dans le portefeuille des agents. Le chapitre 3 étudie l'évolution dynamique de la série de Mispricing du contrat de futures sur indice boursier. Dans ce but, on généralise le modèle statique de Holden (1995) à un cadre dynamique. L'équilibre ainsi obtenu est une extension de l'équilibre d'anticipations rationnelles du type de Pfleiderer (1984) à des marchés segmentés de l'indice et du contrat à terme. Ces deux marchés, distincts par un effet de clientèle, sont reliés entre eux par les arbitragistes. Dans ce contexte, on montre que le coefficient de corrélation entre les niveaux successifs de Mispricing est fonction croissante de la maturité du contrat. Ce résultat suggère la présence d'un retour à la moyenne dans la série de Mispricing qui est d'autant plus important que l'on s'approche de l'échéance du contrat. Ce résultat, valable même sans la présence d'arbitragistes sur le marché, nous conduit à réfuter la suggestion de Yadav-Pope (1990, 1995) selon laquelle ce phénomène ne peut être induit que par une activité liée à l'arbitrage
This thesis studies different aspects of financial market equilibrium when traders are diversely informed. Chapter 1 explores the informational efficiency in a fully revealing rational expectations equilibrium models. Using the work of Grossman (1978), we establish the direct link between strong efficiency in the sense of Gama (1970) and fully revealing equilibrium in a general framework without special assumptions on variables distribution, utility function or dimension of private information vector. We also extend our analysis of fully revealing rational expectations equilibrium to a dynamic context. Chapter 2 introduces a new approach to model noisy rational expectations equilibrium. Uncertainty, which prevents price from being fully revealing is not introduced by a random supply as it is proposed in the literature but by a constraint in investment opportunities. Chapter 3 focuses on the dynamic behaviour of stock index futures mispricing series. We develop a rational expectations general equilibrium model in line of Pfleiderer (1984) with competitive stock and futures markets. These two markets, disconnected by a clientele effect, are linked by particular traders called arbitrageurs. This work extends the static model of Holden (1995) to a multiperiod setting. In this context, the mispricing autocorrelation is decreasing with time to maturity. This result suggests, the presence of mean reversion in index futures mispricing. However, in contrast with explanation of Yadav-Pope (1995), we show that this phenomenon is not induced by arbitrageurs
APA, Harvard, Vancouver, ISO, and other styles
9

Pavic, Guillaume. "Une approche socio-cognitive du risque à partir de variables du Modèle des Croyances relatives à la Santé." Rennes 2, 2005. http://www.theses.fr/2005REN20025.

Full text
Abstract:
Le Modèle des Croyances relatives à la Santé vise à expliquer le changement ou le maintien de comportement de santé. Notre souci a été d'appliquer ce modèle aux comportements à risque. Le premier objectif de cette thèse consiste à opérationnaliser les variables de ce modèle dans des situations de comportement à risque. Ces variables seront mises en relation avec les comportements ou intentions comportementales pouvant limiter l'apparition des dommages sanitaires. Le premier objectif consiste en une opérationnalisation des variables du HBM. Le second envisage la possibilité d'augmenter la perception du risque et de diminuer l'optimisme comparatif au moyen de techniques de communication persuasive. Les résultats montrent qu'il existe une cohérence entre les variables du HBM et les comportements des individus. Plus les individus perçoivent une menace pour leur santé et plus ils déclarent vouloir envisager des actions pour se protéger. Le deuxième objectif a permis de mettre en évidence la possibilité d'une action sur certaines des variables du HBM. En revanche, d'autres variables semblent insensibles aux messages de prévention ou l'activation des dommages
The Health Belief Model (HBM) was initially developed during the 70's in order to explain change and maintenance of health behaviour or people's intention to change. The model focalised on prevention action and observance for medical problems. The aim of this work was to apply HBM to risky behaviour. Firstly we operationnalize some variables of the model (perceived susceptibility and severity) in risky situations. We studied the relation between those variables and health behaviours or behavioural intention to limit sanitary damage. Secondly, we try to increase individual perception of risk and decrease comparative optimism by using persuasive communication (prevention message exposition and damage activation). Main results show a consistent link between HBM's variables and behaviour or behavioural intention. When people perceive threat, they declare to have more adaptive behaviour. Prevention message and damage activation have an effect on susceptibility, perceived benefits and comparative optimism, but some of them have no effect (severity and perceived barriers). All these elements show the interest of HBM to dread risk perception
APA, Harvard, Vancouver, ISO, and other styles
10

Sahal, Alexandre. "Le risque tsunami en France : contributions méthodologiques pour une évaluation intégrée par scénarios de risque." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2011. http://tel.archives-ouvertes.fr/tel-00651617.

Full text
Abstract:
Bien souvent segmentées, les approches visant à évaluer le risque tsunami se contentent tantôt d'évaluer l'aléa, tantôt d'estimer les enjeux et leurs vulnérabilités, ce bien souvent de manière disciplinaire. Les différents spécialistes des composantes du risque (géophysiciens, modélisateurs, géographes, économistes, sociologues, etc.) travaillent à des échelles différentes, parlent un langage qui leur est propre. Les opérationnels de la sécurité civile tentent tant bien que mal d'y puiser des solutions de gestion de crise. La démarche proposée dans cette thèse consiste à fédérer l'ensemble de ces composantes pour une évaluation intégrée du risque tsunami. Elle présente des méthodes relatives à l'évaluation : (1) de l'historique de l'aléa et sa modélisation selon différents scénarios probables, (2) des enjeux humains et structurelles suivant les dynamiques spatio-temporelles de la fréquentation humaine des lieux exposés à l'aléa (scénarios d'enjeux), et (3) des capacités de réponse des institutions en charge de la sécurité civile. La confrontation des scénarios d'enjeux et de gestion de crise aux scénarios d'aléas permet une évaluation des dommages potentiels dans des conjonctures spécifiques. La démarche, appliquée à trois sites exposés à forts enjeux, en métropole (Antibes) comme en Outre-mer (La Réunion et Mayotte), apporte ainsi une méthode d'évaluation complète du risque tsunami. Elle fournit aux opérationnels des outils et des solutions de gestion de crise (sélection de zones refuge, modélisation des temps d'évacuation etc.), et des recommandations pour limiter les impacts de futurs événements (préparation et information des populations). Elle fait le lien entre sciences dures, sciences sociales et gestionnaires du risque à travers une approche intégrée et appliquée de l'évaluation du risque.
APA, Harvard, Vancouver, ISO, and other styles
11

Gueye, Dieng Khadidiatou. "Analyse du risque technique de la branche incapacité-invalidité." Lyon 1, 2000. http://www.theses.fr/2000LYO10254.

Full text
Abstract:
L'incapacité et l'invalidité sont des risques couverts dans le cadre de la prévoyance complémentaire et des contrats Emprunteurs. La faiblesse des prestations des régimes de base et le développement des organismes de crédits à la consommation concourent à l'expansion du marché de l'incapacité et de l'invalidité. L'obligation de constituer des provisions suffisantes pour la couverture de ces risques, emmène l'organisme assureur à choisir entre l'utilisation d'une loi de maintien de référence (loi du BCAC par exemple) "rassurante" et d'une loi estimée sur le portefeuille de la compagnie qui risque de générer des erreurs d'échantillonnage à cause de la faiblesse des effectifs des sinistrés. L'estimation des lois de maintien présentent des difficultés qui nécessitent de s'interroger sur le choix de la méthodologie. Dans notre étude nous avons privilégié les méthodes paramétriques d'estimation qui présentent l'avantage de se contenter d'un nombre d'observations beaucoup moins important que les méthodes d'estimation non paramétriques avec une nouvelle approche qui consisteà modéliser la fonction espérance résiduelle. Nous avons par la suite modéliser l'influence de la variable exogène âge à l'entrée sur les lois de maintien. Le modèle paramétrique ainsi obtenu, intègre une variable exogène quantitative. Une extension du test du X2 aux données censurées à droite et tronquées à gauche a été proposée afin de pouvoir vérifier la validité des modèles paramétriques exposés.
APA, Harvard, Vancouver, ISO, and other styles
12

Ainou, Viou. "La gestion du risque de longévité et évaluation de produits dérivés." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10127.

Full text
Abstract:
Nous proposons dans cette thèse, d'étudier le risque de longévité et son impact sur les assureurs et fournisseurs de plans de retraite. Dans la première partie, nous nous intéressons aux différents modèles de mortalité. Partant de cette revue de littérature, nous proposons une extension, par l'utilisation des processus de Lévy, du modèle dit CBD qui tiendra compte des effets de sauts dans la courbe de mortalité. Ce nouveau modèle servira, dans la deuxième partie de la thèse, de sous-jacent à l'évaluation de dérivés de longévité. Nous utilisons comme mesures d'évaluation les transformées dites de Wang et de Esscher que nous aurons au préalable défini et justifié comme étant des mesures martingales équivalentes à la mesure historique. Nous proposons enfin un nouveau contrat appelé « mortality collar » qui, de par sa définition, permet une couverture efficace contre le risque de longévité / mortalité, aussi bien pour un assureur que pour un fonds de pension. Nous apportons une analyse approfondie de cet outil de gestion du risque aussi bien dans son mécanisme, que dans son évaluation
This thesis discuss about the longevity / mortality risk and its impact on pension funds and insurers. In the first part, we consider and expose the different mortality models. The state of art done, we propose an extension, using the Lévy processes, of the well-known model CBD. The Lévy processes are considered to take in account of jumps in mortality curve. The new model will be used, in the second part of this thesis, as underlined index to value the longevity derivatives. We use the Wang and Esscher Transforms as martingales measure because of incompleteness of the longevity market. These two measures are, beforehand, defined and the ways they represent pricing measures are exposed. Finally, we propose a new contract “the mortality collar”, which is a hedging instrument against the longevity or mortality risk, as well as for insurer, but also for pension fund. We give a complete analysis of this new management tool regarding its mechanism and its pricing
APA, Harvard, Vancouver, ISO, and other styles
13

Oliva, Justine. "Eco-épidémiologie du virus influenza D : évaluation du spectre d'hôtes et du risque d'émergence." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30171.

Full text
Abstract:
Des études récentes ont mis en évidence un nouveau genre de virus appartenant à la famille des Orthomyxoviridae, le virus influenza D (IDV). Depuis sa découverte, des études ont montré que ce virus circule sur différents continents et infecte différentes espèces animales. À ce jour, le bovin est considéré comme l'hôte principal du virus. Dans cette thèse, nous nous sommes intéressés à la circulation géographique et au spectre d'hôtes d'IDV, ainsi qu'à sa pathogénicité. L'évaluation du spectre d'hôtes et de la circulation géographique du virus a été menée grâce à des études sérologiques et/ou virologiques sur des cohortes de différentes espèces domestiques en France, au Luxembourg et en Afrique, ainsi que sur des cohortes d'espèces de la faune sauvage et captive de différents pays. Les résultats suggèrent qu'IDV circule de manière plus importante chez les bovins que chez les autres espèces. Par ailleurs, les souches françaises sont génétiquement proches des autres souches européennes, suggérant la circulation d'un même lignage sur le continent. De plus, les camélidés, les marsupiaux ainsi que les cervidés pourraient être de nouveaux hôtes pour le virus. Enfin, un modèle murin a été développé afin d'étudier la pathogénicité du virus. Le pouvoir pathogène d'IDV chez la souris semble faible, bien que des similitudes aient été observées avec un modèle d'infection expérimentale chez le veau. En conclusion, IDV circule mondialement et semble posséder un large spectre d'hôte. Le développement d'un modèle murin d'infection avec IDV nous a permis d'apporter des éléments de réponse sur la pathogénicité du virus, et notamment sur sa réplication de celui-ci et la réponse immunitaire associée
Recently, a novel genus was identified within the Orthomyxoviridae family and named thereafter Influenza D virus (IDV). So far, IDV has been detected on differents continents and differents species are susceptible to the virus. Bovine are considered as a main host for IDV. The PhD was divided in two parts: (i) assessment of the host ranges and the geographical circulation of IDV, and (ii) development of a murine model in order to study the pathogenesis of IDV. First, the host range and geographical circulation of IDV were analyzed using serological and/or virological tools, on domestic species from France, Luxembourg and Africa; but also in wild fauna species from differents countries. We observed that IDV circulates mainly in bovine, but other species, such as swine or small ruminants, seem susceptible to the virus too. Virological and phylogenic analyses demonstrated that IDV strains circulating in France are genetically close to European viral strains. Moreover, it appears that camelids, cervids and marsupials could be new hosts for the virus. Finally, we developed a murine model in order to better understand the pathogenesis of the virus. The results suggest that IDV presents a low pathogenesis in mice compared to what was observed in the calf model, although similarities have been observed. In conclusion, IDV circulates throughout the world and seems to have a wide host range, which includes species from the wild fauna. Moreover, the murine model allowed us to better understand of IDV's pathogenesis, especially its replication (fitness, tropism) and associated immune response
APA, Harvard, Vancouver, ISO, and other styles
14

Dahan, Olivier. "Étude de la détérioration neuropsychologique de l'adulte après irradiation cérébrale : analyse du risque par un modèle mathématique, à partir d'une série rétrospective de 100 patients." Bordeaux 2, 1996. http://www.theses.fr/1996BOR23026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Marri, Fouad. "Évaluation des mesures de ruine dans le cadre de modèles avancés de risque." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26001/26001.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Moutanabbir, Khouzeima. "Évaluation et allocation du risque dans le cadre de modèles avancés en actuariat." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29730/29730.pdf.

Full text
Abstract:
Dans cette thèse, on s’intéresse à l’évaluation et l’allocation du risque dans le cadre de modèles avancés en actuariat. Dans le premier chapitre, on présente le contexte général de la thèse et on introduit les différents outils et modèles utilisés dans les autres chapitres. Dans le deuxième chapitre, on s’intéresse à un portefeuille d’assurance dont les composantes sont dépendantes. Ces composantes sont distribuées selon une loi mélange d’Erlang multivariée définie à l’aide de la copule Farlie-Gumbel-Morgenstern (FGM). On évalue le risque global de ce portefeuille ainsi que l’allocation du capital. En utilisant certaines propriétés de la copule FGM et la famille de distributions mélange d’Erlang, on obtient des formules explicites de la covariance entre les risques et de la Tail-Value-at-Risk du risque global. On détermine aussi la contribution de chacun des risques au risque global à l’aide de la régle d’allocation de capital basée sur la Tail-Value-at-Risk et celle basée sur la covariance. Dans le troisième chapitre, on évalue le risque pour un portefeuille sur plusieurs périodes en utilisant le modèle de Sparre Andersen. Pour cette fin, on étudie la distribution de la somme escomptée des ladder heights sur un horizon de temps fini ou infini. En particulier, on trouve une expression ferme des moments de cette distribution dans le cas du modèle classique Poisson-composé et le modèle de Sparre Andersen avec des montants de sinistres distribués selon une loi exponentielle. L’élaboration d’une expression exacte de ces moments nous permet d’approximer la distribution de la somme escomptée des ladder heights par une distribution mélange d’Erlang. Pour établir cette approximation, nous utilisons une méthode basée sur les moments. À l’aide de cette approximation, on calcule les mesures de risque VaR et TVaR associées à la somme escomptée des ladder heights. Dans le quatrième chapitre de cette thèse, on étudie la quantification des risques liés aux investissements. On élabore un modèle d’investissement qui est constitué de quatre modules dans le cas de deux économies : l’économie canadienne et l’économie américaine. On applique ce modèle dans le cadre de la quantification et l’allocation des risques. Pour cette fin, on génère des scénarios en utilisant notre modèle d’investissement puis on détermine une allocation du risque à l’aide de la règle d’allocation TVaR. Cette technique est très flexible ce qui nous permet de donner une quantification à la fois du risque d’investissement, risque d’inflation et le risque du taux de change.
In this thesis, we are interested in risk evaluation and risk allocation blems using advanced actuarial models. First, we investigate risk aggregation and capital allocation problems for a portfolio of possibly dependent risks whose multivariate distribution is defined with the Farlie-Gumbel-Morgenstern copula and with mixed Erlang distributions for the marginals. In such a context, we first show that the aggregate claim amount has a mixed Erlang distribution. Based on a top-down approach, closed-form expressions for the contribution of each risk are derived using the TVaR and covariance rules. These findings are illustrated with numerical examples. Then, we propose to investigate the distribution of the discounted sum of ascending ladder heights over finite- or infinite-time intervals within the Sparre Andersen risk model. In particular, the moments of the discounted sum of ascending ladder heights over a finite- and an infinite-time intervals are derived in both the classical compound Poisson risk model and the Sparre Andersen risk model with exponential claims. The application of a particular Gerber-Shiu functional is central to the derivation of these results, as is the mixed Erlang distributional assumption. Finally, we define VaR and TVaR risk measures in terms of the discounted sum of ascending ladder heights. We use a moment-matching method to approximate the distribution of the discounted sum of ascending ladder heights allowing the computation of the VaR and TVaR risk measures. In the last chapter, we present a stochastic investment model (SIM) for international investors. We assume that investors are allowed to hold assets in two different economies. This SIM includes four components: interest rates, stocks, inflation and exchange rate models. First, we give a full description of the model and we detail the parameter estimation. The model is estimated using a state-space formulation and an extended Kalman filter. Based on scenarios generated from this SIM, we study the risk allocation to different background risks: asset, inflation and exchange rate risks. The risk allocation is based on the TVaR-based rule.
APA, Harvard, Vancouver, ISO, and other styles
17

Terraza, Virginie. "Modélisations de la value at risk : une évaluation de l'approche riskmetrics." Paris 2, 2002. http://www.theses.fr/2002PA020032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Blais, Philippe. "Élaboration d'un modèle de trafic à partir de données massives de trajectoires automobiles en assurance." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69181.

Full text
Abstract:
En assurance automobile, la prédiction du risque est un enjeu majeur. Pour faire les meilleures prédictions possibles, il est important d'utiliser les bonnes informations. Dans les récentes années, un nouveau modèle d'assurance a vu le jour, le Usage-Based-Insurance (UBI), qui a permis la mesure de nouvelles variables comme les freinages ou les accélérations, appelées évènements. Par ailleurs, l'arrivée du UBI a amené l'industrie à s'intéresser davantage à la compréhension des comportements routiers, ce qui s'est traduit par le besoin de contextualiser ces évènements pour arriver à mieux comprendre leurs causes. Le but de cette recherche est de répondre à ce besoin de contextualisation en utilisant le trafic. L'objectif du projet est de modéliser le trafic à partir des données massives de trajectoires automobiles générées via le UBI. Deux méthodes de modélisation sont présentées. La première utilise une méthode de clustering pour détecter la congestion à partir de distributions de vitesses moyennes. La deuxième s'appuie plutôt sur une méthode de calcul de temps de parcours au niveau du segment routier. Les résultats de cette recherche confirment qu'il est possible d'utiliser les données d'assurance pour modéliser le trafic.
APA, Harvard, Vancouver, ISO, and other styles
19

Meurisse, Stéphane. "Quel danger fera-t-il demain ? : le rôle des expectations de protection sur l'activation différentielle des composantes du modèle de l'implication et de la construction de la culture du risque : l'exemple des risques météorologiques." Toulouse 2, 2008. http://www.theses.fr/2008TOU20010.

Full text
Abstract:
Le terrain d’étude de la météorologie sert ici de prétexte pour montrer comment se construit une culture du risque. Pour prévenir les risques liés aux phénomènes météorologiques intenses, dont certains sont associés à l’effet du réchauffement climatique, des plans de prévention et notamment la « carte de vigilance » ont été mis en oeuvre suite aux tempêtes de 1999. Nous nous posons la question de savoir quel peut être l’impact de cette recrudescence des alertes météorologiques sur les représentations des risques. Ne serait-elle pas un des éléments « activateur » de cette « société du risque » ? Les alertes « ratées », ne décrivant pas les effets météorologiques réellement produits, participent à définir une réalité venant renforcer la culture du risque. En tenant compte d’un ancrage historique et social des expectations de protection nous avons mesuré leurs influences sur les principales composantes du modèle de l’implication (Repères – Sens – Sentiment de contrôle) et tout particulièrement sur la dimension du « Sens » en le décomposant en trois variantes. Les sujets impliqués professionnellement ont un traitement différentiel de ces messages de prévention rapprochant leurs représentations de celle d’autres professionnels : les prévisionnistes. La recherche révèle deux attitudes face aux risques. Certains sujets tentent de minimiser les risques en mobilisant des compétences pour « se protéger » et d’autres de les amplifier afin « d’être protégés ». Les expectations de protection laissent entrevoir l’influence qu’elles peuvent générer sur les organisations faisant émerger de nouvelles pratiques professionnelles des prévisionnistes pour répondre à ce sentiment d’insécurité
The study of weather conditions is the framework which helped us determine the building process of a risk-based culture. Preventive measures, such as the « warning map », have been designed after the 1999 winter storms, in order to forecast risks linked to severe meteorological phenomena – some of which are associated to global warming. What could be the impact of the increasing number of weather alerts on the representations of risk? Could this increase be a « catalyst » in this « risk society » ? False alarms, which fail to describe actual weather conditions, contribute to define a reality that shapes a risk-based culture. We based our assessment of the influence of protection expectations on the principal features of the implication model (Landmark, Sense, Meaning of Control), on a historical and social background. We particularly focused on Sense, and established three main areas. Professionally implicated people adopt various approaches to warning messages. Their representations correspond to those other professional people : weather forecast specialists. Studies have unveiled two attitudes when people are confronted to a risk. Some tend to minimize the impact of a risk, as they gather up skills of « self-protection », while others maximize these skills to seek « external protection ». Thus, one could foresee the influence of protection expectations on organisations, which could give birth to new professional processes elaborated by weather forecasters, in order to respond to the feeling of insecurity
APA, Harvard, Vancouver, ISO, and other styles
20

Mailhot, Mélina. "Mesures de risque et dépendance." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29656/29656.pdf.

Full text
Abstract:
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités.
In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
APA, Harvard, Vancouver, ISO, and other styles
21

Aguessy, François-Xavier. "Évaluation dynamique de risque et calcul de réponses basés sur des modèles d’attaques bayésiens." Thesis, Evry, Institut national des télécommunications, 2016. http://www.theses.fr/2016TELE0016/document.

Full text
Abstract:
Les systèmes d'information sont une cible de plus en plus attractive pour les attaquants. Dans cette thèse de doctorat, nous construisons une méthodologie complète d'analyse statique et dynamique de risque prenant en compte la connaissance à priori d'un système avec les événements dynamiques, afin de proposer des réponses permettant d'empêcher les attaques futures. Tout d'abord, nous étudions comment corriger les attaques potentielles qui peuvent arriver dans un système, en s'appuyant sur les graphes d'attaque logiques. Nous proposons une méthodologie de remédiation corrigeant les chemins d'attaque les plus significatifs. Les remédiations candidates sont classées en fonction de leur coût opérationnel et leur impact sur le système. Les graphes d'attaques ne peuvent pas être directement utilisés pour l'évaluation dynamique de risque. Nous étendons donc ce modèle pour construire des modèles d'analyse dynamique de risque basés sur des réseaux bayésiens. Le modèle hybride d'évaluation de risque se divise en deux modèles complémentaires: (1) Les modèles de corrélation de risque, permettant d'analyser les attaques en cours et fournir les probabilités de compromission des états du système, (2) les modèles d'évaluation du risque futur, permettant évaluer les attaques futures les plus probables. Nous analysons la sensibilité des paramètres probabilistes du modèle et en validons les résultats à partir de graphes d'attaque topologiques
Information systems constitute an increasingly attractive target for attackers. Given the number and complexity of attacks, security teams need to focus their actions, in order to select the most appropriate security controls. Because of the threat posed by advanced multi-step attacks, it is difficult for security operators to fully cover all vulnerabilities when deploying countermeasures. In this PhD thesis, we build a complete framework for static and dynamic risk assessment including prior knowledge on the information system and dynamic events, proposing responses to prevent future attacks. First, we study how to remediate the potential attacks that can happen in a system, using logical attack graphs. We build a remediation methodology to prevent the most relevant attack paths extracted from a logical attack graph. In order to help an operator to choose between several remediation candidates, we rank them according to a cost of remediation combining operational and impact costs. Then, we study the dynamic attacks that can occur in a system. Attack graphs are not directly suited for dynamic risk assessment. Thus, we extend this mode to build dynamic risk assessment models to evaluate the attacks that are the most likely. The hybrid model is subdivided in two complementary models: (1) the first ones analysing ongoing attacks and provide the hosts' compromise probabilities, and (2) the second ones assessing the most likely future attacks. We study the sensitivity of their probabilistic parameters. Finally, we validate the accuracy and usage of both models in the domain of cybersecurity, by building them from a topological attack graph
APA, Harvard, Vancouver, ISO, and other styles
22

Torterotot, Jean Philippe. "Le coût des dommages dus aux inondations : Estimation et analyse des incertitudes." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://tel.archives-ouvertes.fr/tel-00421862.

Full text
Abstract:
Parmi les nombreux effets des événements d'inondations fluviales, les atteintes aux personnes, les dégradations de biens et les perturbations d'activités constituent des dommages que les politiques de gestion du risque d'inondation visent à réduire. Ces dommages résultent d'un aléa naturel modifié par action anthropique, des enjeux exposés et des ressources mises en œuvre face à l'événement.
La première partie de ce mémoire propose un cadre conceptuel pour l'estimation des dommages comme élément d'aide à la décision, notamment dans une perspective économique intégrant le risque et l'incertitude.
La deuxième partie considère l'échelle élémentaire de l'habitat, et se base sur des enquêtes réalisées sur différents sites auprès des ménages sinistrés. Après une analyse de l'occupation des zones inondables, on caractérise les composantes du facteur humain, et en particulier les réponses à l'annonce de crue et à la montée des eaux. Ces réponses et leurs effets sur les dommages sont étudiés par des techniques d'analyses de données, qui intègrent d'autres facteurs significatifs.
La troisième partie du mémoire traite de l'estimation des dommages sur une aire géographique, par des approches de modélisation. À partir d'une analyse conceptuelle de ces modélisations, est défini puis développé un modèle informatisé d'estimation des dommages sur un secteur inondable. Ce modèle local exploite, selon des procédures descriptives explicites, toutes informations et expertises existantes. Il est mis en œuvre sur 245 secteurs, à partir d'une base de données constituée sur les grandes vallées du bassin de la Loire. Une procédure de simulation permet de quantifier les incertitudes sur les estimations de coûts, en analysant les contributions des différentes sources d'incertitude. À échelle régionale, on analyse les effets des cohérences spatiales des crues et des sources d'incertitudes.
La quatrième partie conclut sur les méthodes développées et propose des perspectives ultérieures de recherches.
APA, Harvard, Vancouver, ISO, and other styles
23

Sapolin, Bertrand. "Construction d'une méthodologie d'évaluation statistique des logiciels de dispersion atmosphérique utilisés en évaluation de risque NRBC et développement d'un modèle d'estimation de l'incertitude des résultats." Paris 7, 2011. http://www.theses.fr/2011PA077217.

Full text
Abstract:
La dispersion atmosphérique intentionnelle ou accidentelle de substances toxiques d'origine nucléaire, radiologique, biologique ou chimique (NRBC) peut avoir des conséquences sanitaires graves. Pour les estimer, l'évaluation de risque NRBC s'appuie, entre autres, sur des modèles d'écoulement/dispersion atmosphérique. En calculant l'évolution spatio-temporelle de la concentration en polluant, ces modèles permettent de quantifier l'effet toxique potentiel sur l'homme. Les évaluer suppose de comparer leurs résultats à des données expérimentales. Or, les méthodologies existantes de comparaison modèle/expérience ont deux défauts : d'une part elles sont inadaptées au contexte d'évaluation de risque NRBC, et d'autre part elles sont biaisées car elles reposent sur des comparaisons directes modèle/expérience. La turbulence dans la couche limite atmosphérique introduit une composante aléatoire importante dans les observations, donc un écart inévitable au résultat de modèle, fût-il « parfait ». Dans cette thèse, deux outils sont construits pour combler ces lacunes. Le premier est une méthodologie de comparaison modèle/expérience spécifiquement adaptée à l'évaluation de risque. Le second est un modèle statistique empirique de calcul de l'incertitude des résultats de simulation. Associé à un modèle de dispersion probabiliste, le modèle statistique proposé permet de calculer une enveloppe de réponse plutôt qu'un résultat « moyen » unique, celui-ci étant peu exploitable malgré son omniprésence dans les évaluations de risques actuelles. Utilisés conjointement, les deux outils développés dans cette thèse donnent à la comparaison modèle/expérience l'objectivité souhaitée
Atmospheric dispersion of contaminated clouds following deliberate or accidental releases of CBRN (chemical, biological, radiological, nuclear) toxic substances may have serious health impacts. In order to estimate them, CBRN risk assessment activities rely, among other things, on atmospheric dispersion models. These models compute the concentration field of pollutant in order to quantify potential adverse effects on human population. They need to be evaluated, which means their outputs have to be compared to experimental data within an appropriate methodology. Now, existing evaluation methodologies have two flaws: firstly they are not suited to risk assessment, and secondly their results may be somewhat arbitrary because they are based on direct comparisons between observations and model results. Turbulence in the atmospheric boundary layer introduces a large random component in the observations, and thus an inevitable gap between observations and model results, be the latter "perfect". In this thesis two tools have been built to fix these issues. The first one is an evaluation methodology suitable for the risk assessment context. The second one is an empirical statistical model meant to estimate the uncertainty in the simulation results. It can be associated to an atmospheric dispersion model with probabilistic capabilities in order to produce an envelop of the answer rather than a unique "average" result, the latter being of little use despite its omnipresence in current risk assessment studies. When used jointly, the two tools developed in this thesis enable model/experiment comparisons to be more objective and less subject to experimental randomness
APA, Harvard, Vancouver, ISO, and other styles
24

Bellenger, Pascale. "L' erreur humaine : élaboration d'un modèle représentationnel des risques dans le secteur agroalimentaire." Caen, 2009. http://www.theses.fr/2009CAEN1548.

Full text
Abstract:
Pourquoi les opérateurs, dans le secteur agroalimentaire, ne respectent-ils pas les consignes procédurales, celles d'hygiène alors qu'ils connaissent parfaitement ces dernières ? Confrontés à ce constat, les ingénieurs conseils de l’ADRIA Normandie et les psychologues cognitifs de l’Université de Caen Basse-Normandie décident de lancer un projet régional sur le comportement humain au sein des entreprises agroalimentaires régionales. L'objectif de cette étude est double. Tout d'abord, nous proposons un modèle cognitif permettant d'expliquer les raisons du non-respect des consignes. Ensuite, des recommandations possibles susceptibles de minimiser les risques de ce non-respect dans le secteur agroalimentaire sont suggérées. L'hypothèse principale de cette étude est la suivante : l’élaboration d'un modèle représentationnel ne serait pas totale par manque de connaissances spécifiques telles que celles des phénomènes susceptibles de provoquer un fait. En effet, les résultats de l'analyse factorielle confirmatoire (AFC) montrent que l'élaboration du modèle représentationnel des conséquences pour le produit, liées au non-respect des consignes, (t = 4,62, p < 0,05) et la construction de celui des risques d'hygiène inhérents à l'activité de l'entreprise (t = 5,41, p < 0,05) sont effectives. Cependant, ces modèles sont élaborés partiellement : 36 % pour le premier et 50 % pour le second
APA, Harvard, Vancouver, ISO, and other styles
25

Nalpas, Nicolas. "L'énigme de la prime de risque : évaluation sur données françaises et tentative de solution." Paris 1, 2003. http://www.theses.fr/2003PA010014.

Full text
Abstract:
Cette thèse comprend deux parties, chacune composée de deux chapitres. La première partie se présente comme une contribution à dominante empirique, cherchant à savoir s'il existe bien une énigme de la prime de risque dans les données françaises. Dans le premier chapitre, nous développons les étapes nécessaires à la construction du modèle d'évaluation d'actifs fondée sur la consommation (C-CAPM) qui servira de fil conducteur tout au long de cette thèse. Nous détaillons ses hypothèses et explorons les principales alternatives visant à généraliser la représentation traditionnelle additive et séparable des préférences. Nous montrons, dans le deuxième chapitre, la présence d'une énigme de la prime de risque sur les données françaises, et d'autre part, que les modifications traditionnelles des préférences ne permettent pas de les résoudre. Ceci nous conduit dans la seconde partie à explorer les contributions des nouvelles théories de la décision dans le risque et de leurs applications potentielles en finance. Cette partie se veut, principalement, une contribution théorique visant à proposer une solution aux deux premières énigmes du C-CAPM ; à savoir les énigmes de la prime de risque et du taux sans risque. Nous l'abordons sous l'angle d'une généralisation des préférences, en adoptant une modélisation non espérance d'utilité des préférences de l'agent représentatif. Nous montrons, à l'aide d'une axiomatique modélisant un comportement d'aversion pour la déception exposée au chapitre 3, que la prise en compte d'agents ayant un comportement vis-à-vis de la déception permet d'apporter une solution satisfaisante aux énigmes du C-CAPM.
APA, Harvard, Vancouver, ISO, and other styles
26

Tixier, Philippe. "Conception assistée par modèle de systèmes de culture durables : application aux systèmes bananiers de Guadeloupe." Montpellier, ENSA, 2004. http://www.theses.fr/2004ENSA0019.

Full text
Abstract:
Aujourd’hui, la culture bananière aux Antilles est confrontée à d’importants problèmes agronomiques (rendements faibles à cause du développement important de pathogènes), environnementaux (transport de pesticides et de sol vers les eaux de surface, dans un contexte écologique insulaire fragile) et économiques (variation du prix de vente des fruits et coût de la main d’œuvre élevé) susceptibles de remettre en cause la pérennité de la filière. Dans ce contexte, des systèmes de culture innovants répondant à un nouveau cahier des charges économique et environnemental doivent être mis au point. Plusieurs voies sont explorées qui, au-delà d’un mode de conduite raisonné, visent à l’intégration de jachères, de rotations ou de plantes associées. L’évaluation et la conception de tels systèmes de culture innovants nécessitent l’utilisation d’outils de modélisation spécifiques qui rendent compte des caractéristiques particulières du système. Un modèle spécifique appelé SIMBA a été développé dans ce sens. SIMBA simule l’évolution de la structure du peuplement de bananiers au cours des cycles de culture, point clé qui conditionne l’ensemble de la dynamique du système. La composante parasitaire, qui influe sur la pérennité de la bananeraie et conditionne l’emploi des produits phytosanitaires est également prise en compte. Le parasitisme des nématodes phytoparasites est simulé, en interaction avec la croissance et la structure du peuplement, l’état du sol et l’emploi de nématicides. SIMBA simule également la croissance des bananiers et leur productivité, la structure du sol, la couverture du sol et le bilan hydrique. Des indicateurs qualitatifs et intégrateurs, conçus spécifiquement, permettent, couplés à ces modules biophysiques, l’évaluation au cours du temps de risques environnementaux comme le risque de pollution des eaux par les produits phytosanitaires et le risque d’érosion. Les pratiques culturales sont prises en compte à travers des règles de décision qu’il est ainsi possible d’évaluer. Le modèle SIMBA, en fournissant des sorties agronomiques, environnementales et économiques (marge brute), permet ainsi l’évaluation multicritère de systèmes de culture simulés selon plusieurs points de vue. SIMBA a ensuite été utilisé selon une méthode originale de prototypage en deux étapes (exploration globale puis optimisation spécifique). Les résultats obtenus ont permis d’identifier certains systèmes de culture qu’il conviendra de tester ‘au champ’. Cette approche systémique et fonctionnelle, qui a permis des avancées significatives au niveau de la modélisation des systèmes bananiers, constitue un outil performant pour la conception de systèmes de culture durables
Guadeloupe banana cropping systems are threatened by agronomic (low yield due to phytoparasitic nematode development), environmental (pesticide leaching to water, particularly important in a fragile insular setting) and economic (seasonal variations in fruit prices, manpower costs) unsustainability. New systems have to be designed to solve both economic and environmental problems. Rotations with other crops or fallows, biodiversity restoration, pesticide management are some current investigated solutions. Modelling tools have been developed to combine practices, explore and optimise such systems. Banana cropping systems have some characteristics that cannot be taken into account by generic crop models; a specific model called SIMBA has been developed. The evolution of the banana population structure over time is a key point; it is simulated by SIMBA-POP, a cohort population model. Parasitism dynamics mainly due to phytoparasitic nematodes lower cropping sustainability and lead to massive use of pesticides; this is simulated by the dynamic SIMBA-NEM module. SIMBA also simulates plant growth, the soil cover and structure or water balance. Cropping practices are taken into account by decision rules that give rise to realistic technical recommendations. Qualitative, integrated and dynamic indicators are linked to biophysical modules and allow evaluation of the pesticide leaching risk, erosion risk and soil fertility. SIMBA provides agronomic (yield), environmental and economic (profit margin) outputs for multicriteria evaluation of the simulated system based on different viewpoints. An original 2-step method has been used to prototype new cropping systems with SIMBA (first a global exploration then a specific optimisation). Some interesting cropping systems have thus been highlighted and should be tested in the field. This scientific approach permits to develop some significant progress in the banana modelling by aggregating the existing knowledge and highlight the missing ones
APA, Harvard, Vancouver, ISO, and other styles
27

Dorn, Jochen. "Évaluation, modélisation et couverture des produits structurés de crédit." Paris 1, 2008. http://www.theses.fr/2008PA010059.

Full text
Abstract:
Ce travail de thèse initié en novembre 2005 au sein du laboratoire PRISM se place dans le cadre de la conduite du processus d'évaluation d'un nouveau type de classe d'actif financier : les dérivés de crédit. A la fin des années 90 et comme conséquence cie la réglementation Bâle, les institutions financières cherchaient des solutions pour transférer le risque de crédit en dehors de leur bilan afin de pouvoir se refinancer à moindre coût. En même temps les investisseurs recherchaient des produits financiers de plus en plus complexes dans le but d'améliorer le rendement. Ainsi la classe d'actifs des structures de crédit s'est imposée sur le marché. Il s'agit des dérivés qui conjuguent techniques de titrisation et caractéristiques optionnelles dans le but de répondre aux nouveaux besoins des institutions financières ainsi qu'aux exigences des investisseurs. L'auteur présente de différents montages de dérivés de crédit complexes et analyse des risques inhérents. Ensuite il propose des formules d'évaluation fermées dans les cas où ces dernières n'existaient pas auparavant. A noter que dans la plupart des cas les banques ont recours à des méthodes de simulation afin de déterminer les prix (une approche longue et peu adaptée aux besoins des salles de marché). Ensuite des approches de couverture sont proposées qui visent à maîtriser les positions concernant des produits financiers dont on ignorait les risques associés encore il y a peu de temps. Le première partie de la thèse est consacrée à la présentation du contexte économique et de marché. Or plus il fournit un résumé pédagogique des différents outils quantitatifs et des concepts scientifiques essentiels à la compréhension des dérivés de crédit. Ensuite l'auteur consacre respectivement une partie au Collateralized Oebt Obligations (COOs), aux options sur tranches de COOs, aux COO Squareds, aux Constant Proportion Collateralized Oebt Obligations (CPOOs), et au Foreign Exchange Collateralized Obligations (CFXOs). . Bien qu'initié il y a trois ans, ce travail gagne de l'importance dans le contexte actuel de la crise des "subprimes".
APA, Harvard, Vancouver, ISO, and other styles
28

Rafrafi, Meriem. "Une approche harmonisée pour l'évaluation de la sécurité des systèmes ferroviaires : de la décomposition fonctionnelle au modèle comportemental." Phd thesis, Ecole Centrale de Lille, 2010. http://tel.archives-ouvertes.fr/tel-00586085.

Full text
Abstract:
Les systèmes complexes ferroviaires étant de plus en plus contraints par des autorités de décision placées à un haut niveau d'abstraction, il devient problématique d'imposer des critères à une autre échelle que fonctionnelle. Ainsi, dès lors que l'on descend plus bas, nous sommes confrontés à des spécificités des systèmes nationaux qui font perdre la généralité du travail des décisionnaires Européens. Le problème est qu'à chaque niveau d'abstraction, des méthodes d'évaluation du risque existent, mais sans être compatibles entre elles. Par ailleurs, la combinaison des couches et la vision fonctionnelle du système ne prennent pas en compte l'impact des fonctions les unes sur les autres, ni le lien entre le niveau global et les composants afin d'allouer la sécurité.Nous proposons donc une démarche harmonisée d'évaluation du risque, capable de répartir les contraintes définies au niveau fonctionnel abstrait sur les entités qui implémentent les systèmes avec leurs spécificités.Notre contribution est méthodologique. Elle part d'un modèle fonctionnel du système ferroviaire constitué en couches. Le but étant de représenter ce système sans dépendance entre les fonctions, il a fallu les traduire indépendamment des autres en faisant apparaître les entrées/sorties comme des places/transitions d'un réseau de Petri. A chaque couche de la décomposition correspond une classe de réseau de Petri. Ainsi, à la couche structurelle, nous associons les réseaux de Petri Temporels; à la couche fonctionnelle les réseaux de Petri stochastiques et à la couche logique les réseaux de Petri Prédicats Transitions
APA, Harvard, Vancouver, ISO, and other styles
29

Biteau-Coroller, Fabienne. "Surveillance et évaluation du risque de transmissiondes maladies vectorielles émergentes : apport de la capacité vectorielleExemple de la fièvre catarrhale du mouton." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00137450.

Full text
Abstract:
Les maladies animales vectorielles sont devenues depuis 2000 une préoccupation majeure pour la France et certains pays de l'Union Européenne du fait de l'apparition, la persistance et l'expansion de virus pathogènes en provenance de régions du Sud. La fièvre catarrhale du mouton (FCM) est un bon exemple de la progression en zone tempérée d'arboviroses tropicales sous l'effet, semble-t-il, de l'extension de son vecteur principal sur le littoral méditerranéen européen (Corse, îles Baléares, Catalogne, Italie, Sardaigne, Sicile, Var).
L'objectif de cette thèse est à la fois d'étudier les outils méthodologiques et diagnostiques disponibles pour évaluer les risques liés à la FCM et d'en développer d'autres afin d'améliorer la surveillance de cette maladie en France.
Une première étude a constitué en l'évaluation des performances épidémiologiques du test sérologique (ELISA de compétition) utilisé pour le diagnostic et la surveillance de la FCM en Corse et sur le continent français. Une analyse du plan de surveillance de la circulation virale dans le contexte particulier corse a également été conduite. Elle a permis notamment d'identifier les points critiques de ce dispositif.
Suite à la détection de la présence de Culicoides imicola, vecteur biologique impliqué dans la circulation du virus de la FCM (BTV) sur le pourtour méditerranéen, dans la vallée de l'Argens (département du Var), le besoin de développer de nouveaux outils pour surveiller et évaluer le risque de transmission de ce virus dans des zones d'implantation récente est devenu nécessaire. Une étude entomologique a ainsi été mise en place dans la vallée de l'Argens afin i) de confirmer l'installation de C. imicola dans cette zone, ii) de suivre la dynamique de cette population sur une saison d'activité, iii) de collecter des données entomologiques pour estimer le potentiel de transmission de cette population de vecteurs. Un modèle stochastique de capacité vectorielle regroupant des données spécifiques des populations locales de C. imicola et des données publiées dans la littérature est ainsi proposé. Une étude de la compétence de C. imicola vis-à-vis du sérotype 9 de la FCM a, de plus, été initiée.
La discussion générale s'attarde sur les points qui semblent importants pour améliorer le dispositif de surveillance et avancer vers la mise en place d'un système d'alerte précoce. Elle ouvre également de nouvelles perspectives pour prolonger l'approche intégrative proposée en incluant notamment des travaux de géomatique initiés sur C. imicola. Elle pose, de plus, la question d'un passage à une échelle d'étude plus large. Les questions de recherche que pose l'épizootie récente de FCM dans le Nord de l'Europe sont finalement examinées.
APA, Harvard, Vancouver, ISO, and other styles
30

Caudeville, Julien. "Développement d'une plateforme intégrée pour la cartographie de l'exposition des populations aux substances chimiques : construction d'indicateurs spatialisés en vu d'identifier les inégalités environnementales à l'échelle régionale." Compiègne, 2011. http://www.theses.fr/2011COMP1960.

Full text
Abstract:
L'objectif de cette thèse est de développer une plateforme intégrée et spatialisée permettant de déterminer les inégalités liées aux expositions environnementales des populations aux substances chimiques. Un modèle multimédia d'exposition est utilisé pour permettre le calcul des doses d'exposition de populations cibles liées à l'ingestion de produits alimentaires, d'eau de consommation, de sol et à l'inhalation de contaminants atmosphériques. Ce modèle est alimenté par des bases de données géoréférencées de différents types : environnemental (eau, air, sol, alimentation), comportemental, démographique, interfacé dans un Système d'Information Géographique (SIG). Une étude pilote est détaillée sur les régions Nord-Pas-de-Calais et Picardie, pour le cadmium, le plomb, le nickel et le chrome. Les zones de surexposition potentielle et leurs déterminants ont été identifiés par l'analyse spatiale des variations des indicateurs de risque. La mise en évidence de zones de plus fortes contaminations environnementales et/ou de surexpositions potentielles présente des incertitudes dont une partie est, à ce stade, simulée dans la plateforme. L’étude pilote a permis d'établir l'opérationnalité de la plateforme. Les cartes d'exposition obtenues permettent d'identifier les zones géographiques dans lesquelles conduire en priorité des études environnementales de terrain afin d'aider à la mise en oeuvre de mesures de réduction de l'exposition. Ces travaux proposent également d'améliorer l'évaluation des risques sanitaires « classique » avec une meilleure intégration des déterminants essentiels de l'exposition réelle des populations au niveau d'un territoire
The aim of this thesis was to develop an integrated and spatialized platform that allows characterizing the inequality linked to environmental exposure of population to chemical substances. A multimedia exposure model was used to assess the exposure dose of target population via inhalation of atmospheric contaminants and via ingestion of soil, food and drinking water. This model uses geo-referenced databases implemented in a GIS including environmental (water, air, soil, food), behavioral, and demographic data. A case study was performed across two regions in France (Picardie and Nord-Pas-de-Calais) for cadmium, chromium, nickel and lead. Exposure hotspot areas and determinants were identified by the spatial analysis of risk indicator variations. Uncertainties are associated with highlighting areas where potential hotspot exposure have been detected. Some of these uncertainties are simulated by the platform. The case study has allowed to demonstrate the platform feasibility and functioning. Hotspot areas with significantly elevated exposure indicator values might be used to define environmental monitoring campaigns, to manage and plan remedial actions. This work proposes also to improve “classical” health risk assessment with a better integration of essential determinant for the real population exposure at the territory scale
APA, Harvard, Vancouver, ISO, and other styles
31

Appert-Collin, Jean-Christophe. "Contribution à l'analyse des risques liés au transport d'hydrocarbures aromatiques polycycliques dans les milieux poreux naturels : du système modèle à l'échantillon de sol pollué." Vandoeuvre-les-Nancy, INPL, 1999. http://www.theses.fr/1999INPL120N.

Full text
Abstract:
L'objectif de ce travail a été d'étudier la migration d'Hydrocarbures Aromatiques Polycycliques (HAP) en milieux poreux naturels. Le transport en monoconstituant (naphtalène, fluorène et phénanthrène) a été étudié par des expériences de sorption/désorption en colonne de laboratoire sur milieu poreux à teneur en carbone organique connue. Parallèlement, l'évolution de la pollution au cours du temps a été suivie en laissant vieillir une colonne de sable organique contenant du naphtalène. L'aspect multiconstituant a été abordé au travers d'expériences de mélange naphtalène/phénanthrène. Enfin, l'étude de la percolation par l'eau d'un sol de cokerie pollué par les HAP (système réel) a été effectuée à la fois sur pilote et sur colonne de laboratoire. L'analyse des courbes de percée ainsi obtenues a permis d'obtenir les résultats suivants : • Une non linéarité des isothermes de sorption sur les milieux poreux contenant de la matière• organique, avec deux comportements de sorption différents (isothermes concaves ou convexes) suivant le type de matière organique. • Une augmentation des propriétés de sorption par contact à temps long (14 mois) sur une colonne de sable organique artificiellement polluée par du naphtalène. • Une faible influence réciproque sur les courbes de percée des deux HAP lors des expériences de co adsorption naphtalène/phénanthrène sur le sable organique. • Un fort relargage en HAP sur les sols de cokerie fortement pollués dès le début de la percolation couplé à un entraînement par la matière organique, avec ensuite d'importantes fluctuations de concentration des HAP au cours de la percée. Les courbes de percée obtenues sur les systèmes modèles de milieux poreux ont été modélisées et ont servi à simuler les courbes de percée des HAP sur le sol de cokerie.
APA, Harvard, Vancouver, ISO, and other styles
32

Dammak, Fredj Amine. "Essais sur la gestion d'actifs a l'international : évaluation en présence de frictions et diversification." Thesis, Amiens, 2018. http://www.theses.fr/2018AMIE0057/document.

Full text
Abstract:
Mon activité de recherche dans le cadre de la thèse s'est développée autour d'un axe principal : évaluer les actifs financiers en présence des imperfections sur les marchés. Les modèles d'évaluation des actifs financiers à l'international montrent que l'allocation optimale de richesse consiste à détenir le portefeuille mondial et un actif sans risque. L'observation des portefeuilles montre en revanche que les investisseurs manifestent une nette préférence pour les actifs domestiques, ce qui va à l'encontre des enseignements de la théorie standard, donc de la diversification internationale. Le premier chapitre présente une revue de la littérature sur les avantages présentés par la diversification internationale, les problèmes de la prime de risque et examine les différentes explications de la sous-diversification, ce qui est qualifié dans la littérature par le biais domestique. Ainsi, nous avons présenté les différents facteurs explicatifs de ce biais. Ces facteurs sont le risque de taux de change ou l'effet de l'inflation, les taxes, les coûts de transactions, les restrictions imposées sur les investisseurs, et les effets de l'asymétrie d'information. Le deuxième chapitre présente une étude empirique impliquant les techniques de cointégration basées sur les travaux de Johansen et Juselius (1990, 1988), les modèles BEKK d’Engle et Kroner (1995), DCC-MGARCH d’Engle (2002) et la technique des copules. Les outils implémentés montrent l'impact de la corrélation dynamique et de la volatilité sur les gains de diversification. Ce chapitre a le mérite d'avancer une mesure de gain de diversification dans un contexte dynamique sur la base du MEDAF international. A l'aide de différents tests robustes, relatifs à l'étude de la segmentation et l'intégration des marchés, nous conclurons que les marchés émergents composant notre échantillon offrent des gains significatifs en matière de diversification aux investisseurs internationaux. Notre analyse empirique montre que les nouvelles classes d'actifs, tels que l'indice des œuvres d'Art, les indices de l'Immobilier et l'indice Dow Jones Islamique constituent des valeurs refuges et offrent un important gain en termes de diversification internationale. Le troisième chapitre présente un modèle d'évaluation des actifs financiers en présence d'une asymétrie d'information et de coûts de transaction liés à la vente à découvert sur les actifs. Notre modèle constitue une généralisation des contributions de Merton (1987) et de Wu et al (1996) dans un cadre d'analyse dynamique similaire à Adler et Dumas ( 1983). Ce modèle montre pour la première fois dans la littérature l'effet conjugué de deux facteurs de segmentation en présence d'un risque de change systématique. Notre relation d'équilibre explique la préférence pour les actifs domestiques par les coûts d'information, les coûts liés à la vente à découvert et montre que les risques de change et de marché sont évalués dans un cadre international. Cette évaluation est captée à travers la présence de deux primes de risques systématiques. Nos simulations mettent en évidence l'effet des coûts et du risque de change sur la valeur des actifs. Le quatrième chapitre présente un modèle d'évaluation en présence d'une contrainte sur les ventes à découvert, d'une asymétrie d'information et d'une hétérogénéité des investisseurs. Cette hétérogénéité est attribuée à la différence observée au niveau du comportement des investisseurs et leurs opinions sur l'évolution des rendements futurs des actifs. Notre analyse est inspirée des études de Merton (1987), Black et Litterman (1992) et Wu et al (1996). A l'équilibre notre modèle permet d'aboutir à deux conclusions majeurs : 1, Les marchés internationaux ne sont pas efficients en présence d'une asymétrie d'information et d'une contrainte institutionnelle sur les ventes à découvert. 2, La diversification internationale est opérée par les investisseurs sur la base d'un arbitrage entre les coûts informationnels
APA, Harvard, Vancouver, ISO, and other styles
33

Xia, Zhenyu. "Étude phénoménologique pour des méthodes de dimensionnement d'ouvrages d'assainissement en fonction du risque de dysfonctionnement hydraulique." Lille 1, 2006. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2006/50376_2006_15.pdf.

Full text
Abstract:
En 1996, une nouvelle norme (NF EN 752-2) concernant la conception des réseaux d'assainissement est parue. Elle abandonne la notion de période de retour d'évènements pluvieux pour s'appuyer sur celle de période de retour de dysfonctionnement (mise en charge ou débordement). Si ce choix est fondamentalement judicieux, il n'en reste pas moins qu'il n'existe pas actuellement de méthode permettant de dimensionner directement canalisations et bassins de rétention selon cette notion. La question se pose donc de savoir comment les "anciennes" méthodes basées sur le concept de pluie de projet répondent à cette nouvelle exigence réglementaire. L'étude décrite ci-après a pour objectif d'apporter des éléments de réponse. Basée sur une analyse statistique des pluies, d'une part, et des débits et volumes qu'elles génèrent sur un réseau test synthétique, d'autre part, elle montre que, pour les canalisations, l'utilisation de pluies de projet répond à la norme NF EN 752-2 mais qu'elles n'optimisent pas le dimensionnement et que, pour les bassins de rétention, cette même méthode n'apporte pas de certitude quant au respect de la norme NF EN 752-2.
APA, Harvard, Vancouver, ISO, and other styles
34

Aziza-Tenenhaus, Fanny. "Maîtrise des dangers microbiologiques en industrie laitière basée sur un modèle d'appréciation quantitative des risques. : application à Listeria monocytogenes dans les fromages à pâte molle au lait pasteurisé." Paris, AgroParisTech, 2007. http://www.theses.fr/2007AGPT0061.

Full text
Abstract:
Les industries alimentaires sont soumises à des contrôles stricts en termes de sécurité microbiologique, suite à l’implication de produits contaminés par des agents pathogènes dans des toxi-infections alimentaires. Actuellement, les mesures de gestion appliquées en usine ne permettent plus la détection, ni l’élimination de contaminations sporadiques de l’environnement d’une usine, pouvant être à l’origine d’une contamination des produits en cours de fabrication, et par conséquent de toxi-infections alimentaires. Comment peut-on alors estimer que les mesures de gestion entreprises sur-protègent ou sous-protègent la santé du consommateur ? Les progrès de l’appréciation quantitative des risques permettent d’envisager l’utilisation de cette démarche en matière de sécurité microbiologique des aliments. La validation de cette approche en tant qu’outil de maîtrise des dangers microbiologiques fait l’objet de cette thèse, à travers l’exemple de Listeria monocytogenes dans les fromages à pâte molle au lait pasteurisé. Basé sur les résultats d’une analyse statistique rétrospective de données d’auto-contrôles pour Listeria provenant de trois industries laitières et sur une synthèse bibliographique de tous les éléments aujourd’hui intégrable dans une appréciation quantitative des risques microbiologiques, nous proposons un modèle complet, permettant d’estimer le risque de listériose lié à la consommation de fromages à pâte molle au lait pasteurisé, en tenant compte de l’ensemble du procédé de fabrication et des sources potentielles de contamination. De la pasteurisation à la consommation, il simule l’amplification d’une primo-contamination de l’environnement de l’usine par Listeria monocytogenes, dans le temps, l’espace et entre les produits, en tenant compte de l’impact des mesures de gestion. L’analyse de sensibilité du modèle permet l’identification des leviers majeurs de maîtrise et l’optimisation des mesures préventives et correctives. Ce modèle, généralisable à d'autres espèces et d’autres procédés, illustre concrètement l’intérêt de l’appréciation quantitative du risque en matière de sécurité alimentaire.
APA, Harvard, Vancouver, ISO, and other styles
35

Taleb, Bendiab Ismahan Asma. "Évaluation de l’efficience, la performance et le risque des banques conventionnelles et con-conventionnelles : essais empiriques." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE007.

Full text
Abstract:
Cette thèse a trois principaux objectifs ; premièrement, elle évalue l'efficience coût et l’efficience profit des banques conventionnelles et en employant l'analyse de frontière stochastique (AFS) sur la période 2005-2014. Deuxièmement, cette thèse examine les déterminants de l'inefficience coût et Profits des banques, l'accent étant mis principalement sur le rôle des risques bancaires, des facteurs environnementaux et de la crise financière sur l'efficience bancaire. Troisièmement, cette thèse évalue l'impact de différentes variables sur les rendements des actions bancaires, en mettant l'accent sur l'efficience des banques, les risques bancaires et la crise financière mondiale. Les résultats empiriques montrent que les banques de notre échantillon améliorent en moyenne leurs efficiences en termes de coûts et de bénéfices entre 2005 et 2014. En outre, les banques conventionnelles semblent être plus efficientes en termes de coût et moins efficientes en termes de profit que les banques islamiques. Enfin, les résultats montrent que les changements d'efficience, de risques, la crise et d’autres variables affectent la performance des actions dans les banques conventionnelles et islamiques
This thesis has three main objectives. First, it evaluates cost and profit efficiencies of conventional and non-conventional banks by employing the stochastic frontier analysis (SFA) over the period 2005-2014. Second, this study investigates the determinants of bank cost and profit inefficiencies with the focus on the role of banking risks, environmental factors and world financial crisis in affecting banking efficiency. Third, this thesis evaluates the impact of different variables on bank stock returns, with the emphasis on bank efficiency, risk and the world financial crisis. The empirical findings show that banks of our sample improve their cost/Profit efficiencies on average between 2005 and 2014. Also, conventional banks appear to be more cost efficient but less profit efficient compared to Islamic banks. Finally, the results show that changes in cost and profit efficiencies along with risks, crisis and other variables influence stock performance in conventional and Islamic banks
APA, Harvard, Vancouver, ISO, and other styles
36

Salines, Morgane. "Modélisation de la propagation du virus de l'hépatite E dans la filière porcine et évaluation de stratégies de réduction du risque d'exposition humaine." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1B039/document.

Full text
Abstract:
Le virus de l’hépatite E (HEV) est un agent zoonotique dont les porcs représentent le principal réservoir dans les pays industrialisés. Le présent projet de recherche a combiné études épidémiologiques, modélisation mathématique et sciences sociales pour proposer des leviers de réduction du risque d’exposition humaine au HEV par consommation de produits à base de porc. Deux essais expérimentaux et une étude en conditions naturelles ont mis en évidence le rôle majeur des co-infections immunomodulatrices dans la dynamique de l’infection par le HEV chez le porc, ces pathogènes intercurrents conduisant à une infection chronique par le HEV et à un risque augmenté de présence du virus dans le foie, le sang et les muscles des animaux abattus. Le développement d’un modèle intra-élevage, stochastique, individu-centré et multi-pathogènes, a permis de dégager des pistes de maîtrise à la fois zootechniques et sanitaires pour réduire la prévalence du virus en élevage. En complément, la conception d’un modèle inter-troupeaux a rendu possible l’analyse des facteurs de diffusion du virus dans un réseau d’élevages français. L’ensemble de ces mesures de gestion du HEV a été soumis à l’avis des organisations publiques et privées et des acteurs individuels de la filière porcine (éleveurs, conseillers, vétérinaires) par des approches de sciences humaines et sociales. Finalement, ce projet transversal et multi-disciplinaire a permis de définir des axes d’action tangibles et réalisables de gestion du HEV dans la filière porcine tout en apportant des contributions méthodologiques significatives en épidémiologie et en modélisation
Hepatitis E virus (HEV) is a zoonotic pathogen whose main reservoir in industrialised countries is pigs. This research project combined epidemiological studies, mathematical modelling and social sciences to propose levers for reducing the risk of human exposure to HEV through the consumption of pork products. Two experimental trials and one study under natural conditions highlighted the major role of immunomodulating co-infections on the dynamics of HEV infection in pigs, as these intercurrent pathogens led to chronic HEV infection and an increased risk of the virus in the liver, blood and muscles of slaughtered animals. The development of a within-herd, stochastic, individual-based and multi-pathogen model has made it possible to identify both zootechnical and sanitary control measures to reduce the prevalence of the virus on farms. In addition, the design of a between-herd model has enabled to analyse the factors responsible for the spread of the virus in a network of French farms. All these HEV control measures have been submitted for the opinion of public and private organisations and individual players in the pig sector (farmers, farming advisors, veterinarians) through social science approaches. Finally, this transversal and multidisciplinary project made it possible to define tangible and achievable lines of action for the management of HEV in the pig sector while making significant methodological contributions in epidemiology and modelling
APA, Harvard, Vancouver, ISO, and other styles
37

Shemilt, Michèle. "Évaluation de la validité des modèles de risque pour prédire l’incidence des gastroentérites d’origine hydrique au Québec." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/26078.

Full text
Abstract:
Les analyses de risque microbiologique, dont l'ÉQRM (évaluation quantitative du risque microbien) proposent de nouvelles techniques pour évaluer les conséquences sanitaires liées à la contamination microbiologique de l'eau potable. Ces modèles intègrent les données physico-chimiques et microbiologiques des usines de traitement d'eau pour quantifier un risque à la santé. Le projet visait à évaluer le lien entre le risque estimé selon un modèle ÉQRM et l’incidence de giardiase observée. Les banques de données des maladies à déclaration obligatoire et d’INFO-SANTÉ ont été utilisées pour comparer le résultat de l’analyse de risque à celui des analyses épidémiologiques. Les municipalités considérées les plus à risque par l'ÉQRM ont une incidence de gastroentérite et de parasitoses plus élevée. Cependant, l'ampleur du risque prédit ne correspond pas à celui observé. Il est souhaitable que les modèles d’ÉQRM incorporent des données populationnelles pour prédire avec une plus grande exactitude le risque épidémiologique.
APA, Harvard, Vancouver, ISO, and other styles
38

Winter, Anne. "Evaluation model of a supply chain's sustainability performance and risk assessment model towards a redesign process : case study at Kuehne + Nagel Luxembourg." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD044/document.

Full text
Abstract:
Dans le présent travail, le concept de durabilité a été redéfini pour que la compréhension commune puisse être garantie. Un modèle d'évaluation du degré de durabilité d'une chaîne logistique existante a été conçu par la suite. Ce modèle a été testé de façon empirique à travers une étude de cas. En appliquant l'amélioration continue, il faut que cette évaluation soit suivie d'un processus de reconception de la chaîne logistique en question. Cependant, Il est important qu'une évaluation des risques soit réalisée auparavant. Pour cette raison, un modèle de quantification des risques a été développé. Le modèle peut considérer soit les risques débouchant sur une reconception, soit les risques dus à une reconception. Une étude de cas basée sur les risques débouchant sur une reconception de la chaîne logistique a été mise en place pour prouver l'applicabilité du modèle dans un environnement réel. Les résultats qui découlent du modèle doivent être considérés comme étant une aide à la décision
Ln the present work, the sustainabillty concept has been redeflned so that common understanding can be guaranteed. Subsequently, a model intended to evaluate an existent supply chain's overall degree of sustainability has been developed and empirically tested through a case study. Considering the approach of continuous improvement, this evaluation should be followed by a redesign of the considered supply chain. However, a risk assessment needs to be done ex-ante. Forthis reason, a risk Identification and quantification model has been evolved. This model may consider bath, the risks leading to the redesign process and the risks resultlng from the redesign phase. A case study, which considers the risks leading to a redesign phase, has been implemented so that the model's feasibility in a real business' environment can be proved. The model's outcomes must not be mistaken for ultimate results but need to be considered being a decision support for managers
APA, Harvard, Vancouver, ISO, and other styles
39

Hommel, Thierry. "Environnement et stratégies des firmes industrielles : le modèle de la gestion anticipative de la contestabilité appliqué à la production des OGM agricoles et à l'industrie du traitement de surface en France et en Allemagne." Paris, EHESS, 2001. http://www.theses.fr/2001EHES0053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Trottier-Pérusse, Bruno. "Estimation des préférences face au risque à l'aide d'une approche flexible." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28264/28264.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Schmitt, Julien. "Évaluation des fonctions cognitives par la navigation : étude de souris modèles de la maladie d'Alzheimer et facteur de risque." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS456.

Full text
Abstract:
Le travail expérimental a consisté à mettre au point un protocole comportemental permettant d’évaluer à la fois la mémoire et les fonctions exécutives à l’aide de tâches de navigation (Starmaze et Y-maze) dans le but de tester différents modèles de souris en lien avec la maladie d’Alzheimer. Dans un premier temps, un protocole de Starmaze et la création de scores adaptés à l’évaluation des fonctions cognitives souhaitées ont été mis au point. Dans un second temps, trois modèles de souris ont été testés avec le protocole mis au point : un modèle de la forme familiale de la maladie d’Alzheimer (APPPS1) à 14 mois et un modèle de facteur de risque de la forme sporadique de la maladie d’Alzheimer (APOE4) à 6 et 14 mois en les comparant à des souris contrôle du même âge. L'effet du vieillissement normal sur les fonctions cognitives évaluées a aussi été évalué en comparant les comportements de navigation de souris contrôles (C57BL/6) à 6 et 14 mois. Les résultats révèlent que le vieillissement normal n'engendre pas de déficit cognitif à 14 mois, alors que les souris APPPS1 de 14 mois présentent des déficits mnésiques et exécutifs. Les souris ApoE4 ne montrent pas de déficits mnésiques à 6 et 14 mois mais présentent à 6 mois un déficit de flexibilité identique à celui observé chez les souris contrôles âgées, suggérant que le facteur de risque ApoE4 pourrait être un modèle de vieillissement précoce. Mon travail a permis de valider l'utilisation de tests de navigation pour évaluer conjointement la mémoire et les fonctions exécutives, ouvrant des perspectives d'application clinique à ce type de tests dans le dépistage de la maladie d’Alzheimer
The experimental work consisted in developing a behavioural protocol to evaluate both memory and executive function using navigation tasks (Starmaze and Y-maze) in order to test different mouse models related to Alzheimer's disease. As a first step, a Starmaze protocol and the creation of scores adapted to the evaluation of desired cognitive functions were developed. In a second step, three mouse models were tested with the protocol developed: a model of the familial form of Alzheimer's disease (APPPS1) at 14 months and a risk factor model of the sporadic form of Alzheimer's disease (APOE4) at 6 and 14 months by comparing them to control mice of the same age. The effect of normal aging on the cognitive functions assessed was also evaluated by comparing the navigation behaviours of control mice (C57BL/6) at 6 and 14 months. The results show that normal aging does not lead to cognitive deficit at 14 months, while 14-month-old APPPS1 mice have memory and executive deficits. ApoE4 mice do not show memory deficits at 6 and 14 months but have a similar flexibility deficit at 6 months as observed in elderly control mice, suggesting that the risk factor ApoE4 could be a model of early aging. My work has validated the use of navigation tests to jointly assess memory and executive function, opening up clinical applications for this type of test in Alzheimer's disease screening
APA, Harvard, Vancouver, ISO, and other styles
42

Sestier, Michael. "Analyse des sensibilités des modèles internes de crédit pour l'étude de la variabilité des RWA." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E010.

Full text
Abstract:
Suite à la crise de 2007-2009, des études menées par le Comité de Bâle ont montré une grande dispersion des actifs pondérés du risque (RWA) entre les banques, dont une part significative proviendrait des hypothèses des modèles internes. De nouvelles réglementations visant à trouver un équilibre entre bonne représentation des risques, simplicité des approches et comparabilité ont dès lors été développées. Celles-ci proposent notamment l'ajout de contraintes sur les modèles/paramètres pour l'évaluation interne des RWA de crédit des portefeuilles bancaire et de négociation. Dans ce contexte, ces travaux de thèse consistent principalement en l'analyse de la pertinence de ces contraintes pour la réduction de la variabilité des RWA. Ils font largement recours aux méthodes d'analyses des sensibilités, notamment celles basées sur les décompositions de Hoeffding. Le traitement réglementaire des paramètres de crédit (les corrélations des défauts, les probabilités de défaut -PD -et les taux de perte en cas de défaut -LGD) forme la colonne vertébrale des développements. Au final, les conclusions des études menées semblent indiquer des résultats mitigés des réforn1es. D'une part, les contraintes sur les corrélations pour le portefeuille de négociation sont d'un impact faible sur la réduction de la variabilité des RWA. D'autre part, les contraintes sur les paramètres de PD et de LGD, ayant un impact plus important sur la réduction de la variabilité des RWA, devraient être considérées avec plus de prudence. La thèse fournit enfin des preuves que la variabilité est amplifiée par la mesure du risque réglementaire et les multiples sources de données de calibration des modèles
In the aftermath of the 2007-2009 crisis, several studies led by the Base! Committee showed a large dispersion of risk-weighted assets (RWA) among banks, a significant part of which would come from the internal model's assumptions. Consequently, new regulations aiming at finding a balance between risk sensitivity, simplicity and comparability have then been developed. These ones notably include constraints on models / parameters for the internal assessment of the credit RWA for both the banking and the trading books. ln this context, the thesis work mainly consists in analyzing the relevance of such constraints to reduce the RWA variability. It makes extensive use of sensitivity analysis methods, particularly the ones based on the Hoeffding's decomposition. Regulatory treatments of the credit parameters (default correlations, default probabilities -DP -and loss given default -LGD) form the backbone of the developments. The findings suggest mixed results of the reforms. On the one hand, the constraints on the correlations for the trading book have a low impact on the RWA variability. On the other hand, the constraints on OP and LGD parameters, having a greater impact on the RWA variability, should be considered with more caution. The studies finally provide evidence that variability is amplified by the regulatory measurement of the risk and the multiple sources of calibration data.javascript:nouvelleZone('abstract');_ajtAbstract('abstract')
APA, Harvard, Vancouver, ISO, and other styles
43

Minca, Andreea Catalina. "Modélisation mathématique de la contagion de défaut." Paris 6, 2011. http://www.theses.fr/2011PA066362.

Full text
Abstract:
Cette thèse porte sur la modélisation mathématique de la contagion de défaut. Un choc économique induit des pertes initiales, de là le défaut de quelques institutions est amplifié par des liens financiers complexes ce qui engendre alors des défauts à large échelle. Une première approche est donnée par les modèles à forme réduite. Les défauts ont lieu en fonction des instants d'arrivée d'un processus ponctuel marqué. On propose une approche rigoureuse de la calibration des modes “top down” pour les dérivés de crédit multi noms, en utilisant des méthodes de projection Markovienne et de contrôle d'intensité. Une deuxième approche est celle des modèles structurels de risque de défaut. On modélise spécifiquement les liens économiques qui mènent à la contagion, en représentant le système financier par un réseaux de contreparties. Les principaux types de contagion sont l'illiquidité et l'insolvabilité. En modélisant le réseau financier par un graphe aléatoire pondéré et orienté on obtient des résultats asymptotiques pour la magnitude de la contagion dans un grand réseau financier. On aboutit à une expression analytique pour la fraction finale de défauts en fonction des caractéristiques du réseau. Ces résultats donnent un critère de robustesse d'un grand réseau financier et peuvent s'appliquer dans le cadre des stress tests effectués par les régulateurs. Enfin, on étudie la taille et la dynamique des cascades d'illiquidité dans les marchés OTC et l'impact, en terme de risque systémique, dû à l'introduction d'une chambre de compensation pour les CDS
The subject of this thesis is the mathematical modeling of episodes of default contagion, by which an economic shock causing initial losses and defaults of a few institutions is amplified due to complex financial linkages, leading to large scale defaults. A first approach is represented by reduced form modeling by which defaults occur according to the arrival times of a marked point process. We propose a rigorous approach to the calibration of “top down” models for portfolio credit derivatives, using Markovian projection methods and intensity control. A second, more ambitious approach is that of structural models of default risk. Here, one models specifically the economical linkages leading to contagion, building on the representation of the financial system as a network of counterparties with interlinked balance sheets. The main types of financial distress that cause financial failure are illiquidity and insolvency. Using as underlying model for a financial network a random directed graph with prescribed degrees and weights, we derive asymptotic results for the magnitude of balance-sheet contagion in a large financial network. We give an analytical expression for the asymptotic fraction of defaults, in terms of network characteristics. These results, yielding a criterion for the resilience of a large financial network to the default of a small group of financial institutions may be applied in a stress testing framework by regulator who can efficiently contain contagion. Last, we study the magnitude and dynamics of illiquidity cascades in over-the-counter markets and assess the much-debated impact, in terms of systemic risk, of introducing a CDS clearinghouse
APA, Harvard, Vancouver, ISO, and other styles
44

Chiroiu, Lucian. "Modélisation de dommages consécutifs aux séismes. Extension à d'autres risques naturels." Paris 7, 2004. http://www.theses.fr/2004PA070075.

Full text
Abstract:
Les sujets que nous présentons abordent la question de la modélisation de dommages consécutifs aux séismes, avant et après l'événement. Cette approche a un caractère pluridisciplinaire, se situant entre les techniques propres au génie civil, à travers le calcul des structures, à la géographie, à travers l'analyse spatiale et à la télédétection, à travers l'utilisation de l'imagerie satellitaire. Le premier chapitre présente d'une part les objectifs, le fonctionnement et les principaux paramètres des modèles d'estimation de dommages consécutifs aux séismes, ainsi que leur limites d'applications. Le contexte français de gestion du risque sismique est analysé brièvement par la suite. D'autres part, nous réalisons un état de l'art des modélisations existantes, à travers la présentation des principaux travaux tels que HAZUSTM, RADIUS ou encore GEMITIS. Le chapitre conclut par une analyse de l'ensemble de ces modèles et par les perspectives d'améliorations envisageables. Le deuxième chapitre introduit une nouvelle méthode d'analyse des structures basée sur la prise en compte du déplacement. Dans le troisième chapitre nous utilisons les courbes de capacité développées au préalable pour l'estimation a priori de dommages potentiels suite à un scénario de séisme. Nous avons considéré pour cette application les villes de Barcelone et Nice. Les résultats obtenus sont comparés à d'autres travaux d'évaluation de dégâts réalisés antérieurement. Le quatrième chapitre aborde l'utilisation de l'imagerie satellitaire dans le génie parasismique. En dernière partie, nous présentons les perspectives de l'application de la télédétection dans la gestion du risque sismique
The work deals with the earthquake loss modelling, before and after an event. First is presented the state of the art of the existing models, such as HAZUS or RISK-UE. Next, capacity curves for different model building types are developed and applied in order to obtain loss scenarios for 2 European sites: Barcelona and Nice. The use of the high resolution satellite imagery for the fast detection, mapping and loss estimation after an earthquake is analysed in the frame of a multidisciplinary approach, combining techniques of remote sensing and earthquake engineering. A multi-hazard intensity scale is presented in the end
APA, Harvard, Vancouver, ISO, and other styles
45

Jerbi, Yacin. "Évaluation des options et gestion des risques financiers par les réseaux de neurones et les modèles à volatilité stochastique." Paris 1, 2006. https://tel.archives-ouvertes.fr/tel-00308623.

Full text
Abstract:
La thèse consiste à comparer des modèles d'évaluation d'options européennes, aussi bien au niveau de l'évaluation (Black & Scholes, réseaux de neurones, modèles à volatilité stochastique) , qu'au niveau de la gestion des risques (Black & Scholes et réseaux de neurones), en se basant sur deux bases d'options européennes, sur l'indice CAC 40, cotées sur le MONEP : la première base est une base intraday s'étalant du mois de janvier 1998 au mois de juin 1998 et la seconde est journalière s'étalant du mois de janvier1997 au mois de décembre 1999). Après traitement, ces bases sont découpées par contrats et par classes, selon la parité et la durée de vie résiduelle. Un chapitre préliminaire est consacré à la présentations des outils et des fondements de la finance stochastique, nécessités par l'élaboration des modèles précités. Le chapitre 1 présente la teneur du modèles de Black & Scholes (ses hypothèses, l'élaboration de son équation de Black & Scholes, la résolution de cette équation, l'élaboration de la formule, également, par un raisonnement risqueneutre), puis expose les différentes méthodes de calcul des volatilités implicite et historique, dans le cas, aussi bien de données intraday, que de données journalières. Le chapitre 2 est consacré aux modèles à volatilité stochastique. Après avoir élaboré l'équation différentielle correspondante, les paramètres de l'équation sont estimés, en se basant sur trois dynamiques de la volatilité à savoir le mouvement Brownien, le processus Ornstein Uhlenbeck et un autre processus déterminé empiriquement. Après l'étude de la consistance, de la stabilité et de la convergence de son schéma, l'équation différentielle précitée est résolue numériquement en utilisant l'algorithme de Hopscotch, qui est inconditionnellement stable. Cette résolution a été faite, en considérant aussi bien les données intraday que les données journalières, aussi bien la volatilité implicite que la volatilité historique selon les trois processus précités de la volatilité. Les résultats générés sont comparés à ceux générés par des simulations de Monte Carlo, appliquées aux mêmes données et aux mêmes processus de la volatilité. Le chapitre 3 traite de l'évaluation des options européennes, par les réseaux de neurones, en se basant sur l'algorithme «cascade correlation» et sur les même données utilisées pour les modèles à volatilités stochastiques. Dans le chapitre 4, après avoir élaboré les formules des greeks, la méthodologie de calcul de l'erreur de couverture moyenne absolue relative est exposée, dans le cas d'un portefeuille autofinancé, et en considérant quatre stratégies de couverture dynamiques. Ces calculs sont appliqués pour déterminer la matrice des risques et comparer les modèles Black & Scholes et le modèle neuronal, en terme de couverture. La comparaison des performances des différents modèles utilisés, aussi bien au iveau de l'évaluation qu'au niveau de la gestion des risques, fait l'objet de la conclusion générale.
APA, Harvard, Vancouver, ISO, and other styles
46

Allgeyer, Sébastien. "Modélisation de l'aléa tsunamis et des résonances côtières en France." Paris 7, 2012. http://www.theses.fr/2012PA077078.

Full text
Abstract:
L'objectif de cette thèse est d'approfondir la connaissance de l'aléa tsunami et des résonances côtières en France. Dans une première partie, nous avons exposé les différents éléments de modélisation des résonances et des tsunamis dans l'approximation en ondes longues et de Boussinesq avec la technique des différences finies. Tous ces éléments ont été comparés et validés lors de benchmarks. Un code résolvant les équations de la dynamique des fluides dans l'approximation de Boussinesq a été développé et validé. La seconde partie a consisté en un ensemble d'applications. Dans un premier temps, nous avons étudié différents événements qui se sont produits dans l'océan Pacifique. Une étude détaillée du tsunami généré par le séisme de Maule (Mw8. 8 28 février 2010) est faite en champ proche (au niveau de la côte chilienne) comme en champ lointain (sur des bouées au large comme en Polynésie française). Une comparaison des différentes sources disponibles a été effectuée. Nous en avons conclu qu'une source unitaire peut être suffisante pour reproduire les données en champ lointain. En champ proche, nous nous sommes intéressés au phénomène de résonances à grandes échelles. En utilisant les données provenant de différents instruments (marégraphiques, inclinométriques), nous avons mis en évidence le piègeage d'ondes de tsunami entre la fosse de subduction et la côte chilienne. Du fait des nombreuses sources de tsunami possible montrant des effets variés dans les différentes baies de la Polynésie française, une étude détaillée des modes de résonance de l'archipel des Marquises a été effectuée contenant une discussion sur la dépendance azimutale entre la position de la source et l'excitation des différentes résonances. Pour terminer, une discussion sur l'aléa tsunami en France métropolitaine a été effectuée. Suite à l'événement récent de Boumerdès-Zemmouri (2003), le risque tsunami sur la côte méditerranéenne est connu. L'étude d'événements supplémentaires permet de mieux contraindre le risque. Moins connu, le risque tsunami sur la côte Atlantique française a été étudié par la recherche d'enregistrements passés, afin de valider les simulations numériques effectuées concernant des sources du XXe siècle. Ces modélisations permettent ainsi d'avoir une première analyse de l'impact de tsunamis générés dans la zone Gibraltar--Açores sur les côtes françaises
The objective of this thesis is to improve the knowledge of tsunamis, hazard and coastal resonance in France. In the first part, we outlined the theory of free oscillations and tsunami modeling using long wave and Boussinesq approximations in a fmite difference code. All these elements have been compared and validated during benchmarks. We developed a numerical code solving the hydrodynamic equations in the Boussinesq approximation. The second part is a set of applications in the Pacific Ocean and along the French coast. We studied different events produced in the Pacific Ocean. A detailed study of the tsunami generated by the Maule earthquake (Mw 8. 8 February 28, 2010) is made in both in the near (at the Chilean coast) and far field (on DART and in French Polynesia). We compare the tsunami generated by different seismological sources of this event. We fmd that a simple source can reproduce the near-field observations. Along the Chilean coast, we study the large scale free oscillation generated by this event. Using data coming from different types of instrument (tide gauge, inclinometer), we demonstrate that these oscillations are generated by trapping waves between the trench and the coast. Because of various effects generated by tsunamis in the bays of French Polynesia depending on the earthquake location, a detailed study on resonance modes of the Marquesas was made containing a discussion of the dependence of the resonance on the azimuthal position of the source. Finally, a discussion of the tsunami hazard in metropolitan France was made. Due to a recent event (Boumerdès-Zemmouri, 2003), the tsunami risk on the Mediterranean coast is real. The study of additional events allows us to constrain better the risk. Less known the tsunami risk on the French Atlantic coast was investigated by seeking past records of tsunamis. We validated the numerical simulations performed for the sources of the XXth century, leading to the first analysis of the impacts of tsunamis generated in the area Gibraltar—Azores on the French Atlantic coast
APA, Harvard, Vancouver, ISO, and other styles
47

Brochu, Maxime. "Vertueux vs opportuniste, analyse de l'effet réputation sur la performance des entreprises américaines." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10607.

Full text
Abstract:
Les bénéfices que procurent une saine réputation sont multiples : avantage comparatif inimitable, certification de la qualité, productivité supérieure des employés, etc. À l’opposé, en plus de ne pas avoir accès à tous ces bénéfices, les entreprises ayant une réputation trop embryonnaire ou qualifiée de mauvaise sont souvent limitées dans leur potentiel de croissance par des contraintes législatives et sociales. S’appuyant sur ces observations, plusieurs chercheurs se sont intéressés à évaluer les impacts de la réputation sur la performance et sur le risque d’une entreprise. À ce titre, les résultats concernant la performance anormale divergent en fonction de la période analysée, la méthodologie et l’estimateur de la réputation employé (p. ex. Filbeck et al., 2013; Anginer et Statman, 2010). En revanche, plusieurs études constatent une relation significative entre la réputation et les deux types de risque d’une entreprise, soit le risque systématique et idiosyncratique (p. ex. Delgado-Garcia et al., 2013; Oikonomou et al., 2012). Dans le même ordre d’idées, ce mémoire vise à analyser l’effet réputation sur la performance des entreprises américaines. Pour ce faire, nous employons une approche inconditionnelle suivant la méthode de Fama et French (1993) et une approche conditionnelle suivant la méthode de Ferson et Schadt (1996) afin d’expliquer le rendement quotidien de cinq types de portefeuilles. La réputation est évaluée de manière fragmentée, soit par agrégat global, par aspect, par dimension et en combinaison complémentaire, à partir de la base de données MSCI-KLD. Nos résultats soutiennent la présence d’un effet de réputation pour le marché américain entre 2004 et 2014. Cela s’exprime par une performance supérieure des modèles d’évaluation d’actifs financiers intégrant des facteurs de risque relatifs à la réputation. Soulignons toutefois que l’ajout de variables instrumentales relatives à la réputation n’améliore pas de manière significative l’explication des modèles traditionnels.
APA, Harvard, Vancouver, ISO, and other styles
48

Coroller, Fabienne. "Surveillance et évaluation du risque de transmission des maladies vectorielles émergentes : apport de la capacité vectorielle : exemple de la fièvre catarrhale du mouton." Montpellier 2, 2006. http://www.theses.fr/2006MON20227.

Full text
Abstract:
Les maladies animales vectorielles sont devenues depuis 2000 une préoccupation majeure pour la France et certains pays de l’Union Européenne du fait de l’apparition et la persistance de virus pathogènes en provenance du Sud. La fièvre catarrhale du mouton (FCM) est un bon exemple de la progression en zone tempérée d’arboviroses tropicales sous l’effet, semble-t-il, de l’extension de son vecteur principal sur le littoral méditerranéen européen (Corse, îles Baléares, Catalogne, Italie, Sardaigne, Sicile, Var). L’objectif de cette thèse est à la fois d’étudier les outils méthodologiques et diagnostiques disponibles pour la gestion sanitaire de la FCM et d’en développer d’autres afin d’améliorer le dispositif de surveillance de cette maladie en France. Une première étude a constitué à évaluer les performances épidémiologiques du test sérologique (ELISA de compétition) utilisé pour le diagnostic et la surveillance de la FCM en Corse et sur le continent français. Une analyse du plan de surveillance de la circulation virale dans le contexte particulier corse a également été conduite. Elle a permis notamment d’identifier les points critiques de ce dispositif. Suite à la détection de la présence de Culicoides imicola, le vecteur impliqué dans la circulation du virus de la FCM (BTV) sur le pourtour méditerranéen, en grand nombre dans plusieurs fermes de la vallée de l’Argens (département du Var), le besoin de développer de nouveaux outils pour surveiller et évaluer le risque de transmission de ce virus est devenu nécessaire. Une étude entomologique a ainsi mis en place dans plusieurs fermes de la vallée de l’Argens afin i) de confirmer l’installation de C. Imicola dans cette zone, ii) de suivre la dynamique de cette population sur une saison d’activité, iii) de collecter des données entomologiques pour estimer le potentiel de transmission de cette population de vecteurs. Un modèle stochastique de capacité vectorielle regroupant des données spécifiques des populations de C. Imicola présentes et des données publiées dans la littérature est ainsi proposé. Une étude de la compétence de C. Imicola vis-à-vis du sérotype 9 de la FCM a, de plus, été initiée. La discussion générale s’attarde sur les points qui semblent importants pour améliorer le dispositif de surveillance et avancer vers la mise en place d’un système d’alerte précoce. Elle ouvre également de nouvelles perspectives pour prolonger l’approche intégrative proposée en incluant notamment des travaux de géomatique initiés sur C. Imicola. Elle pose, de plus, la question d’un passage à une échelle d’étude plus large. Les questions de recherche que pose l’épizootie récente de FCM dans le Nord de l’Europe sont finalement examinées
APA, Harvard, Vancouver, ISO, and other styles
49

De, Oliveira Mota Juliana. "Évaluation des risques et bénéfices associés à la consommation de la viande rouge en France : approches méthodologiques." Thesis, Nantes, Ecole nationale vétérinaire, 2020. http://www.theses.fr/2020ONIR139F.

Full text
Abstract:
L’évaluation des effets de l’alimentation sur la santé, intégrant les composantes chimique, microbiologique et nutritionnelle, nécessite le développement de méthodes de quantification des risques-bénéfices. La viande rouge, classée comme probablement cancérigène par l’OMS, a été choisie comme objet de ces développements méthodologiques. Trois modèles probabilistes ont été établis permettant d’estimer les risques de cancer colorectal (CRC) et de maladies cardiovasculaires (CVD), les risques microbiologiques, et les bénéfices par la réduction de l’anémie par carence en fer (IDA). Les résultats ont été exprimés en nombre de cas et de morts, puis en nombre d’années de vie ajustées sur l'incapacité (DALYs) pour comparer les résultats. Les estimations ont été réalisées par classe d'âge et genre ou pour la population Française, en quantifiant séparément la variabilité due à l’hétérogénéité de la population et l'incertitude due au manque de connaissance. Pour 100 000 personnes par an, la consommation actuelle de viande rouge est associée en moyenne à 7 [95% IC = 3–11] DALY dus aux toxi-infections alimentaires, 19 [95% IC = 8–33] DALY dus au CRC, 21 [95% IC = 12–32] DALY au CVD. En termes de bénéfice, la consommation de viande rouge pourrait réduire l’IDA jusqu’à 16 [95% IC = 11–20] DALY pour 100 000 personnes. Les techniques quantitatives développées ici avec l’exemple de la viande rouge peuvent s’appliquer à d’autres problématiques car elles sont génériques. De façon plus générale, l’évaluation risque-bénéfice liée à l’alimentation contribue à une prise de décision plus éclairée du gestionnaire et in fine à une information du consommateur plus raisonnée
The assessment of the effects of food on health, integrating chemical, microbiological and nutritional components, requires the development of risk-benefit quantification methods. Red meat, classified as probably carcinogenic by the WHO, has been chosen as the subject of these methodological developments. Three probabilistic models have been established to estimate the risks of colorectal cancer (CRC) and cardiovascular disease (CVD), microbiological risks, and benefits through the reduction of iron deficiency anaemia (IDA). The results were expressed in number of cases and deaths, and then in disability-adjusted life years (DALYs) to compare the results. Estimates were made by age group and gender or for the French population, separately quantifying variability due to population heterogeneity and uncertainty due to lack of knowledge. For 100,000 people per year, current red meat consumption is associated on average with 7 [95% CI = 3-11] DALY due to foodburden, 19 [95% CI = 8-33] DALY due to CRC, 21 [95% CI = 12-32] DALY due to CVD. In terms of benefit, red meat consumption could reduce IDA by up to 16 [95% CI = 11-20] DALY per 100,000 people. The quantitative techniques developed here with the red meat example can be applied to other issues because they are generic. More generally, the risk-benefit assessment related to food contributes to a more informed decision making by the manager and ultimately to more reasoned consumer information
APA, Harvard, Vancouver, ISO, and other styles
50

Ricou-Berthelot, Anaïs. "Risque génotoxique et ovocytes. : Etude sur modèle souris de la génotoxicité des cryoprotecteurs et des protocoles de vitrification ovocytaire." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5025/document.

Full text
Abstract:
La toxicologie génétique est une discipline qui vise à détecter des facteurs chimiques ou physiques interagissant avec l'ADN des cellules et qui, en l'absence de réparation fidèle, sont susceptibles de provoquer des mutations géniques et/ou chromosomiques. Le test des comètes est un test court de génotoxicité simple, reproductible et rapide pour étudier la survenue de lésions primaires de l'ADN. Il s'agit d'une technique micro-électrophorétique très sensible permettant la mise en évidence des lésions de l'ADN de cellules eucaryotes individuelles exposées à des agents génotoxiques. En présence de cassures de l'ADN, les fragments d'ADN ainsi formés migrent plus rapidement que l'ADN intact lors de l'électrophorèse, donnant aux noyaux cellulaires l'aspect de comètes. La cryoconservation des ovocytes matures par vitrification a de nombreuses applications: alternative à la congélation d'embryons en FIV, préservation de la fertilité avant traitement gonadotoxique, développement du don d'ovocyte. La vitrification consiste à transformer un liquide en un état vitreux et utilise des agents cryoprotecteurs (CP) à haute concentration. Plusieurs centaines de naissances d'enfants en bonne santé ont été décrites . Néanmoins peu d'études ce sont intéressées aux effets à long terme de cette technique en particulier au plan génétique. L'objectif de ce travail a été dans un premier temps de développer et de valider une technique de test des comètes sur ovocyte de souris, puis d'utiliser ce test pour évaluer la génotoxicité du PrOH sur les ovocytes de souris qu'il soit employé seul ou inclus dans les solutions de vitrifications commercialisées pour la cryoconservation d'ovocytes humains
Genetic toxicology is a discipline that aims to detect chemical or physical factors interact with the DNA of somatic and / or germ cells and in the absence of accurate repair, are likely to cause gene and / or chromosomal mutations. The comet assay is a simple, reproductive and rapid test to study primary DNA damage. This microelectrophoretic technique, is used to visualize denatured DNA fragments migrating out of the cell nucleus during electrophoresis. The image obtained is a ''comet'' with a distinct head consisting of intact DNA and a tail containing relaxed DNA loops or broken pieces of DNA. Oocyte vitrification techniques is booming in the world, with the key to many applications: alternative to IVF embryo freezing, fertility preservation before gonadotoxic treatment, development of oocyte donation. Oocyte Vitrification traps all the aqueous solutions in a vitreous solid phase, preventing any ice crystal formation, because of very high cooling rates and high cryoprotectants concentrations. vitrification-cryopreservation has led to several hundred live births with reassuring obstetrical and perinatal outcomes. However, little is known about the possible long-term consequences on human live births after oocyte vitrification. The objective of this work was initially to develop and validate a technique comet assay on mouse oocyte, then to evaluate on mature oocytes the genotoxic effects of PrOH solution and finally the genotoxic effects of three oocyte vitrification protocols used in human ART the genotoxic of three oocyte vitrification protocols used in human
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography