To see the other types of publications on this topic, follow the link: Évaluation du risque – Modèles mathématiques.

Dissertations / Theses on the topic 'Évaluation du risque – Modèles mathématiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Évaluation du risque – Modèles mathématiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Gueye, Dieng Khadidiatou. "Analyse du risque technique de la branche incapacité-invalidité." Lyon 1, 2000. http://www.theses.fr/2000LYO10254.

Full text
Abstract:
L'incapacité et l'invalidité sont des risques couverts dans le cadre de la prévoyance complémentaire et des contrats Emprunteurs. La faiblesse des prestations des régimes de base et le développement des organismes de crédits à la consommation concourent à l'expansion du marché de l'incapacité et de l'invalidité. L'obligation de constituer des provisions suffisantes pour la couverture de ces risques, emmène l'organisme assureur à choisir entre l'utilisation d'une loi de maintien de référence (loi du BCAC par exemple) "rassurante" et d'une loi estimée sur le portefeuille de la compagnie qui risque de générer des erreurs d'échantillonnage à cause de la faiblesse des effectifs des sinistrés. L'estimation des lois de maintien présentent des difficultés qui nécessitent de s'interroger sur le choix de la méthodologie. Dans notre étude nous avons privilégié les méthodes paramétriques d'estimation qui présentent l'avantage de se contenter d'un nombre d'observations beaucoup moins important que les méthodes d'estimation non paramétriques avec une nouvelle approche qui consisteà modéliser la fonction espérance résiduelle. Nous avons par la suite modéliser l'influence de la variable exogène âge à l'entrée sur les lois de maintien. Le modèle paramétrique ainsi obtenu, intègre une variable exogène quantitative. Une extension du test du X2 aux données censurées à droite et tronquées à gauche a été proposée afin de pouvoir vérifier la validité des modèles paramétriques exposés.
APA, Harvard, Vancouver, ISO, and other styles
2

Marri, Fouad. "Évaluation des mesures de ruine dans le cadre de modèles avancés de risque." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26001/26001.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Moutanabbir, Khouzeima. "Évaluation et allocation du risque dans le cadre de modèles avancés en actuariat." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29730/29730.pdf.

Full text
Abstract:
Dans cette thèse, on s’intéresse à l’évaluation et l’allocation du risque dans le cadre de modèles avancés en actuariat. Dans le premier chapitre, on présente le contexte général de la thèse et on introduit les différents outils et modèles utilisés dans les autres chapitres. Dans le deuxième chapitre, on s’intéresse à un portefeuille d’assurance dont les composantes sont dépendantes. Ces composantes sont distribuées selon une loi mélange d’Erlang multivariée définie à l’aide de la copule Farlie-Gumbel-Morgenstern (FGM). On évalue le risque global de ce portefeuille ainsi que l’allocation du capital. En utilisant certaines propriétés de la copule FGM et la famille de distributions mélange d’Erlang, on obtient des formules explicites de la covariance entre les risques et de la Tail-Value-at-Risk du risque global. On détermine aussi la contribution de chacun des risques au risque global à l’aide de la régle d’allocation de capital basée sur la Tail-Value-at-Risk et celle basée sur la covariance. Dans le troisième chapitre, on évalue le risque pour un portefeuille sur plusieurs périodes en utilisant le modèle de Sparre Andersen. Pour cette fin, on étudie la distribution de la somme escomptée des ladder heights sur un horizon de temps fini ou infini. En particulier, on trouve une expression ferme des moments de cette distribution dans le cas du modèle classique Poisson-composé et le modèle de Sparre Andersen avec des montants de sinistres distribués selon une loi exponentielle. L’élaboration d’une expression exacte de ces moments nous permet d’approximer la distribution de la somme escomptée des ladder heights par une distribution mélange d’Erlang. Pour établir cette approximation, nous utilisons une méthode basée sur les moments. À l’aide de cette approximation, on calcule les mesures de risque VaR et TVaR associées à la somme escomptée des ladder heights. Dans le quatrième chapitre de cette thèse, on étudie la quantification des risques liés aux investissements. On élabore un modèle d’investissement qui est constitué de quatre modules dans le cas de deux économies : l’économie canadienne et l’économie américaine. On applique ce modèle dans le cadre de la quantification et l’allocation des risques. Pour cette fin, on génère des scénarios en utilisant notre modèle d’investissement puis on détermine une allocation du risque à l’aide de la règle d’allocation TVaR. Cette technique est très flexible ce qui nous permet de donner une quantification à la fois du risque d’investissement, risque d’inflation et le risque du taux de change.<br>In this thesis, we are interested in risk evaluation and risk allocation blems using advanced actuarial models. First, we investigate risk aggregation and capital allocation problems for a portfolio of possibly dependent risks whose multivariate distribution is defined with the Farlie-Gumbel-Morgenstern copula and with mixed Erlang distributions for the marginals. In such a context, we first show that the aggregate claim amount has a mixed Erlang distribution. Based on a top-down approach, closed-form expressions for the contribution of each risk are derived using the TVaR and covariance rules. These findings are illustrated with numerical examples. Then, we propose to investigate the distribution of the discounted sum of ascending ladder heights over finite- or infinite-time intervals within the Sparre Andersen risk model. In particular, the moments of the discounted sum of ascending ladder heights over a finite- and an infinite-time intervals are derived in both the classical compound Poisson risk model and the Sparre Andersen risk model with exponential claims. The application of a particular Gerber-Shiu functional is central to the derivation of these results, as is the mixed Erlang distributional assumption. Finally, we define VaR and TVaR risk measures in terms of the discounted sum of ascending ladder heights. We use a moment-matching method to approximate the distribution of the discounted sum of ascending ladder heights allowing the computation of the VaR and TVaR risk measures. In the last chapter, we present a stochastic investment model (SIM) for international investors. We assume that investors are allowed to hold assets in two different economies. This SIM includes four components: interest rates, stocks, inflation and exchange rate models. First, we give a full description of the model and we detail the parameter estimation. The model is estimated using a state-space formulation and an extended Kalman filter. Based on scenarios generated from this SIM, we study the risk allocation to different background risks: asset, inflation and exchange rate risks. The risk allocation is based on the TVaR-based rule.
APA, Harvard, Vancouver, ISO, and other styles
4

Minca, Andreea Catalina. "Modélisation mathématique de la contagion de défaut." Paris 6, 2011. http://www.theses.fr/2011PA066362.

Full text
Abstract:
Cette thèse porte sur la modélisation mathématique de la contagion de défaut. Un choc économique induit des pertes initiales, de là le défaut de quelques institutions est amplifié par des liens financiers complexes ce qui engendre alors des défauts à large échelle. Une première approche est donnée par les modèles à forme réduite. Les défauts ont lieu en fonction des instants d'arrivée d'un processus ponctuel marqué. On propose une approche rigoureuse de la calibration des modes “top down” pour les dérivés de crédit multi noms, en utilisant des méthodes de projection Markovienne et de contrôle d'intensité. Une deuxième approche est celle des modèles structurels de risque de défaut. On modélise spécifiquement les liens économiques qui mènent à la contagion, en représentant le système financier par un réseaux de contreparties. Les principaux types de contagion sont l'illiquidité et l'insolvabilité. En modélisant le réseau financier par un graphe aléatoire pondéré et orienté on obtient des résultats asymptotiques pour la magnitude de la contagion dans un grand réseau financier. On aboutit à une expression analytique pour la fraction finale de défauts en fonction des caractéristiques du réseau. Ces résultats donnent un critère de robustesse d'un grand réseau financier et peuvent s'appliquer dans le cadre des stress tests effectués par les régulateurs. Enfin, on étudie la taille et la dynamique des cascades d'illiquidité dans les marchés OTC et l'impact, en terme de risque systémique, dû à l'introduction d'une chambre de compensation pour les CDS<br>The subject of this thesis is the mathematical modeling of episodes of default contagion, by which an economic shock causing initial losses and defaults of a few institutions is amplified due to complex financial linkages, leading to large scale defaults. A first approach is represented by reduced form modeling by which defaults occur according to the arrival times of a marked point process. We propose a rigorous approach to the calibration of “top down” models for portfolio credit derivatives, using Markovian projection methods and intensity control. A second, more ambitious approach is that of structural models of default risk. Here, one models specifically the economical linkages leading to contagion, building on the representation of the financial system as a network of counterparties with interlinked balance sheets. The main types of financial distress that cause financial failure are illiquidity and insolvency. Using as underlying model for a financial network a random directed graph with prescribed degrees and weights, we derive asymptotic results for the magnitude of balance-sheet contagion in a large financial network. We give an analytical expression for the asymptotic fraction of defaults, in terms of network characteristics. These results, yielding a criterion for the resilience of a large financial network to the default of a small group of financial institutions may be applied in a stress testing framework by regulator who can efficiently contain contagion. Last, we study the magnitude and dynamics of illiquidity cascades in over-the-counter markets and assess the much-debated impact, in terms of systemic risk, of introducing a CDS clearinghouse
APA, Harvard, Vancouver, ISO, and other styles
5

Mailhot, Mélina. "Mesures de risque et dépendance." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29656/29656.pdf.

Full text
Abstract:
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités.<br>In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
APA, Harvard, Vancouver, ISO, and other styles
6

Nalpas, Nicolas. "L'énigme de la prime de risque : évaluation sur données françaises et tentative de solution." Paris 1, 2003. http://www.theses.fr/2003PA010014.

Full text
Abstract:
Cette thèse comprend deux parties, chacune composée de deux chapitres. La première partie se présente comme une contribution à dominante empirique, cherchant à savoir s'il existe bien une énigme de la prime de risque dans les données françaises. Dans le premier chapitre, nous développons les étapes nécessaires à la construction du modèle d'évaluation d'actifs fondée sur la consommation (C-CAPM) qui servira de fil conducteur tout au long de cette thèse. Nous détaillons ses hypothèses et explorons les principales alternatives visant à généraliser la représentation traditionnelle additive et séparable des préférences. Nous montrons, dans le deuxième chapitre, la présence d'une énigme de la prime de risque sur les données françaises, et d'autre part, que les modifications traditionnelles des préférences ne permettent pas de les résoudre. Ceci nous conduit dans la seconde partie à explorer les contributions des nouvelles théories de la décision dans le risque et de leurs applications potentielles en finance. Cette partie se veut, principalement, une contribution théorique visant à proposer une solution aux deux premières énigmes du C-CAPM ; à savoir les énigmes de la prime de risque et du taux sans risque. Nous l'abordons sous l'angle d'une généralisation des préférences, en adoptant une modélisation non espérance d'utilité des préférences de l'agent représentatif. Nous montrons, à l'aide d'une axiomatique modélisant un comportement d'aversion pour la déception exposée au chapitre 3, que la prise en compte d'agents ayant un comportement vis-à-vis de la déception permet d'apporter une solution satisfaisante aux énigmes du C-CAPM.
APA, Harvard, Vancouver, ISO, and other styles
7

Dorn, Jochen. "Évaluation, modélisation et couverture des produits structurés de crédit." Paris 1, 2008. http://www.theses.fr/2008PA010059.

Full text
Abstract:
Ce travail de thèse initié en novembre 2005 au sein du laboratoire PRISM se place dans le cadre de la conduite du processus d'évaluation d'un nouveau type de classe d'actif financier : les dérivés de crédit. A la fin des années 90 et comme conséquence cie la réglementation Bâle, les institutions financières cherchaient des solutions pour transférer le risque de crédit en dehors de leur bilan afin de pouvoir se refinancer à moindre coût. En même temps les investisseurs recherchaient des produits financiers de plus en plus complexes dans le but d'améliorer le rendement. Ainsi la classe d'actifs des structures de crédit s'est imposée sur le marché. Il s'agit des dérivés qui conjuguent techniques de titrisation et caractéristiques optionnelles dans le but de répondre aux nouveaux besoins des institutions financières ainsi qu'aux exigences des investisseurs. L'auteur présente de différents montages de dérivés de crédit complexes et analyse des risques inhérents. Ensuite il propose des formules d'évaluation fermées dans les cas où ces dernières n'existaient pas auparavant. A noter que dans la plupart des cas les banques ont recours à des méthodes de simulation afin de déterminer les prix (une approche longue et peu adaptée aux besoins des salles de marché). Ensuite des approches de couverture sont proposées qui visent à maîtriser les positions concernant des produits financiers dont on ignorait les risques associés encore il y a peu de temps. Le première partie de la thèse est consacrée à la présentation du contexte économique et de marché. Or plus il fournit un résumé pédagogique des différents outils quantitatifs et des concepts scientifiques essentiels à la compréhension des dérivés de crédit. Ensuite l'auteur consacre respectivement une partie au Collateralized Oebt Obligations (COOs), aux options sur tranches de COOs, aux COO Squareds, aux Constant Proportion Collateralized Oebt Obligations (CPOOs), et au Foreign Exchange Collateralized Obligations (CFXOs). . Bien qu'initié il y a trois ans, ce travail gagne de l'importance dans le contexte actuel de la crise des "subprimes".
APA, Harvard, Vancouver, ISO, and other styles
8

Allgeyer, Sébastien. "Modélisation de l'aléa tsunamis et des résonances côtières en France." Paris 7, 2012. http://www.theses.fr/2012PA077078.

Full text
Abstract:
L'objectif de cette thèse est d'approfondir la connaissance de l'aléa tsunami et des résonances côtières en France. Dans une première partie, nous avons exposé les différents éléments de modélisation des résonances et des tsunamis dans l'approximation en ondes longues et de Boussinesq avec la technique des différences finies. Tous ces éléments ont été comparés et validés lors de benchmarks. Un code résolvant les équations de la dynamique des fluides dans l'approximation de Boussinesq a été développé et validé. La seconde partie a consisté en un ensemble d'applications. Dans un premier temps, nous avons étudié différents événements qui se sont produits dans l'océan Pacifique. Une étude détaillée du tsunami généré par le séisme de Maule (Mw8. 8 28 février 2010) est faite en champ proche (au niveau de la côte chilienne) comme en champ lointain (sur des bouées au large comme en Polynésie française). Une comparaison des différentes sources disponibles a été effectuée. Nous en avons conclu qu'une source unitaire peut être suffisante pour reproduire les données en champ lointain. En champ proche, nous nous sommes intéressés au phénomène de résonances à grandes échelles. En utilisant les données provenant de différents instruments (marégraphiques, inclinométriques), nous avons mis en évidence le piègeage d'ondes de tsunami entre la fosse de subduction et la côte chilienne. Du fait des nombreuses sources de tsunami possible montrant des effets variés dans les différentes baies de la Polynésie française, une étude détaillée des modes de résonance de l'archipel des Marquises a été effectuée contenant une discussion sur la dépendance azimutale entre la position de la source et l'excitation des différentes résonances. Pour terminer, une discussion sur l'aléa tsunami en France métropolitaine a été effectuée. Suite à l'événement récent de Boumerdès-Zemmouri (2003), le risque tsunami sur la côte méditerranéenne est connu. L'étude d'événements supplémentaires permet de mieux contraindre le risque. Moins connu, le risque tsunami sur la côte Atlantique française a été étudié par la recherche d'enregistrements passés, afin de valider les simulations numériques effectuées concernant des sources du XXe siècle. Ces modélisations permettent ainsi d'avoir une première analyse de l'impact de tsunamis générés dans la zone Gibraltar--Açores sur les côtes françaises<br>The objective of this thesis is to improve the knowledge of tsunamis, hazard and coastal resonance in France. In the first part, we outlined the theory of free oscillations and tsunami modeling using long wave and Boussinesq approximations in a fmite difference code. All these elements have been compared and validated during benchmarks. We developed a numerical code solving the hydrodynamic equations in the Boussinesq approximation. The second part is a set of applications in the Pacific Ocean and along the French coast. We studied different events produced in the Pacific Ocean. A detailed study of the tsunami generated by the Maule earthquake (Mw 8. 8 February 28, 2010) is made in both in the near (at the Chilean coast) and far field (on DART and in French Polynesia). We compare the tsunami generated by different seismological sources of this event. We fmd that a simple source can reproduce the near-field observations. Along the Chilean coast, we study the large scale free oscillation generated by this event. Using data coming from different types of instrument (tide gauge, inclinometer), we demonstrate that these oscillations are generated by trapping waves between the trench and the coast. Because of various effects generated by tsunamis in the bays of French Polynesia depending on the earthquake location, a detailed study on resonance modes of the Marquesas was made containing a discussion of the dependence of the resonance on the azimuthal position of the source. Finally, a discussion of the tsunami hazard in metropolitan France was made. Due to a recent event (Boumerdès-Zemmouri, 2003), the tsunami risk on the Mediterranean coast is real. The study of additional events allows us to constrain better the risk. Less known the tsunami risk on the French Atlantic coast was investigated by seeking past records of tsunamis. We validated the numerical simulations performed for the sources of the XXth century, leading to the first analysis of the impacts of tsunamis generated in the area Gibraltar—Azores on the French Atlantic coast
APA, Harvard, Vancouver, ISO, and other styles
9

Sahal, Alexandre. "Le risque tsunami en France : contributions méthodologiques pour une évaluation intégrée par scénarios de risque." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2011. http://tel.archives-ouvertes.fr/tel-00651617.

Full text
Abstract:
Bien souvent segmentées, les approches visant à évaluer le risque tsunami se contentent tantôt d'évaluer l'aléa, tantôt d'estimer les enjeux et leurs vulnérabilités, ce bien souvent de manière disciplinaire. Les différents spécialistes des composantes du risque (géophysiciens, modélisateurs, géographes, économistes, sociologues, etc.) travaillent à des échelles différentes, parlent un langage qui leur est propre. Les opérationnels de la sécurité civile tentent tant bien que mal d'y puiser des solutions de gestion de crise. La démarche proposée dans cette thèse consiste à fédérer l'ensemble de ces composantes pour une évaluation intégrée du risque tsunami. Elle présente des méthodes relatives à l'évaluation : (1) de l'historique de l'aléa et sa modélisation selon différents scénarios probables, (2) des enjeux humains et structurelles suivant les dynamiques spatio-temporelles de la fréquentation humaine des lieux exposés à l'aléa (scénarios d'enjeux), et (3) des capacités de réponse des institutions en charge de la sécurité civile. La confrontation des scénarios d'enjeux et de gestion de crise aux scénarios d'aléas permet une évaluation des dommages potentiels dans des conjonctures spécifiques. La démarche, appliquée à trois sites exposés à forts enjeux, en métropole (Antibes) comme en Outre-mer (La Réunion et Mayotte), apporte ainsi une méthode d'évaluation complète du risque tsunami. Elle fournit aux opérationnels des outils et des solutions de gestion de crise (sélection de zones refuge, modélisation des temps d'évacuation etc.), et des recommandations pour limiter les impacts de futurs événements (préparation et information des populations). Elle fait le lien entre sciences dures, sciences sociales et gestionnaires du risque à travers une approche intégrée et appliquée de l'évaluation du risque.
APA, Harvard, Vancouver, ISO, and other styles
10

Sahal, Alexandre. "Le risque tsunami en France : contributions méthodologiques pour une évaluation intégrée par scénarios de risque." Phd thesis, Paris 1, 2011. http://www.theses.fr/2011PA010654.

Full text
Abstract:
Bien souvent segmentées, les approches visant à évaluer le risque tsunami se contentent tantôt d'évaluer l'aléa, tantôt d'estimer les enjeux et leurs vulnérabilités, ce bien souvent de manière disciplinaire. Les différents spécialistes des composantes du risque (géophysiciens, modélisateurs, géographes, économistes, sociologues, etc. ) travaillent à des échelles différentes, parlent un langage qui leur est propre. Les opérationnels de la sécurité civile tentent tant bien que mal d'y puiser des solutions de gestion de crise. La démarche proposée dans cette thèse consiste à fédérer l'ensemble de ces composantes pour une évaluation intégrée du risque tsunami. Elle présente des méthodes relatives à l'évaluation: de l'historique de l'aléa et sa modélisation selon différents scénarios probables, des enjeux humains et structurelles suivant les dynamiques spatio-temporelles de la fréquentation humaine des lieux exposés à l'aléa (scénarios d'enjeux), et des capacités de réponse des institutions en charge de la sécurité civile. La confrontation des scénarios d'enjeux et de gestion de crise aux scénarios d'aléas permet une évaluation des dommages potentiels dans des conjonctures spécifiques. La démarche, appliquée à trois sites exposés à forts enjeux, en métropole comme en Outremer, apporte ainsi une méthode d'évaluation complète du risque tsunami. Elle fournit aux opérationnels des outils et des solutions de gestion de crise et des recommandations pour limiter les impacts de futurs événements. Elle fait le lien entre sciences dures, sciences sociales et gestionnaires du risque à travers une approche intégrée et appliquée de l'évaluation du risque.
APA, Harvard, Vancouver, ISO, and other styles
11

Pras, Isabelle. "Modélisation de l'impact des variables économiques et financières sur les bilans des compagnies d'assurance-vie en France." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090052.

Full text
Abstract:
Le bilan des compagnies d'assurance-vie peut être assimile à un portefeuille de produits financiers dont la valeur dépend de l'évolution de variables économiques et financières. Dans un premier temps, il est démontré que les évolutions des valeurs des variables économiques (PIB, production industrielle,. . . ) et financières (actions et taux d'intérêt) sont liées par une relation d'équilibre à long terme. Dans un deuxième temps, les risques induits par l'évolution des variables financières sont analyses. Plus particulièrement, l'impact de l'évolution de la valeur des variables financières sur le comportement des assures est mis en évidence. En effet, le comportement de rachat anticipé dépend non seulement de la maturité du contrat et de l'évolution de la fiscalité mais aussi de l'évolution de certains taux d'intérêt. Le cout et la stratégie de couverture de ce risque sont modélisés. Enfin, les méthodes d'analyse du risque financier utilisées dans les compagnies d'assurance sont présentées. Après une description de modèles mono périodiques, le bilan d'une compagnie d'assurance-vie est modélisé dans son ensemble dans un contexte multi périodique et en intégrant les corrélations entre actifs financiers. Parallèlement, la sensibilité de la valeur d'une compagnie aux évolutions des valeurs des variables financières est calculée à partir des cours de bourse<br>A life insurance company balance-sheet can be defined as a portfolio of financial assets, the value of which depends on economic and financial variables. Firstly, the existence of a long term equilibrium between the variations of economic (GNP, industrial production,. . . ) And financial variables (shares and interest rates) is shown. Secondly, risks induced by the variations of financial variables are analyzed. More specifically, the impact of the variations of the financial variables on the surrender option is enlightened. The surrender behavior depends on the policy maturity, the evolution of the applicable tax regime as well as on the variation of some interest rates. A hedging strategy and its costs are modelized. Finally, the financial risk analysis methods used by life insurance companies are presented. After the description of one-period models, life insurance companies’ balance sheet is modelized with a multi-periods model including financial correlations. The sensitivity of an insurance company value to the variations of financial variables is estimated thanks to the stock market prices
APA, Harvard, Vancouver, ISO, and other styles
12

Trottier-Pérusse, Bruno. "Estimation des préférences face au risque à l'aide d'une approche flexible." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28264/28264.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Dahan, Olivier. "Étude de la détérioration neuropsychologique de l'adulte après irradiation cérébrale : analyse du risque par un modèle mathématique, à partir d'une série rétrospective de 100 patients." Bordeaux 2, 1996. http://www.theses.fr/1996BOR23026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Chiroiu, Lucian. "Modélisation de dommages consécutifs aux séismes. Extension à d'autres risques naturels." Paris 7, 2004. http://www.theses.fr/2004PA070075.

Full text
Abstract:
Les sujets que nous présentons abordent la question de la modélisation de dommages consécutifs aux séismes, avant et après l'événement. Cette approche a un caractère pluridisciplinaire, se situant entre les techniques propres au génie civil, à travers le calcul des structures, à la géographie, à travers l'analyse spatiale et à la télédétection, à travers l'utilisation de l'imagerie satellitaire. Le premier chapitre présente d'une part les objectifs, le fonctionnement et les principaux paramètres des modèles d'estimation de dommages consécutifs aux séismes, ainsi que leur limites d'applications. Le contexte français de gestion du risque sismique est analysé brièvement par la suite. D'autres part, nous réalisons un état de l'art des modélisations existantes, à travers la présentation des principaux travaux tels que HAZUSTM, RADIUS ou encore GEMITIS. Le chapitre conclut par une analyse de l'ensemble de ces modèles et par les perspectives d'améliorations envisageables. Le deuxième chapitre introduit une nouvelle méthode d'analyse des structures basée sur la prise en compte du déplacement. Dans le troisième chapitre nous utilisons les courbes de capacité développées au préalable pour l'estimation a priori de dommages potentiels suite à un scénario de séisme. Nous avons considéré pour cette application les villes de Barcelone et Nice. Les résultats obtenus sont comparés à d'autres travaux d'évaluation de dégâts réalisés antérieurement. Le quatrième chapitre aborde l'utilisation de l'imagerie satellitaire dans le génie parasismique. En dernière partie, nous présentons les perspectives de l'application de la télédétection dans la gestion du risque sismique<br>The work deals with the earthquake loss modelling, before and after an event. First is presented the state of the art of the existing models, such as HAZUS or RISK-UE. Next, capacity curves for different model building types are developed and applied in order to obtain loss scenarios for 2 European sites: Barcelona and Nice. The use of the high resolution satellite imagery for the fast detection, mapping and loss estimation after an earthquake is analysed in the frame of a multidisciplinary approach, combining techniques of remote sensing and earthquake engineering. A multi-hazard intensity scale is presented in the end
APA, Harvard, Vancouver, ISO, and other styles
15

Aziza-Tenenhaus, Fanny. "Maîtrise des dangers microbiologiques en industrie laitière basée sur un modèle d'appréciation quantitative des risques. : application à Listeria monocytogenes dans les fromages à pâte molle au lait pasteurisé." Paris, AgroParisTech, 2007. http://www.theses.fr/2007AGPT0061.

Full text
Abstract:
Les industries alimentaires sont soumises à des contrôles stricts en termes de sécurité microbiologique, suite à l’implication de produits contaminés par des agents pathogènes dans des toxi-infections alimentaires. Actuellement, les mesures de gestion appliquées en usine ne permettent plus la détection, ni l’élimination de contaminations sporadiques de l’environnement d’une usine, pouvant être à l’origine d’une contamination des produits en cours de fabrication, et par conséquent de toxi-infections alimentaires. Comment peut-on alors estimer que les mesures de gestion entreprises sur-protègent ou sous-protègent la santé du consommateur ? Les progrès de l’appréciation quantitative des risques permettent d’envisager l’utilisation de cette démarche en matière de sécurité microbiologique des aliments. La validation de cette approche en tant qu’outil de maîtrise des dangers microbiologiques fait l’objet de cette thèse, à travers l’exemple de Listeria monocytogenes dans les fromages à pâte molle au lait pasteurisé. Basé sur les résultats d’une analyse statistique rétrospective de données d’auto-contrôles pour Listeria provenant de trois industries laitières et sur une synthèse bibliographique de tous les éléments aujourd’hui intégrable dans une appréciation quantitative des risques microbiologiques, nous proposons un modèle complet, permettant d’estimer le risque de listériose lié à la consommation de fromages à pâte molle au lait pasteurisé, en tenant compte de l’ensemble du procédé de fabrication et des sources potentielles de contamination. De la pasteurisation à la consommation, il simule l’amplification d’une primo-contamination de l’environnement de l’usine par Listeria monocytogenes, dans le temps, l’espace et entre les produits, en tenant compte de l’impact des mesures de gestion. L’analyse de sensibilité du modèle permet l’identification des leviers majeurs de maîtrise et l’optimisation des mesures préventives et correctives. Ce modèle, généralisable à d'autres espèces et d’autres procédés, illustre concrètement l’intérêt de l’appréciation quantitative du risque en matière de sécurité alimentaire.
APA, Harvard, Vancouver, ISO, and other styles
16

Blais, Philippe. "Élaboration d'un modèle de trafic à partir de données massives de trajectoires automobiles en assurance." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69181.

Full text
Abstract:
En assurance automobile, la prédiction du risque est un enjeu majeur. Pour faire les meilleures prédictions possibles, il est important d'utiliser les bonnes informations. Dans les récentes années, un nouveau modèle d'assurance a vu le jour, le Usage-Based-Insurance (UBI), qui a permis la mesure de nouvelles variables comme les freinages ou les accélérations, appelées évènements. Par ailleurs, l'arrivée du UBI a amené l'industrie à s'intéresser davantage à la compréhension des comportements routiers, ce qui s'est traduit par le besoin de contextualiser ces évènements pour arriver à mieux comprendre leurs causes. Le but de cette recherche est de répondre à ce besoin de contextualisation en utilisant le trafic. L'objectif du projet est de modéliser le trafic à partir des données massives de trajectoires automobiles générées via le UBI. Deux méthodes de modélisation sont présentées. La première utilise une méthode de clustering pour détecter la congestion à partir de distributions de vitesses moyennes. La deuxième s'appuie plutôt sur une méthode de calcul de temps de parcours au niveau du segment routier. Les résultats de cette recherche confirment qu'il est possible d'utiliser les données d'assurance pour modéliser le trafic.
APA, Harvard, Vancouver, ISO, and other styles
17

Xia, Zhenyu. "Étude phénoménologique pour des méthodes de dimensionnement d'ouvrages d'assainissement en fonction du risque de dysfonctionnement hydraulique." Lille 1, 2006. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2006/50376_2006_15.pdf.

Full text
Abstract:
En 1996, une nouvelle norme (NF EN 752-2) concernant la conception des réseaux d'assainissement est parue. Elle abandonne la notion de période de retour d'évènements pluvieux pour s'appuyer sur celle de période de retour de dysfonctionnement (mise en charge ou débordement). Si ce choix est fondamentalement judicieux, il n'en reste pas moins qu'il n'existe pas actuellement de méthode permettant de dimensionner directement canalisations et bassins de rétention selon cette notion. La question se pose donc de savoir comment les "anciennes" méthodes basées sur le concept de pluie de projet répondent à cette nouvelle exigence réglementaire. L'étude décrite ci-après a pour objectif d'apporter des éléments de réponse. Basée sur une analyse statistique des pluies, d'une part, et des débits et volumes qu'elles génèrent sur un réseau test synthétique, d'autre part, elle montre que, pour les canalisations, l'utilisation de pluies de projet répond à la norme NF EN 752-2 mais qu'elles n'optimisent pas le dimensionnement et que, pour les bassins de rétention, cette même méthode n'apporte pas de certitude quant au respect de la norme NF EN 752-2.
APA, Harvard, Vancouver, ISO, and other styles
18

Naghi, Fadi El. "Contribution à l'étude de la pollution par micropolluants (atrazine, benzène) de la nappe de la craie dans le nord de la France : évaluation du risque de pollution des captages d'eau potable d'Étaples et de Blendecques (Pas de Calais)." Lille 1, 2006. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2006/50376_2006_276.pdf.

Full text
Abstract:
En France, les concentrations en atrazine, herbicide azoté interdit depuis 2003, ainsi que celles de ses molécules filles, présentent un risque de dépassement du seuil de potabilité des eaux. Ce dernier a été fixé à 0. 1 µg/l pour les molécules mesurées seules et 0. 5,µg/l en association avec les autres pesticides. Le risque lié à ces molécules qui peuvent être d'origine agricole et/ou urbaine, est du aux manques des données expérimentales, de maîtrise des mécanismes de migration et de transformations de ces molécules dans le sol. Les recherches réalisées dans ce travail nous ont permis de répondre à plusieurs points sur : ·les phénomènes les plus importants, marquants le comportement de l'atrazine et de ses molécules filles dans le sol ; ·les limites des modèles existants pour la modélisation de l'atrazine, et les difficultés affrontées quant à la mise en place de modélisation de ce type de molécules ; ·la vitesse de migration de cette molécule dans la zone non saturée ; ·la mise en évidence par voie numérique de certaines notions qui ont permis de représenter un premier bilan approximatif de l'état des lieux de la contamination en atrazine d'un site par simulation ; ·la préparation de la base d'un nouveau module en cours de développement prévue pour modéliser l 'atrazine dans l'outil WATERMODEL. Dans un premier temps, une bibliographie détaillée a été réalisée sur ces molécules, leurs comportements dans le sol et le sous-sol, et les phénoménes entrant en jeu dans leurs transformations. On a procédé ensuite à la mise en évidence de l'adsorption de cette molécule par la matière organique dans les premières dizaines de centimètres du sol en utilisant les outils PESTIFLUX et PESTAN. Dans le but de répondre aux contradictions des résultats obtenus, notamment la persistance de cette molécule dans la nappe 3 ans après l'interdiction de son utilisation en France dans le bassin versant d'Etaples, on a réalisé un modèle à base du Réseau de Neurones Artificielles qui montre l'existence d'un milieu fissuré expliquant la migration rapide de cette molécule vers la nappe<br>A partir des résultats précédents et les caractéristiques du site d'Etaples qui présente une contamination en atrazine par utilisation plutôt urbaine qu'agricole, on a estimé les quantités probablement utilisées en se basant sur l'avis des experts ainsi que sur la bibliographie. Un modèle du bassin versant d'Etaples a ainsi été créé. En raison des limites du logiciel MODFLOW qui ne traite pas des problèmes de migration des pesticides, une approche inverse des phénomènes a été utilisée. Il parait de cette recherche que les modèles hydrodynamiques de nappe sont insuffisants pour simuler correctement le comportement de l 'atrazine dans son cheminement du sol vers la nappe, puis au sein de la nappe. Par approches numériques mettant en jeu une modélisation par Réseau de Neurones Artificielles (RNA) puis par correction graphique des résultats, on a pu mettre en évidence le phénomène de dégradation d'une grande partie de l'atrazine épandue, puis l'entraÎnement par lessivage en des pomts singuliers d'infiltration. La migration est donc rapide par cheminement dans le réseau de fissures de la craie à l'occasion de saturation temporaire de celui-ci. D'autre part, une étude de vulnérabilité de la nappe de la craie du bassin versant de l'Aa (Audomarois) est proposée pour des pollutions ponctuelles par un micropolluant type hydrocarbure (le Benzène), dans le but d 'aboutir à une optimisation de la protection des captages du SIDEN France et de la communaUlé d 'agglomération de Sain/-Omer à Blendecques
APA, Harvard, Vancouver, ISO, and other styles
19

Jadidi, Mardkheh Amaneh. "Towards development of fuzzy spatial datacubes : fundamental concepts with example for multidimensional coastal erosion risk assessment and representation." Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25589.

Full text
Abstract:
Les systèmes actuels de base de données géodécisionnels (GeoBI) ne tiennent généralement pas compte de l'incertitude liée à l'imprécision et le flou des objets; ils supposent que les objets ont une sémantique, une géométrie et une temporalité bien définies et précises. Un exemple de cela est la représentation des zones à risque par des polygones avec des limites bien définies. Ces polygones sont créés en utilisant des agrégations d'un ensemble d'unités spatiales définies sur soit des intérêts des organismes responsables ou les divisions de recensement national. Malgré la variation spatio-temporelle des multiples critères impliqués dans l’analyse du risque, chaque polygone a une valeur unique de risque attribué de façon homogène sur l'étendue du territoire. En réalité, la valeur du risque change progressivement d'un polygone à l'autre. Le passage d'une zone à l'autre n'est donc pas bien représenté avec les modèles d’objets bien définis (crisp). Cette thèse propose des concepts fondamentaux pour le développement d'une approche combinant le paradigme GeoBI et le concept flou de considérer la présence de l’incertitude spatiale dans la représentation des zones à risque. En fin de compte, nous supposons cela devrait améliorer l’analyse du risque. Pour ce faire, un cadre conceptuel est développé pour créer un model conceptuel d’une base de donnée multidimensionnelle avec une application pour l’analyse du risque d’érosion côtier. Ensuite, une approche de la représentation des risques fondée sur la logique floue est développée pour traiter l'incertitude spatiale inhérente liée à l'imprécision et le flou des objets. Pour cela, les fonctions d'appartenance floues sont définies en basant sur l’indice de vulnérabilité qui est un composant important du risque. Au lieu de déterminer les limites bien définies entre les zones à risque, l'approche proposée permet une transition en douceur d'une zone à une autre. Les valeurs d'appartenance de plusieurs indicateurs sont ensuite agrégées basées sur la formule des risques et les règles SI-ALORS de la logique floue pour représenter les zones à risque. Ensuite, les éléments clés d'un cube de données spatiales floues sont formalisés en combinant la théorie des ensembles flous et le paradigme de GeoBI. En plus, certains opérateurs d'agrégation spatiale floue sont présentés. En résumé, la principale contribution de cette thèse se réfère de la combinaison de la théorie des ensembles flous et le paradigme de GeoBI. Cela permet l’extraction de connaissances plus compréhensibles et appropriées avec le raisonnement humain à partir de données spatiales et non-spatiales. Pour ce faire, un cadre conceptuel a été proposé sur la base de paradigme GéoBI afin de développer un cube de données spatiale floue dans le system de Spatial Online Analytical Processing (SOLAP) pour évaluer le risque de l'érosion côtière. Cela nécessite d'abord d'élaborer un cadre pour concevoir le modèle conceptuel basé sur les paramètres de risque, d'autre part, de mettre en œuvre l’objet spatial flou dans une base de données spatiales multidimensionnelle, puis l'agrégation des objets spatiaux flous pour envisager à la représentation multi-échelle des zones à risque. Pour valider l'approche proposée, elle est appliquée à la région Perce (Est du Québec, Canada) comme une étude de cas.<br>Current Geospatial Business Intelligence (GeoBI) systems typically do not take into account the uncertainty related to vagueness and fuzziness of objects; they assume that the objects have well-defined and exact semantics, geometry, and temporality. Representation of fuzzy zones by polygons with well-defined boundaries is an example of such approximation. This thesis uses an application in Coastal Erosion Risk Analysis (CERA) to illustrate the problems. CERA polygons are created using aggregations of a set of spatial units defined by either the stakeholders’ interests or national census divisions. Despite spatiotemporal variation of the multiple criteria involved in estimating the extent of coastal erosion risk, each polygon typically has a unique value of risk attributed homogeneously across its spatial extent. In reality, risk value changes gradually within polygons and when going from one polygon to another. Therefore, the transition from one zone to another is not properly represented with crisp object models. The main objective of the present thesis is to develop a new approach combining GeoBI paradigm and fuzzy concept to consider the presence of the spatial uncertainty in the representation of risk zones. Ultimately, we assume this should improve coastal erosion risk assessment. To do so, a comprehensive GeoBI-based conceptual framework is developed with an application for Coastal Erosion Risk Assessment (CERA). Then, a fuzzy-based risk representation approach is developed to handle the inherent spatial uncertainty related to vagueness and fuzziness of objects. Fuzzy membership functions are defined by an expert-based vulnerability index. Instead of determining well-defined boundaries between risk zones, the proposed approach permits a smooth transition from one zone to another. The membership values of multiple indicators (e.g. slop and elevation of region under study, infrastructures, houses, hydrology network and so on) are then aggregated based on risk formula and Fuzzy IF-THEN rules to represent risk zones. Also, the key elements of a fuzzy spatial datacube are formally defined by combining fuzzy set theory and GeoBI paradigm. In this regard, some operators of fuzzy spatial aggregation are also formally defined. The main contribution of this study is combining fuzzy set theory and GeoBI. This makes spatial knowledge discovery more understandable with human reasoning and perception. Hence, an analytical conceptual framework was proposed based on GeoBI paradigm to develop a fuzzy spatial datacube within Spatial Online Analytical Processing (SOLAP) to assess coastal erosion risk. This necessitates developing a framework to design a conceptual model based on risk parameters, implementing fuzzy spatial objects in a spatial multi-dimensional database, and aggregating fuzzy spatial objects to deal with multi-scale representation of risk zones. To validate the proposed approach, it is applied to Perce region (Eastern Quebec, Canada) as a case study.
APA, Harvard, Vancouver, ISO, and other styles
20

Kacem, Manel. "Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10051/document.

Full text
Abstract:
Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées<br>In this thesis we focus on two different problems which have as common point the contribution to the modeling and to the risk management in insurance. In the first research theme, we are interested by the modeling of the dependence in insurance. In particular we propose an extension to model with common factor. In the second research theme we consider the class of nonincreasing discrete distributions and we are interested in studying the effect of additional constraint of convexity on the convex extrema. Some applications in ruin theory motivate our interest to this subject. The first part of this thesis is concerned with factor models for the modeling of the dependency in insurance. An interesting property of these models is that the random variables are conditionally independent with respect to a factor. We propose a new model in which the conditioning is with respect to the entire memory of the factor. In this case we give some mixing properties of risk process under conditions related to the mixing properties of the factor process and to the conditional mixing risk process. The law of the sum of random variables has a great interest in actuarial science. Therefore we give some conditions under which the law of the aggregated process converges to a normal distribution. In the second part of the thesis we consider the class of discrete distributions whose probability mass functions (p.m.f.) are nonincreasing on a finite support. Convex extrema in that class of distributions are well-known. Our purpose is to point out how additional shape constraints of convexity type modify these extrema. Two cases are considered : the p.m.f. is globally convex on N or it is convex only from a given positive point. The corresponding convex extrema are derived by using a simple crossing property between two distributions. Several applications to some ruin problems are presented for illustration
APA, Harvard, Vancouver, ISO, and other styles
21

Djelassi, Abir. "Modélisation et prédiction des franchissements de barrières basées sur l'utilité espérée et le renforcement de l'apprentissage : application à la conduite automobile." Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/0cb14aca-51f3-4cd3-8727-f89febd00519.

Full text
Abstract:
La sûreté de fonctionnement dans les systèmes Homme-machine doit prendre en compte les défaillances des opérateurs humains. Pour limiter l’occurrence et/ou les conséquences des erreurs humaines, les concepteurs prémunissent les systèmes Homme-machine par des barrières qui peuvent être franchies par les opérateurs humains. Afin de mieux concevoir les barrières, il est nécessaire d’intégrer les franchissements de barrière dans la phase de conception des systèmes Homme-machine. Cette intégration nécessite la modélisation et la prédiction des franchissements de barrière. Ce mémoire propose deux modèles linéaires de l’utilité espérée des franchissements de barrière : un modèle générique et un modèle spécifique qui intègrent les critères relatifs à l’activité de l’opérateur humain, les attributs Bénéfices, Coûts et Déficits potentiels qui leurs sont associés, les poids αi, βi et γi associés aux attributs, les erreurs εαi, εβi et εγi sur les poids et le seuil de sensibilité Δu. Le paramétrage des éléments des deux modèles nous permet d’affiner la valeur de l’utilité espérée et donc de prédire les franchissements de barrière. La méthode de prédiction a été appliquée dans le cadre de la conduite automobile et donne de très bons résultats<br>Risk analysis in Human-machine system (HMS) has to take into account human errors to limit their occurrences or consequences. That’s why, HMS designers define many barriers in the HMS environment. However, these barriers may be removed by human operators. That’s why it’s necessary to integrate the barrier removal in HMS design in order to better their design. The best way that insures this integration is the barrier removal modelling and prediction. This work proposes two linear models of the barrier removal utility: a generic one and a specific one. They integrate the different criteria related to the human operator activity, the Benefits, Costs and potential Deficits associated to these criteria, the weights αi, βi, and γi, the erreors εαi, εβi and εγi and the sensibility threshold Δu. The modification of these two last model’s elements provides an amelioration of the barrier removal utility value and so the barrier removal prediction. This new barrier removal prediction method was applied to the car driving domain. Its results are very interesting
APA, Harvard, Vancouver, ISO, and other styles
22

Thomas, Philippe. "Contribution à l'approche booléenne de la sûreté de fonctionnement : L'atelier logiciel Aralia WorkShop." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12480.

Full text
Abstract:
Cette thèse synthétise les travaux conduits et les résultats obtenus dans le cadre de deux projets de recherche soutenus par des partenaires industriels et décrits ci-après: le projet Hévéa visait à traduire les séquences des arbres d'événements (AdE) en formules booléennes. La première phase du projet a abouti à une formalisation du problème et à la réalisation d'un logiciel permettant cette traduction. La deuxième phase a permis de trouver des solutions permettant de diminuer les problèmes d'explosion combinatoire du traitement par diagrammes binaires de décision (BDD : Binary Decision Diagram) des formules booléennes ainsi générées. La troisième phase a validé les approximations généralement utilisées lors des Etudes Probabilistes de Sûreté (EPS) des centrales nucléaires au terme d'une étude systématique portant sur deux EPS industrielles. Le projet Aloès avait pour but d'étudier des problèmes d'allocation d'exigences s'appuyant sur des modèles booléens d'analyse des risques. Après une recherche bibliographique et des discussions avec les partenaires du projet, il a abouti à la création d'un langage générique de description de problèmes d'allocation. Ce langage, ainsi que le logiciel Aloès supportant le langage, sont suffisamment génériques pour être couplé à des moteurs des calculs externes comme Aralia (voir ci-dessous) ou Réséda (outil traduisant un réseau de fiabilité en formule booléenne). Le logiciel offre alors trois algorithmes d'optimisation (descente rapide, Branch & Bound, Simplex) afin de résoudre les problèmes d'allocation. Des expérimentations sur un ensemble de réseaux de fiabilité ont permis de valider le pouvoir d'expression du langage, mais ont conclu sur la nécessité d'améliorer les algorithmes d'optimisation intégrés. L'ensemble de ces travaux a débouché sur la création de l'atelier logiciel Aralia WorkSkop de saisie et de traitement des modèles booléens d'analyse des risques (Arbre de défaillance : AdD, Arbre d'événements : AdE, Bloc diagramme de fiabilité : BDF), s'appuyant pour la partie traitement sur le cceur de calcul Aralia. Ce dernier se base sur un codage des formules booléennes en BDD.
APA, Harvard, Vancouver, ISO, and other styles
23

Bengoubou-Valérius, Mendy. "Contribution à la connaissance de l'aléa sismique des Antilles Françaises : analyses des données sismologiques et accélérométriques régionales." Antilles-Guyane, 2008. https://tel.archives-ouvertes.fr/tel-00409021.

Full text
Abstract:
L'arc des Petites Antilles situé sur la bordure nord-est de la plaque Caraïbe, résulte d'un phénomène de subduction, les plaques américaines plongeant sous celle de la Caraïbe avec une vitesse de 2 cm/an. Les Antilles Françaises représentent la région française ou le risque sismique est le plus important. Ce travail dont l'objectif est d'améliorer la connaissance de l'aléa sismique dans les Antilles Françaises, repose sur les données du réseau accélérométrique permanent (RAP) et sur celles du « Centre de Données des Antilles Françaises ». L'analyse de ces données permet de mieux contraindre la sismicité de l'arc. Deux zones de très faible sismicité sont mises en évidence: au nord près des Iles Vierges et au sud entre Sainte-Lucie et Grenade. D'autres points sont aussi résolus: imagerie de la subduction le long de l'arc, relations entre la sismicité superficielle et la tectonique active, variations de la pente (b-value) de la loi de Gutenberg-Richter. Le séisme majeur du 21 novembre 2004 Mw=6. 3 est au coeur des deux derniers chapitres. Plusieurs aspects y sont présentés: macrosismicité avec l'évaluation d'intensités EMS98 obtenues du dépouillement de formulaires individuels recueillis pour les Iles des Saintes, et relocalisation par la méthode de maître/esclave du choc principal et de sa plus forte réplique du 14 février 2005, de façon à mieux contraindre l'imagerie de la source du choc principal, étape primordiale pour la dernière partie portant sur la modélisation des signaux du choc principal des Saintes en utilisant une approche semi-empirique basée sur un modèle stochastique large-bande et des fonctions de Green empiriques sélectionnées parmi les répliques<br>The Lesser Antilles is an area of high volcanic and earthquake activity, characterized by a 1000 km convergence zone resulting from the Atlantic plate subduction under the Caribbean plate with a slow convergent motion (2 cm/year). With five years of available data, the CDSA data base presents a more homogeneous vision of lesser Antilles arc seismicity and allows detecting low seismic activity zones, in the north near the Virgin Islands, and in the south between St-Lucia and Grenada. The accuracy improvements of location is used to better study the relationship between tectonic structures and seismicity, to better define the subduction slab geometry, and to analyse the spatial variations of the Gutenberg-Richter law b-value. Concerning the 21 november 2004 les Saintes earthquake, EMS98 intensities in les Saintes islands were evaluated from an individual request in les Saintes islands and hypocenter relocalisations of the les Saintes earthquake and the biggest aftershock of 14 february 2005 were made using a method of master/slave in order to contrain the seismic source of the mainchock. As seismic hazard assessment depends trom strong ground motion generated by earthquakes, the last part of this work concerns modeling accelerometric records of the les Saintes earthquakes, combining a composite source model with an empirical Green Function technique. In our study, we used les Saintes aftershocks as empirical green function
APA, Harvard, Vancouver, ISO, and other styles
24

Dammak, Fredj Amine. "Essais sur la gestion d'actifs a l'international : évaluation en présence de frictions et diversification." Thesis, Amiens, 2018. http://www.theses.fr/2018AMIE0057/document.

Full text
Abstract:
Mon activité de recherche dans le cadre de la thèse s'est développée autour d'un axe principal : évaluer les actifs financiers en présence des imperfections sur les marchés. Les modèles d'évaluation des actifs financiers à l'international montrent que l'allocation optimale de richesse consiste à détenir le portefeuille mondial et un actif sans risque. L'observation des portefeuilles montre en revanche que les investisseurs manifestent une nette préférence pour les actifs domestiques, ce qui va à l'encontre des enseignements de la théorie standard, donc de la diversification internationale. Le premier chapitre présente une revue de la littérature sur les avantages présentés par la diversification internationale, les problèmes de la prime de risque et examine les différentes explications de la sous-diversification, ce qui est qualifié dans la littérature par le biais domestique. Ainsi, nous avons présenté les différents facteurs explicatifs de ce biais. Ces facteurs sont le risque de taux de change ou l'effet de l'inflation, les taxes, les coûts de transactions, les restrictions imposées sur les investisseurs, et les effets de l'asymétrie d'information. Le deuxième chapitre présente une étude empirique impliquant les techniques de cointégration basées sur les travaux de Johansen et Juselius (1990, 1988), les modèles BEKK d’Engle et Kroner (1995), DCC-MGARCH d’Engle (2002) et la technique des copules. Les outils implémentés montrent l'impact de la corrélation dynamique et de la volatilité sur les gains de diversification. Ce chapitre a le mérite d'avancer une mesure de gain de diversification dans un contexte dynamique sur la base du MEDAF international. A l'aide de différents tests robustes, relatifs à l'étude de la segmentation et l'intégration des marchés, nous conclurons que les marchés émergents composant notre échantillon offrent des gains significatifs en matière de diversification aux investisseurs internationaux. Notre analyse empirique montre que les nouvelles classes d'actifs, tels que l'indice des œuvres d'Art, les indices de l'Immobilier et l'indice Dow Jones Islamique constituent des valeurs refuges et offrent un important gain en termes de diversification internationale. Le troisième chapitre présente un modèle d'évaluation des actifs financiers en présence d'une asymétrie d'information et de coûts de transaction liés à la vente à découvert sur les actifs. Notre modèle constitue une généralisation des contributions de Merton (1987) et de Wu et al (1996) dans un cadre d'analyse dynamique similaire à Adler et Dumas ( 1983). Ce modèle montre pour la première fois dans la littérature l'effet conjugué de deux facteurs de segmentation en présence d'un risque de change systématique. Notre relation d'équilibre explique la préférence pour les actifs domestiques par les coûts d'information, les coûts liés à la vente à découvert et montre que les risques de change et de marché sont évalués dans un cadre international. Cette évaluation est captée à travers la présence de deux primes de risques systématiques. Nos simulations mettent en évidence l'effet des coûts et du risque de change sur la valeur des actifs. Le quatrième chapitre présente un modèle d'évaluation en présence d'une contrainte sur les ventes à découvert, d'une asymétrie d'information et d'une hétérogénéité des investisseurs. Cette hétérogénéité est attribuée à la différence observée au niveau du comportement des investisseurs et leurs opinions sur l'évolution des rendements futurs des actifs. Notre analyse est inspirée des études de Merton (1987), Black et Litterman (1992) et Wu et al (1996). A l'équilibre notre modèle permet d'aboutir à deux conclusions majeurs : 1, Les marchés internationaux ne sont pas efficients en présence d'une asymétrie d'information et d'une contrainte institutionnelle sur les ventes à découvert. 2, La diversification internationale est opérée par les investisseurs sur la base d'un arbitrage entre les coûts informationnels
APA, Harvard, Vancouver, ISO, and other styles
25

Sanson, Francois. "Estimation du risque humain lié à la retombée d'objets spatiaux sur Terre." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX035.

Full text
Abstract:
Les réglementations récentes imposent la rentrée dans l’atmosphère d'objects spatiaux artificiels en fin de vie et la quantification du risque humain associé. Le calcul du risque repose sur des simulations numériques de la réentrée de l'objet.Ces simulations multi-physiques utilisent des modèles mathématiques simplistes et se basent sur une connaissance imparfaite des conditions de réentrée. Dans ce travail, nous proposons de nouvelles techniques de quantification d’incertitude pour améliorer la robustesse des prédictions de réentrée. Dans un premier temps, un simulateur de réentrée est assemblé. La prédiction de la réentrée d'un objet étant un problème multi-physique complexe, notre simulateur utilise un système de solveurs chaînés dans lequel chaque solveur simule une phase de la réentrée avec sa physique particulière. Nous développons ensuite deux stratégies pour réaliser la propagation d'incertitude à faible cout dans notre simulateur. Ces deux stratégies s’appuient sur des modèles de substitutions.La première stratégie de substitution de modèle est une approche générique permettant d'approcher un système de solveurs chaînés par un système de processus gaussiens (System of Gaussian Processes, SoGP). Cette approximation probabiliste est construite en représentant chaque solveur (ou groupe de solveurs) par un processus gaussien (GP). Nous montrons que la variance prédictive du SoGP est décomposable en contributions associées à chaque GP. Cette décomposition de la variance est ensuite exploitée pour concevoir des stratégies d’apprentissage actif et générer des ensembles d'entrainement parcimonieux en renforçant l’apprentissage du GP le moins fiable. La performance du SoGP est étudiée sur plusieurs cas analytiques et industriels. Dans toutes les situations considérées, le SoGP surpasse les approches plus directes.La seconde contribution de la thèse porte sur la construction de modèle de substitution pour la prédiction de la survie d'objets spatiaux. Lors de la réentrée, un objet spatial se fragmente et génère des débris. Certains débris brulent dans l'atmosphère tandis que d'autres atteignent le sol. Pour évaluer la survie d'un fragment, il faut déterminer s’il atteint le sol et, si c'est le cas, évaluer son point de chute et le risque associé. Dans ce travail, on propose une formulation originale du problème de la survie pour calculer efficacement le risque avec un modèle de substitution. Ce modèle de substitution repose sur la composition d'un classificateur et d'un processus gaussien. Le modèle est entraîné à l'aide d'une stratégie d'apprentissage actif dédiée qui équilibre les contributions du classificateur et du GP à l’erreur de prédiction de la survie, en proposant des plans d'entrainement adaptés.Pour finir, les méthodes proposées dans la thèse sont appliquées à la simulation de la réentrée contrôlée d’un étage supérieur de fusée et la survie des fragments qui en résulte. Un grand nombre d’incertitudes (38) sont prises en compte et propagées, comprenant les caractéristiques de l’orbite initiale, les conditions de désorbitation, les propriétés du matériau de l’étage supérieur, les entrées du modèle d’atmosphère et les propriétés des matériaux des fragments. De plus, un modèle probabiliste de fragmentation est utilisé pour prédire de manière robuste la rupture de l'objet en tenant compte des incertitudes de modélisation. Les méthodes développées dans la thèse permettent d’estimer à un coût de calcul raisonnable les statistiques des conditions de vol au moment de la fragmentation, la probabilité de survie de chaque fragment et le risque humain associé. Une analyse de sensibilité globale montre que les incertitudes les plus influentes sont liées au modèle de fragmentation et aux conditions de désorbitation. Cette étude démontre ainsi la capacité de notre simulateur à produire une mesure robuste du risque au sol, sur un scénario de réentrée réaliste, et à un coût numérique acceptable<br>Recent regulations impose the re-entry of human-made end-of-life space object with a rigorous assessment of the risk for human assets. The risk evaluation requires sequences of complex numerical simulations accounting for the multi-physics phenomena occurring during the reentry of a space object, e.g., fluid-structure interactions and heat transfer. Further, these simulations are inaccurate because they rely on overly simplified models and partial knowledge of the reentry conditions.In this thesis, we propose novel uncertainty quantification techniques to deal with some of the uncertainties characterizing the problem and apply them to predict the risk for human assets due to the reentry of a space object.First, we construct a system of solvers to predict both the controlled or uncontrolled reentry of space objects. Compared to the existing reentry software, our system naturally accommodates the uncertainty in the object breakup predictions. Moreover, the constitutive solvers are interfaced and coupled within a framework that allows a single user to perform parallel runs of the full system.Second, we present two original methods to propagate the uncertainties in reentry predictions using the system of solvers. First, we construct a surrogate model approximating the directed systems of solvers, using a system of Gaussian Processes (SoGP). We build this probabilistic surrogate by approximating each solver (or a group of solvers) of the directed system by a Gaussian Process (GP). We show that the predictive variance of the SoGP is composed of individual contributions from each GP.We use this decomposition of the variance decomposition to develop active learning strategies based on training datasets which are enriched parsimoniously to improve the prediction of the least reliable GP only. We assessed the performance of the SoGP on several analytical and industrial cases. The SoGP coupled with active learning strategies yielded systematically significant improvements.The second method aims at predicting the survivability of space objects. During a space reentry event, the object can break up and generate fragments. Some fragments disintegrate in the atmosphere while others survive to the ground. Assessing the survivability of a fragment implies determining whether it reaches the ground or not and if it does, the impact location and the risk associated. We propose an original formulation of the survivability assessment problem to efficiently estimate the risk. The proposed method involves the composition of a classifier (demise prediction) with a Gaussian Process (impact location prediction).Dedicated active learning strategies are designed to balance the prediction errors of the classifier and GP and allocate training samples adequately.Finally, we apply the methods developed in the thesis to the prediction of the controlled reentry of a rocket upper-stage. The problem involves a large number of uncertainties (38), including the initial orbit properties, the deorbiting conditions, the upper stage material characteristics, the atmosphere model parameters, and the fragment material uncertainties. Moreover, we use a probabilistic breakup model for the object breakup to account for the model uncertainties. With our methods, we estimate at a reasonable computational cost the statistics of the conditions at breakup, the survival probability of the fragments, the casualty area, and the human risk. Global sensitivity analyses of the breakup conditions and casualty area provide a ranking of the most critical uncertainties. This study demonstrates the capability of our surrogate simulator to produce a robust measure of on-ground risk for a realistic reentry scenario
APA, Harvard, Vancouver, ISO, and other styles
26

Caudeville, Julien. "Développement d'une plateforme intégrée pour la cartographie de l'exposition des populations aux substances chimiques : construction d'indicateurs spatialisés en vu d'identifier les inégalités environnementales à l'échelle régionale." Compiègne, 2011. http://www.theses.fr/2011COMP1960.

Full text
Abstract:
L'objectif de cette thèse est de développer une plateforme intégrée et spatialisée permettant de déterminer les inégalités liées aux expositions environnementales des populations aux substances chimiques. Un modèle multimédia d'exposition est utilisé pour permettre le calcul des doses d'exposition de populations cibles liées à l'ingestion de produits alimentaires, d'eau de consommation, de sol et à l'inhalation de contaminants atmosphériques. Ce modèle est alimenté par des bases de données géoréférencées de différents types : environnemental (eau, air, sol, alimentation), comportemental, démographique, interfacé dans un Système d'Information Géographique (SIG). Une étude pilote est détaillée sur les régions Nord-Pas-de-Calais et Picardie, pour le cadmium, le plomb, le nickel et le chrome. Les zones de surexposition potentielle et leurs déterminants ont été identifiés par l'analyse spatiale des variations des indicateurs de risque. La mise en évidence de zones de plus fortes contaminations environnementales et/ou de surexpositions potentielles présente des incertitudes dont une partie est, à ce stade, simulée dans la plateforme. L’étude pilote a permis d'établir l'opérationnalité de la plateforme. Les cartes d'exposition obtenues permettent d'identifier les zones géographiques dans lesquelles conduire en priorité des études environnementales de terrain afin d'aider à la mise en oeuvre de mesures de réduction de l'exposition. Ces travaux proposent également d'améliorer l'évaluation des risques sanitaires « classique » avec une meilleure intégration des déterminants essentiels de l'exposition réelle des populations au niveau d'un territoire<br>The aim of this thesis was to develop an integrated and spatialized platform that allows characterizing the inequality linked to environmental exposure of population to chemical substances. A multimedia exposure model was used to assess the exposure dose of target population via inhalation of atmospheric contaminants and via ingestion of soil, food and drinking water. This model uses geo-referenced databases implemented in a GIS including environmental (water, air, soil, food), behavioral, and demographic data. A case study was performed across two regions in France (Picardie and Nord-Pas-de-Calais) for cadmium, chromium, nickel and lead. Exposure hotspot areas and determinants were identified by the spatial analysis of risk indicator variations. Uncertainties are associated with highlighting areas where potential hotspot exposure have been detected. Some of these uncertainties are simulated by the platform. The case study has allowed to demonstrate the platform feasibility and functioning. Hotspot areas with significantly elevated exposure indicator values might be used to define environmental monitoring campaigns, to manage and plan remedial actions. This work proposes also to improve “classical” health risk assessment with a better integration of essential determinant for the real population exposure at the territory scale
APA, Harvard, Vancouver, ISO, and other styles
27

Kabeshova, Anastasiia. "Prédire la chute de la personne âgée : apports des modèles mathématiques non-linéaires." Thesis, Angers, 2015. http://www.theses.fr/2015ANGE0045/document.

Full text
Abstract:
En 2015, la chute de la personne âgée reste toujours un événement majeur, quel que soit l’angle de vue considéré. Elle est toujours associée à une forte morbi-mortalité, nombreuses incapacités, altération la qualité de vie du chuteur, mais aussi, en raison du vieillissement de la population, avec le nombre croissant de chuteurs requérant une prise en charge médicale. Cette situation repose en bonne partie sur notre incapacité à identifier la personne âgée qui est le plus à risque de chute, cette étape étant la première de toute stratégie d’intervention efficace et efficiente. Il est donc nécessaire voir obligatoire aujourd’hui de redoubler nos efforts sur l’amélioration de la prédiction de la chute. En contrepartie de nouvelles opportunités s’ouvrent à nous en raison de l’implantation et de l’informatisation des données médicales. La chute doit être considérée comme un événement chaotique et sa prédiction doit se faire via de nouveaux modèles mathématiques intégrant la particularité de ce comportement. C’est pour cette raison que des méthodes d’analyse basée sur l'intelligence artificielle semblent être une solution appropriée. C’est à partir de ce constat que nous avons émis l’hypothèse que les modèles mathématiques issus de l’intelligence artificielle devaient permettre d’atteindre une qualité de la prédiction meilleure. L’objectif principal de cette thèse est d’étudier la qualité de la prédiction de la chute, récurrente ou non, chez des personnes âgées de 65 ans et plus, en utilisant les réseaux neuronaux et un modèle de logique floue, en les comparant avec des modèles mathématiques linéaires utilisés classiquement dans la littérature. L’ensemble de nos résultats confirme notre hypothèse de départ en montrant que le choix du modèle mathématique influence la qualité de la prédiction de la chute, les modèles non linéaires, et notamment les réseaux neuronaux et les systèmes de logique flous, étant plus performants que les modèles linéaires pour la prédiction des chutes surtout lorsqu’elles sont récurrentes<br>Falls in the elderly are still a major issue in 2015 because they are associated with high rate of morbidity, mortality and disability, which affect the quality of life. From the patient’s perspective, it is still associated with high morbidity, mortality and disability, which affect the quality of life. The number of fallers requiring medical and/or social care is growing up due to aging population. This fact seems paradoxical since during the recent years the knowledge about the mechanisms of falls and the quality of interventions to support fallers significantly increased. This is largely based on our inability to predict correctly the risk of falling among the elderly person, knowing that this is the first step of any efficient and effective intervention strategies. Therefore it is necessary today to double our efforts in improving the prediction of falls. Nonetheless, new opportunities and advanced technologies provide to us the possibility of computerizing of medical data and research, and also to improve prediction of falls using new approaches. A fall should be considered as a chaotic event, and its prediction should be done via new mathematical models incorporating the feature of this behaviour. Thus, the methods ofartificial intelligence-based analysis seem to be an appropriate solution to analyse complex medical data. These artificial intelligence techniques have been already used in many medical areas, but rarely in the field of fall prediction. Artificial neural networks are the most commonly used methods while other promising techniques based on fuzzy logic are less often applied.Based on this observation we have formulated the hypothesis that non-linear mathematical models using artificial intelligence are the models, which are the most likely to achieve the bestquality of the prediction. The main objective of this thesis is to study the quality of theprediction of falls, recurrent or not, among the adults aged 65 years and more,applying neuralnetworks and fuzzy logic models, and comparing them either among themselves or with the linear mathematical models conventionally employed in the literature for fall prediction. The first cross-sectional study was conducted by using a decision tree to explore the risk of recurrent falls in various combinations of fall risk factors compared to a logistic regression model. The second study was designed to examine the efficiency of artificial neural networks (Multilayer Perceptron and Neuroevolution of Augmenting Topologies) to classify recurrent and nonrecurrent fallers by using a set of clinical characteristics corresponding to risk factors measured among seniors living in the community. Finally, in the third study we compared the results of different statistical methods (linear and nonlinear) in order to identify the risk of falls using 7 clinical variables, separating the collection mode (retrospective and prospective) of the fall and its recurrence. The results confirm our hypothesis showing that the choice of the mathematical model affects the quality of fall prediction. Nonlinear models, such as neural networks and fuzzy logic systems, are more efficient than linear models for the prediction of falls especially for recurrent falls. However, the results show that the balance between different criteria used to judge the quality of the forecast (sensitivity, specificity, positive and negative predictive value, area under the curve, positive and negative likelihood ratio, and accuracy) has not been always correct, emphasizing the need to continue the development of the models whose intelligence should specifically predict the fall
APA, Harvard, Vancouver, ISO, and other styles
28

Medjkane, Mohand. "L' espace des risques routiers : Apports conceptuels et méthodologiques de la géographie aux problématiques territoriales de sécurité routière." Caen, 2011. http://www.theses.fr/2011CAEN1613.

Full text
Abstract:
Les résultats récents des politiques de sécurité routière en France montrent leurs limites. Il apparait que les actions centrées sur les comportements des usagers de la route (prévention/répression) ne suffisent plus à répondre à la demande de sécurité sur les voies publiques. Cette recherche appuie le constat d'une nécessité de la prise en compte de la complexité de cette problématique en repensant l'objet d’étude sous l'angle et les focales de l'analyse géographique des risques spatialisés. Les risques routiers peuvent en effet être insérés dans le cadre général de la gestion territoriale, ce qui permet de penser l'analyse des risques dans une perspective stratégique. L'analyse se fonde alors sur la recherche d'une intégration effective des préoccupations de sécurité routière dans la gestion politique des territoires. Cette recherche a pu montrer sur le terrain de Lille Métropole Communauté Urbaine l'apport de la géographie au travers de la construction en concertation étroite entre experts locaux, géographes et accidentologues d'un système d'information géographique(SIG). Son objectif est d'offrir une méthode de transcription du discours des acteurs afin de jouer véritablement le rôle d'aide à la décision, et de pouvoir être porteur des préoccupations de sécurité dans les décisions d'aménagements urbains. Les résultats montrent la capacité des SIG à être le support d'expérimentations spatiales en précisant progressivement, selon un processus participatif, les représentations et connaissances expertes des acteurs sur la thématique des risques routiers<br>Recent results of road safety policies in France show their limits. It appears that the actions focused on the behavior of road users (prevention / repression) are no longer sufficient to meet the demand for security on highways. This research supports the finding of a need to take into account the complexity of this problem by rethinking the subject of study as the focus of spatialized risk analysis. Road hazards can indeed be inserted into the general framework for the territory management and therefore suggests the risk analysis at a strategic level. The analysis is then based on finding an effective integration of road safety concerns in the political management of the territories. This research demonstrates, in the study area of Lille Métropole Communauté Urbaine, the contribution of geography through the construction of a dedicated geographic information system (GIS) in partnership with local experts, geographers and road safety analysts. Its goal is to provide a method for transcribing the speech of the actors to really play the role of decision support, and can be provided with safety concerns in urban planning decisions. The results show the ability of GIS to be the support of space experiments indicating progressively, through a participatory process, the representations and expert knowledge of the actors on the theme of road hazards
APA, Harvard, Vancouver, ISO, and other styles
29

Cloutier, Catherine. "Évaluation du comportement cinétique et du risque associé aux glissements de terrain rocheux actifs à l'aide de mesures de surveillance : le cas du glissement de Gascons, Gaspésie, Canada." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30635/30635.pdf.

Full text
Abstract:
Un glissement de terrain actif menace l’intégrité de l’unique chemin de fer qui relie la ville de Gaspé au reste du Québec. Il est impératif de comprendre les mécanismes qui contrôlent cette instabilité afin d’augmenter la sécurité de ce tronçon de la voie ferrée. Un système d’instrumentation du massif fût mis en place en 2009 pour caractériser le glissement, décrire son comportement cinétique, proposer des scénarios de rupture et évaluer le risque. Cette thèse de doctorat rassemble trois articles portant sur ces aspects. Ce document se veut aussi un moyen de partager les connaissances acquises sur l’instrumentation d’un massif rocheux, ainsi que la contribution de ces instruments à un système de prédiction d'un événement potentiellement dangereux. Le glissement de Gascons est une rupture dièdre asymétrique de 410 000 m³. Il glisse sur le litage de la formation sédimentaire de l’Anse-à-Pierre-Loiselle, une unité de transition composée majoritairement de calcilutite à nodules. Le glissement est divisé en blocs par l’étude des linéaments et des fractures. De plus, des surfaces de rupture intermédiaires sont reconnues. Le suivi in-situ couplé au suivi satellitaire mesure des déplacements variant de 6 à 111 mm/an selon les secteurs. L’interaction entre le glissement et les facteurs environnementaux, comme la présence d’eau, est complexe, mais bien présente. La nappe phréatique se situe généralement tout juste sous la surface de rupture dans la majorité du glissement, mais les précipitations et la fonte des neiges augmentent les pressions d’eau et le niveau équivalent de l’eau sous-terraine augmente au-dessus de la surface de rupture dans le secteur amont du glissement. Une analyse quantitative du risque est effectuée en adaptant la méthodologie proposée par Fell et al. (2005). Des scénarios de ruptures sont déterminés et l’effet domino d’une rupture partielle est étudiée avec un arbre d’évènements qui permet d’associer des probabilités relatives. La probabilité spatio-temporelle minimale sans prédiction est définie afin de caractériser le risque associé à un glissement actif sans prédire la rupture. Enfin, cette recherche contribue à améliorer la compréhension théorique des mécanismes associés au domaine de la post-rupture, par exemple le rôle de l’eau dans la progression d’une instabilité active.<br>An active rockslide threatens the integrity of the single railway connecting the town of Gaspé to the rest of Quebec. A better understanding of the mechanisms controlling this instability is needed to increase the safety of this section of the track. An instrumentation system was set up in 2009 to characterize the rockslide, describe its kinematic behaviour, propose failure scenarios and assess the risk. This thesis presents three papers covering these aspects. This document is also meant to share knowledge on the instrumentation of a very slow rockslide, and the contribution of these instruments to an early warning system of a potentially dangerous event. The Gascons slide is a 410 000 m³ asymmetrical wedge failure. It slides on the bedding of the sedimentary Formation of Anse-à-Pierre Loiselle, which is a transition unit mostly made up of nodulous calcilutite. The slide is divided into blocks by the study of lineaments and fractures and intermediate sliding surfaces are identified. In-situ monitoring, coupled with satellite monitoring, shows displacements varying from 6 to 111 mm/yr across different sectors. The slide is sensitive to environmental forces, such as groundwater level variations, but the interactions are complex. The water table is generally right below the sliding surface, but rainfall and snowmelt increase groundwater pressure, and the equivalent water level is then above the sliding surface in the uphill part of the slide. A quantitative risk analysis is carried out by adapting a methodology proposed by Fell et al. (2005). Failure scenarios are determined and the domino effect of a partial collapse event is evaluated by constructing an event tree, which enables the determination of relative probabilities. The concept of minimum temporal spatial probability without forecasting is defined to characterize the minimal risk associated with an active slide without predicting the rupture. Finally, this work contributes to improving the theoretical understanding of the mechanisms associated with the post-failure stage, for example the role of water in the progression of an active instability.
APA, Harvard, Vancouver, ISO, and other styles
30

Saint-Geours, Nathalie. "Analyse de sensibilité de modèles spatialisés : application à l'analyse coût-bénéfice de projets de prévention du risque d'inondation." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20203/document.

Full text
Abstract:
L'analyse de sensibilité globale basée sur la variance permet de hiérarchiser les sources d'incertitude présentes dans un modèle numérique et d'identifier celles qui contribuent le plus à la variabilité de la sortie du modèle. Ce type d'analyse peine à se développer dans les sciences de la Terre et de l'Environnement, en partie à cause de la dimension spatiale de nombreux modèles numériques, dont les variables d'entrée et/ou de sortie peuvent être des données distribuées dans l'espace. Le travail de thèse réalisé a pour ambition de montrer comment l'analyse de sensibilité globale peut être adaptée pour tenir compte des spécificités de ces modèles numériques spatialisés, notamment la dépendance spatiale dans les données d'entrée et les questions liées au changement d'échelle spatiale. Ce travail s'appuie sur une étude de cas approfondie du code NOE, qui est un modèle numérique spatialisé d'analyse coût-bénéfice de projets de prévention du risque d'inondation. On s'intéresse dans un premier temps à l'estimation d'indices de sensibilité associés à des variables d'entrée spatialisées. L'approche retenue du « map labelling » permet de rendre compte de l'auto-corrélation spatiale de ces variables et d'étudier son impact sur la sortie du modèle. On explore ensuite le lien entre la notion d'« échelle » et l'analyse de sensibilité de modèles spatialisés. On propose de définir les indices de sensibilité « zonaux » et « ponctuels » pour mettre en évidence l'impact du support spatial de la sortie d'un modèle sur la hiérarchisation des sources d'incertitude. On établit ensuite, sous certaines conditions, des propriétés formelles de ces indices de sensibilité. Ces résultats montrent notamment que l'indice de sensibilité zonal d'une variable d'entrée spatialisée diminue à mesure que s'agrandit le support spatial sur lequel est agrégée la sortie du modèle. L'application au modèle NOE des méthodologies développées se révèle riche en enseignements pour une meilleure prise en compte des incertitudes dans les modèles d'analyse coût-bénéfice des projets de prévention du risque d'inondation<br>Variance-based global sensitivity analysis is used to study how the variability of the output of a numerical model can be apportioned to different sources of uncertainty in its inputs. It is an essential component of model building as it helps to identify model inputs that account for most of the model output variance. However, this approach is seldom applied in Earth and Environmental Sciences, partly because most of the numerical models developed in this field include spatially distributed inputs or outputs . Our research work aims to show how global sensitivity analysis can be adapted to such spatial models, and more precisely how to cope with the following two issues: i) the presence of spatial auto-correlation in the model inputs, and ii) the scaling issues. We base our research on the detailed study of the numerical code NOE, which is a spatial model for cost-benefit analysis of flood risk management plans. We first investigate how variance-based sensitivity indices can be computed for spatially distributed model inputs. We focus on the “map labelling” approach, which allows to handle any complex spatial structure of uncertainty in the modelinputs and to assess its effect on the model output. Next, we offer to explore how scaling issues interact with the sensitivity analysis of a spatial model. We define “block sensitivity indices” and “site sensitivity indices” to account for the role of the spatial support of model output. We establish the properties of these sensitivity indices under some specific conditions. In particular, we show that the relative contribution of an uncertain spatially distributed model input to the variance of the model output increases with its correlation length and decreases with the size of the spatial support considered for model output aggregation. By applying our results to the NOE modelling chain, we also draw a number of lessons to better deal with uncertainties in flood damage modelling and cost-benefit analysis of flood riskmanagement plans
APA, Harvard, Vancouver, ISO, and other styles
31

Ihsan, Mohammad. "Analysis of the stability of slopes submitted to water infiltration using advanced models : coupled hydromechanical model and Nonlinear Dynamics Method." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10091/document.

Full text
Abstract:
Ce travail de thèse porte sur l'analyse des glissements de terrain, qui constituent un risque naturel majeur responsable de pertes humaines élevées ainsi que de grands dommages aux structures, des infrastructures et de l'environnement naturel. Cette question revêt une importance particulière, en raison du changement climatique, qui augmente le risque de fortes pluies ainsi que la sécheresse, et par conséquent le risque d'instabilité des pentes due à l'environnement. Généralement, l'analyse de la stabilité des talus est réalisée en utilisant l’approche de l'équilibre limite. Comme cette théorie ne tient pas compte du processus de mobilisation du frottement, elle pourrait conduire à une surestimation du facteur de sécurité. Une analyse fiable de la stabilité des talus, en particulier dans les sols hétérogènes soumis à l'action de l'eau, nécessite l'utilisation de méthodes numériques avancées. Deux méthodes ont été utilisées dans cette recherche: la méthode de couplage hydromécanique et la méthode dynamique non linéaire<br>This research concerns analysis of landslides, which constitute a major natural risk responsible for high human losses as well as large damages to structures, infrastructure and natural environment. This issue becomes particularly important, because of the climate change, which increases the risk of heavy rains as well as severe drought and consequently the risk of slope instability due to the environment change. Generally, analysis of slope stability is conducted using the limit equilibrium theory. As this theory does not take into consideration the process of mobilization of the friction, it could lead to an overestimation of the safety factor. A reliable analysis of the slope stability, in particular in heterogeneous soils submitted to the water action, requires the use of advanced numerical methods. Two methods were used in this research: the coupled hydro-mechanical method and the nonlinear dynamic method
APA, Harvard, Vancouver, ISO, and other styles
32

Loko, Houdété Odilon. "Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en Inde." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30546/30546.pdf.

Full text
Abstract:
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
APA, Harvard, Vancouver, ISO, and other styles
33

Dacier, Marc. "Vers une évaluation quantitative de la sécurité informatique." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 1994. http://tel.archives-ouvertes.fr/tel-00012022.

Full text
Abstract:
Les systèmes d'information actuels doivent, à la fois, protéger les informations qui leur sont confiées et se plier à des environnements opérationnels variables. Cesdeux objectifs, sécurité et flexibilité, peuvent être antinomiques. Ce conflit conduit généralement à l'utilisation de systèmes offrant un niveau de sécurité acceptable, mais non maximal. Définir un tel niveau présuppose l'existence de méthodes d'évaluation de la sécurité. Cette problématique fait l'objet de cette thèse. L'auteur y passe en revue les différents critères d'évaluation existant ainsi que les méthodes dites d'analyse de risques. Ceci introduit la nécessité de définir un cadre formel capable de modéliser tout système et d'évaluer dans quelle mesure il satisfait à des objectifs de protection précis.<br />Les modèles formels développés pour l'étude de la sécurité informatique, n'offrent pas le cadre mathématique désiré. L'auteur montre qu'ils adoptent une hypothèse de pire cas sur le comportement des utilisateurs, incompatible avec une modélisation réaliste. Après avoir montré, sur la base du modèle take-grant, comment s'affranchir de cette hypothèse, l'auteur définit un nouveau modèle, le graphe des privilèges, plus efficace pour gérer certains problèmes de protection. Il illustre son utilisation dans le cadre des systèmes Unix.<br />Enfin, l'auteur propose d'évaluer la sécurité en calculant le temps et l'effort nécessaires à un intrus pour violer les objectifs de protection. Il montre comment définir un cadre mathématique apte à représenter le système pour obtenir de telles mesures. Pour cela, le graphe des privilèges est transformé en un réseau de Petri stochastique et son graphe des marquages est dérivé. Les mesures sont calculées sur cette dernière structure et leurs propriétés mathématiques sont démontrées. L'auteur illustre l'utilité du modèle par quelques résultats issus d'un prototype développé afin d'étudier la sécurité opérationnelle d'un système Unix.
APA, Harvard, Vancouver, ISO, and other styles
34

Le, Duy Tu Duong. "Traitement des incertitudes dans les applications des études probabilistes de sûreté nucléaire." Troyes, 2011. http://www.theses.fr/2011TROY0022.

Full text
Abstract:
L’objectif principal de cette thèse est de proposer une démarche de traitement des incertitudes paramétriques et des incertitudes de modèle affectant les résultats des indicateurs de risque utilisés dans les applications des Etudes Probabilistes de Sûreté nucléaire (EPS). Après étude des limites de l’approche probabiliste traditionnelle pour modéliser les incertitudes dans les EPS, une méthodologie de traitement dans le cadre de la théorie de Dempster-Shafer a été proposée. Cette démarche se décompose en cinq étapes principales. La première étape concerne la modélisation des incertitudes paramétriques par les fonctions de croyance et de plausibilité selon les données fournies dans les EPS. La second étape correspond à la propagation des ces incertitudes à travers le modèle de risque pour représenter les incertitudes associées aux indicateurs de risque calculés en sortie. Les incertitudes de modèle sont ensuite intégrées dans la troisième étape en prenant en compte des modèles de risque alternatifs. La quatrième étape a pour objectif de fournir aux décideurs des informations nécessaires pour la prise de décision en présence d’incertitudes (paramétriques et de modèle) et d’autre part d’identifier les incertitudes d’entrée ayant des contributions importantes sur le résultat. Enfin, la dernière étape boucle le processus en étudiant la mise à jour des fonctions de croyances en présence des nouvelles données. La méthodologie proposée a été mise en œuvre sur une application réelle simplifiée du modèle EPS<br>The aim of this thesis is to propose an approach to model parameter and model uncertain-ties affecting the results of risk indicators used in the applications of nuclear Probabilistic Risk assessment (PRA). After studying the limitations of the traditional probabilistic approach to represent uncertainty in PRA model, a new approach based on the Dempster-Shafer theory has been proposed. The uncertainty analysis process of the pro-posed approach consists in five main steps. The first step aims to model input parameter uncertainties by belief and plausibility functions ac-cording to the data PRA model. The second step involves the propagation of parameter uncertainties through the risk model to lay out the uncertainties associated with output risk indicators. The model uncertainty is then taken into account in the third step by considering possible alternative risk models. The fourth step is intended firstly to provide decision makers with information needed for decision making under uncertainty (parametric and model) and secondly to identify the input parameters that have significant uncertainty contributions on the result. The final step allows the process to be continued in loop by studying the updating of beliefs functions given new data. The pro-posed methodology was implemented on a real but simplified application of PRA model
APA, Harvard, Vancouver, ISO, and other styles
35

Maatig, Meriem. "Effets des comportements à risque des conducteurs sur la sinistralité : analyse empirique sur des données françaises." Paris 2, 2010. http://www.theses.fr/2010PA020031.

Full text
Abstract:
L'objectif de cette thèse est d'étudier empiriquement les effets des variables inobservables ou inobservées par l'assureur sur la sinistralité. Elle porte un intérêt particulier aux effets des comportements à risque des conducteurs. La prise en compte de ces comportements dans la modélisation de la sinsitralité pourrait avoir des effets significatifs. Pour ce faire, nous avons réalisé une enquête par questionnaire auprès de conducteurs de la région parisienne avec pour but d'avoir une meilleure connaissance des comportements des conducteurs au volant. A l'aide de cette enquête nous disposons de données individuelles sur les comportements des conducteurs et de données observables par l'assureur. Afin de cerner les effets de ces comportements sur le risque routier, nous avons utilisé des modèles économétriques simples (modèle de Poisson, binominal négatif et Logit) et des modèles à équations simultanées (bivarié et trivarié). Ce travail montre que l'effet des comportements à risque des conducteurs ne doit pas être négligé dans la modélisation de la sinistralité. La modélisation multivariée de la sinistralité montre que les caractéristiques qui expliquent la sinistralité et les comportements à risque des conducteurs sont corrélées. Dans ce cas, l'estimation autonome de l'équation de la sinistralité peut comporter un biais d'endogénéité. Les caractéristiques individuelles qui expliquent ces comportements expliquent aussi positivement la probabilité de sinistralité.
APA, Harvard, Vancouver, ISO, and other styles
36

Brissaud, Florent. "Contributions à la modélisation et à l'évaluation de la sûreté de fonctionnement de systèmes de sécurité à fonctionalités numériques." Troyes, 2010. http://www.theses.fr/2010TROY0015.

Full text
Abstract:
L’utilisation de nouvelles technologies au sein des systèmes relatifs à la sécurité soulève des problèmes en termes de maîtrise des risques technologiques, et il est nécessaire de disposer d’outils d’évaluation probabiliste adaptés à la complexité accrue de ces systèmes. Les travaux présentés dans ce mémoire apportent des contributions à l’évaluation de la sûreté de fonctionnement des systèmes de sécurité, et en particulier des capteurs-transmetteurs à fonctionnalités numériques qui combinent l’acquisition de données avec des fonctions avancées de traitement et de transmission de l’information. L’objectif est d’étendre les méthodes de modélisation de la sûreté de fonctionnement, afin de mieux prendre en compte les diverses interactions et les comportements dynamiques mis en jeu par ces systèmes. Le premier modèle proposé permet de représenter les aspects fonctionnels et matériels d’un système de sécurité, les défauts et défaillances, ainsi que les diverses relations entre éléments. Cette modélisation sert de support à des analyses de fiabilité et à des analyses d’incertitudes liées aux paramètres et au modèle. Une seconde contribution considère les capteurs-transmetteurs comme éléments de systèmes de contrôle-commande et vise à modéliser les interactions entre ces capteurs-transmetteurs, celles avec d’autres éléments du système, ainsi qu’avec le processus contrôlé, dans une approche de fiabilité dynamique<br>The use of new technologies in safety-related systems gives rise to specific issues with respect to risk management, and it needs having probabilistic evaluation tools adapted to the in-creasing complexity of systems. The thesis works presented in this dissertation contribute to the dependability evaluation of safety-related systems, and especially for digital-based transmitters, which combine data acquisition with information processing and transmission. The aim is to extend the dependability model-ling methods in order to take at best the various interactions and dynamic behaviours of the systems into account. The first proposed model allows to represent the functional and material aspects of a safety system, the faults and failures, as well as the different relations between elements. This modelling framework is used as support to perform reliability analyses and uncertainty analyses with regard to parameters and model. A second contribution assumes the transmitters as part of control systems and aims to model the interactions between transmitters, and the interactions with the other systems’ components and the process, using a dynamic reliability framework
APA, Harvard, Vancouver, ISO, and other styles
37

Serafin, Guillaume. "Stratégies optimales de maîtrise de la qualité de l’air dans les bureaux : évaluation du potentiel des matériaux adsorbants." Thesis, La Rochelle, 2020. http://www.theses.fr/2020LAROS001.

Full text
Abstract:
Les nombreuses études menées en France et dans le reste du monde au cours des vingt dernières années ont permis d’inscrire la qualité de l’air intérieur comme une problématique environnementale à part entière. L’enjeu de cette thèse repose sur l’évaluation de la qualité de l’air dans les bâtiments de bureaux, de sa qualification par le choix d’indicateurs pertinents à la recherche de solutions d’amélioration. Elle comporte deux volets aux objectifs complémentaires. Le premier traite de la caractérisation fine du potentiel des matériaux adsorbants pour la maîtrise de la qualité de l’air, sur la base de 6 polluants de familles chimiques différentes. Différents protocoles expérimentaux sont mis en œuvre afin de caractériser les différents aspects de la performance de 6 matériaux du marché, à savoir l’influence de la concentration sur les flux adsorbés, leur capacité d’adsorption, l’irréversibilité des processus, et la réduction des émissions des matériaux sur lesquels ils sont disposés. L’abattement des concentrations en formaldéhyde que peuvent procurer les matériaux adsorbants est ensuite évalué par des simulations de la qualité de l’air dans un bureau représentatif, en couplant une modélisation zonale des transferts aérauliques et de polluants dans l’ambiance à une modélisation détaillée des transferts dans les matériaux constitutifs des parois. Les résultats obtenus permettent d’analyser l’influence du type et de la position des matériaux adsorbants dans la pièce (plafond ou mur) et de juger de l’intérêt de recourir à ces matériaux par référence à d’autres stratégies de contrôle de la qualité de l’air. Le second volet de la thèse élargit la discussion en abordant la définition des traceurs les plus pertinents de la qualité de l’air dans les bâtiments de bureaux, en termes de risques sanitaires encourus par leurs occupants. Une méthode originale de hiérarchisation sanitaire des polluants présents dans l’air de ce type de bâtiments est proposée. 307 substances ayant fait l’objet de mesures de concentrations dans le monde sont ainsi évaluées vis-à-vis de leurs effets à seuil, via le calcul d’un indice de risque (IR), et de leurs effets cancérigène, mutagène, reprotoxique ou perturbateur endocrinien (CMRPE), via une classification de danger. Parmi elles, 57 sont considérées comme prioritaires de par leur classification CMRPE et 11 de par leur IR. Le mode de représentation graphique des résultats permet une sélection ou une actualisation facile des données, pour une analyse sur un périmètre géographique ou une période de mesure donnée, ou un suivi dynamique de la hiérarchisation. 130 substances dont certaines choisies car ne disposant pas ou peu de données de concentration dans la littérature ont fait l’objet d’une campagne de mesure dans 30 immeubles de bureaux de Nouvelle-Aquitaine. Les résultats obtenus permettent de compléter et d’affiner la hiérarchisation<br>The numerous studies carried out in France and in the rest of the world over the past twenty years have led to consider indoor air quality as a full environmental issue. The challenge of this thesis is the characterization of air quality in office buildings, from its qualification by the selection of relevant indicators to the definition of improvement solutions. It has two components with complementary objectives.The first one deals with the ability of sorptive materials to control indoor air quality. 6 commercially-available products, including 3 paints and 3 gypsum-based materials, were assessed against 6 well-known pollutants. Various experiments were carried out to address the influence of concentration on adsorption rate, the adsorption capacity of the materials, the irreversibility of the adsorption processes, and the decrease in the emissions from the walls when they are coated with sorptive materials. The reduction in formaldehyde concentrations that sorptive materials can provide is then evaluated from simulations of the air quality in a representative office. The model associates a zonal modeling of heat, airflows and pollutant transports in the room volume, and a detailed modeling of pollutants transfers within buildings materials. The simulation results show the influence of the type and arrangement of sorptive materials in the room (ceiling / wall). They also provide relevant information to assess the air cleaning efficiency of these materials by reference to other technical solutions for controlling indoor air quality. The second part of the thesis widens the discussion by tackling the identification of the most relevant pollutants to consider for an objective assessment of indoor air quality in office buildings. 307 substances having concentration measurements have been evaluated with regard to their threshold effects, through the calculation of a risk index (IR), and their carcinogenic, mutagenic reprotoxic or endocrine disruptor (CMRPE) effects, through existing hazard classifications. Among them, 57 are considered as priority contaminants due to their CMRPE classification. 11 others have an IR greater than 1. The graphical representation of the method results allows easy selection and updating of the data, for a more targeted study or a dynamic monitoring of the ranking. 130 substances including some selected as having no or very few concentration data have been measured in 30 office buildings located in Nouvelle-Aquitaine, France. These measurements were used to complete and refine the ranking based on published data
APA, Harvard, Vancouver, ISO, and other styles
38

Duclos, Audrey. "Development of phenomenological and risk assessment models of explosion for the emerging hydrogen-energy industry." Electronic Thesis or Diss., Compiègne, 2019. http://www.theses.fr/2019COMP2517.

Full text
Abstract:
Depuis quelques années, l’hydrogène apparaît comme un vecteur d’énergie crédible. Cependant les applications hydrogène sont toujours considérées dangereuses, tant est redouté un évènement dangereux tel qu’une explosion pourrait avoir lieu si une fuite d’hydrogène se produisait. La situation est donc l’enjeu essentiel et ne doit pas être un verrou pour l’introduction et le développement des objets hydrogène sur le marché. La première partie porte sur la maîtrise des risques, une méthode d’analyse des risques a été utilisée pour identifier les scénarios accidentels tout en prenant en compte les barrières de sécurité. La seconde partie est une revue de tous les phénomènes impliqués depuis le rejet d’hydrogène jusqu'à la combustion d’un mélange d’hydrogène-air, afin de sélectionner les modèles permettant le calcul du terme source jusqu’aux effets finaux. Cependant, les modèles existants relatifs à la formation d’une atmosphère explosive et à la propagation de flamme dans un confinement réel sont insuffisants. Par conséquent, des améliorations des modèles ont été réalisés à l’aide d’une campagne expérimentale dans une enceinte de 4 m3 munie un évent. La troisième partie est dédiée à la discussion, tous les résultats sont intégrés dans une boite à outils. Cet outil a été appliqué à la Greenergy Box, une application développée par AREVA Stockage d’Energie. Les conclusions sont que, sans prise en compte de la turbulence, dès que la concentration est supérieure à 20% d’hydrogène dans l’enceinte, il y a un risque d’avoir une importante explosion secondaire (explosion du mélange expulsé de l’enceinte). Si la turbulence était prise en compte, l’acceptation du risque serait remise en jeu<br>Since a few years, hydrogen appears as a credible energy-vector. However, hydrogen applications are still considered dangerous, as there is a fear of a dangerous event such as an explosion if a hydrogen leak occurs. Safety is therefore the key issue and should not be a lock for the introduction and development of hydrogen objects on the market. The first part deals with risk assessment, a risk analysis method was used to identify accidental scenarios while considering the safety barriers. The second part is a review of all the phenomena involved from the release of hydrogen to the combustion of a hydrogen-air mixture, in order to select the models allowing the calculation from the source term to the final effects. However, the existing models for the formation of an explosive atmosphere and flame propagation in a real containment are insufficient. Therefore, improvements of the models have been carried out by means of an experimental campaign in a 4 m3 vented enclosure. The third part is dedicated to the discussion, all results are integrated in a toolbox. This tool has been applied to the Greenergy Box, an application developed by AREVA Energy Storage. The conclusions are that, without taking turbulence into account, as soon as the concentration is higher than 20% of hydrogen in the enclosure, there is a risk of having a significant secondary explosion (explosion of the mixture expelled from the enclosure). If turbulence was taken into account, the acceptance of the risk would be questioned
APA, Harvard, Vancouver, ISO, and other styles
39

Tillier, Charles. "Processus et indicateurs de risque en assurance non-vie et sécurité alimentaire." Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100192.

Full text
Abstract:
L'analyse des risques est devenu un enjeu majeur dans notre société. Quels que soient les champs d'application dans lesquels une situation à risque peut survenir, les mathématiques et plus particulièrement les statistiques et les probabilités se révèlent être des outils essentiels. L'objet principal de cette thèse est de développer des indicateurs de risque pertinents et d'étudier les propriétés extrémales de processus intervenant dans deux domaines d'applications : en risque alimentaire et en assurance. La théorie du risque se situe entre l'analyse des valeurs extrêmes et la théorie des variables aléatoires à variations régulières ou à queues lourdes. Dans le premier chapitre, on définit les éléments clefs de la théorie du risque ainsi que la notion de variation régulière et on introduit différents modèles liés au risque alimentaire qui seront étudiés dans les chapitres 2 et 3. Le chapitre 2 présente les travaux effectués avec Olivier Wintenberger. Pour des classes de processus stochastiques, sous des hypothèses de variations régulières, on développe une méthode qui permet d'obtenir des équivalents asymptotiques en horizon fini d'indicateurs de risque en assurance et en risque alimentaire tels que la probabilité de ruine, le "temps passé au dessus d'un seuil" ou encore la "sévérité de la ruine". Le chapitre 3 se concentre sur des modèles en risque alimentaire. Précisément, on étudie les propriétés extrémales de différentes généralisations d'un processus d'exposition à un contaminant nommé KDEM pour Kinetic Dietary Exposure Model proposé par Patrice Bertail et ses co-auteurs en 2008. Sous des hypothèses de variations régulières, on propose des équivalents asymptotiques du comportement de queue et de l'indice extrémal du processus d'exposition. Enfin, le chapitre 4 passe en revue différentes techniques statistiques particulièrement adaptées à l'étude du comportement extrémal de certains processus de Markov. Grâce à des propriétés de régénérations, il est possible de découper le chemin des observations en blocs indépendants et identiquement distribués et de n'étudier ainsi que le processus sur un bloc. Ces techniques s'appliquent même si la chaîne de Markov n'est pas atomique. On se concentre ici sur l'estimation de l'indice de queue et de l'indice extrémal. On illustre la performance de ces techniques en les appliquant sur deux modèles - en assurance et en finance - dont on connaît les résultats théoriques<br>Risk analyses play a leading role within fields such as dietary risk, hydrology, nuclear security, finance and insurance and is more and more present in theapplications of various probability tools and statistical methods. We see a significant impact on the scientific literature and on public institutions in the past years. Risk theory, which is really close to extreme value analysis, typically deals with the occurrences of rare events which are functions of heavy-tailed random variables, for example, sums or products of regularly varying random variables. The purpose of this thesis is the following : to develop revelant risk indicators and to study the extremal properties of stochastic processes used in dietary risk assessment and in insurance. In Chapter 1, we present the main tools used in risk theory and the notion of regular variation and introduce different models involved in dietary risk assessment, which will be specifically studied in Chapters 2 and 3. Chapter 2 presents a joint work with Olivier Wintenberger. For a particular class of stochastic processes, under the assumption of regular variation, we propose a method that gives way to asymptotic equivalents on a finite-time horizon of risk indicators such as the ruin probability, the Expected Time over a Threshold or the Expected Severity of the ruin. Chapter 3 focuses on dietary risk models. To be precise, we study the extremal properties of an extension of a model called KDEM for Kinetic Dietary Exposure Model introduced by Patrice Bertail and his co-authors in 2008. Under the assumption of regular variation, we provide asymptotic equivalents for the tail behavior and the extremal index of the exposure process. In Chapter 4, we review different statistical tools specifically tailored for the study of the extremal behavior of Markov processes. Thanks to regeneration properties, we can split the path of observations into blocks which are independent and identically distributed. This technic still works even if the Markov chain is not atomic. We focus here on the estimation of the tail index and the extremal index. We illustrate the performance of these technics applying them on two models in insurance and finance for which we know the theoritical results
APA, Harvard, Vancouver, ISO, and other styles
40

Telmoudi, Fedya. "Estimation and misspecification Risks in VaR estimation." Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30061/document.

Full text
Abstract:
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation<br>In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation
APA, Harvard, Vancouver, ISO, and other styles
41

Skoulikaris, Charalampos. "Modélisation appliquée à la gestion durable des projets de ressources en eau à l'échelle d'un bassin hydrographique : le cas du Mesta-Nestos." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004775.

Full text
Abstract:
La construction d'un grand barrage est un projet aux conséquences économiques et sociales importantes voila pourquoi elle doit être précédée d'une étude opérationnelle et socio-économique détaillée. En premier lieu, l'étude opérationnelle doit porter sur les dimensions et le régime d'utilisation du barrage, la configuration géographique de son bassin de drainage et ses caractéristiques hydrologiques aussi bien que sur les contraintes de type environnemental qui peuvent s'exercer dans un cadre législatif national ou international. En second lieu, l'étude socio-économique doit prendre en compte tous les paramètres susceptibles d'influencer sur la durabilité du projet. Jusqu'à une époque récente, la large majorité des barrages était financée et gérée par le secteur public. Ainsi la profitabilité des projets n'était pas un élément prépondérant dans la décision de les construire. De nos jours, la libéralisation du marché de l'énergie dans les pays développés a conduit à la privatisation des infrastructures énergétiques et par voie de conséquence à l'application de nouveaux objectifs économiques dans le financement et la gestion des projets de barrage. Les décisions d'investissement sont conditionnées par l'évaluation de leur viabilité technique et de leur profitabilité tout au long de leur durée de vie qui est typiquement de 50 ans. Cette évaluation est basée sur l'usage d'un critère quantitatif nommé Valeur Actualisée Nette (VAN) aussi appelé Net Present Value en anglais (NPV). Cependant, comme l'eau est le fluide nécessaire au fonctionnement des centrales hydroélectriques, leur exploitation interfère avec la gestion des ressources en eau du bassin hydrographique qui les accueille. De ce point de vue, de nouvelles pratiques et réglementations ont été introduites dans l'Union Européenne par la Directive Cadre sur l'Eau (idem, WFD en anglais). Cette directive contraint chaque projet d'exploitation des ressources en eau à suivre des recommandations portant sur ses conséquences sociales et son impact sur l'environnement en respectant des contraintes à long terme relatives à sa durabilité en cas de changement climatique. Le travail présenté porte sur l'exploration du couplage entre différents modèles mathématiques traitant de l'hydrologie, l'exploitation hydroélectrique, le changement climatique et l'évaluation économique dans le but de proposer les moyens d'effectuer des décisions équilibrées satisfaisant aux exigences des critères de financement de projet , au bien-être du public et aux pratiques qu'exigent la gestion de bassin hydrographique. Ce travail est illustré par l'étude du futur barrage de Temenos, projet mixte de production électrique et d'irrigation intéressant le bassin hydrographique du Mesta-Nestos. Ce bassin est partagé entre la Bulgarie pour sa partie amont et la Grèce pour sa partie aval. La rivière termine son cours dans la mer Egée après avoir formé le delta du Nestos dont la majorité de la surface est occupée par un système d'irrigation. Deux ouvrages hydroélectriques occupent actuellement la partie montagneuse du bassin du Nestos. Il s'agit du barrage de Thissavros dont le réservoir a une capacité de 565 millions m3 et du barrage de Platanovryssi situé en aval du précédent et dont la capacité est de11 millions m3. Les deux barrages sont liés par un système de rétro-pompage STEP (Station de Transfert d'Énergie par Pompage). Le futur projet Temenos devrait être exclusivement financé sur fonds privés. Situé en aval des deux barrages précédents, il est configuré pour augmenter la production d'électricité du précédent complexe et pour réguler le système d'irrigation de la basse vallée agricole du Nestos Les scénarios de changement climatique (SRES) développés par le Groupe d'Experts Intergouvernemental sur l'Evolution du Climat (GIEC ou IPCC, en anglais) prévoient de possibles changements climatiques décrits à l'échelle mondiale. Plus précisément, selon les résultats des modèles de circulation globale (GCM), la moyenne mondiale annuelle de la température de surface pourrait augmenter de 1.4 à 5.8°C sur une période allant de 1990 à 2100. Cette augmentation de température pourrait entrainer une augmentation de l'évaporation et influencer le régime des précipitations. Dans ce cas, un impact notable pourrait en résulter sur l'exploitation des installations hydroélectriques dont l'exploitation est particulièrement sensible à la quantité, au rythme et à la répartition géographique des précipitations et des températures. L'étude du changement climatique sur la zone du Mesta-Nestos est base sur les résultats du modèle climatique régional CLM de l'Institut de Météorologie Max Planck, Allemagne. Elle s'intéresse plus particulièrement aux scénarios B1 et A1B produits par le SRES. Le modèle CLM effectue un transfert à l'échelle locale des résultats du modèle global atmosphère-océan ECHAM5/MPIOM utilisés comme forçage. CLM est en particulier conditionné par les conditions aux limites du relief local. Les séries mensuelles de température, précipitation et évapotranspiration produites par CLM ont été utilisées comme données d'entrée du modèle hydrologique distribué MODSUR-NEIGE de manière à simuler le régime hydrographique du bassin en cas de changement climatique. Ce modèle est couplé au modèle de barrage HEC-ResSim décrivant en détail tous les éléments techniques du complexe hydroélectrique du Nestos et des réseaux d'irrigation existant dans le delta du Nestos ainsi que leur future extension à la plaine de Xanthi. Enfin, l'évaluation de la viabilité du projet Temenos en conditions de changement climatique a été effectuée à l'aide d'un nouvel outil économique basé sur le calcul de la VAN et spécialement développé pour les besoins de l'étude. La thèse propose une approche holistique de l'évaluation de projet qui dépasse le strict cadre économique. Le calcul de la VAN a été étendu de façon à réunir les éléments de strict rendement économique (recettes tirées de la vente de l'énergie électrique et de l'eau d'irrigation ainsi que l'accroissement du revenu des agriculteurs) avec des éléments concernant les « externalités » du projet que sont la valeur de l'environnement (coût de restauration du bon état des eaux de surface dans le cas où le débit environnemental minimal ne peut être maintenu) et les bénéfices sociaux (compensations aux agriculteurs dans le cas où les débits d'irrigation ne peuvent être délivrés). On argumente le fait que cette approche combinée offre un outil efficace d'évaluation du projet selon une approche de développement durable. De plus, l'étude d'impact des scenarios de changement climatique a été augmentée d'une étude portant sur les conséquences que pourraient avoir différentes hypothèses d'évolution de la politique de gestion transfrontalière du bassin en relation avec l'exécution du traité de débit signé entre la Bulgarie et la Grèce à propos des eaux du Mesta-Nestos. Enfin, dans un contexte d'application des recommandations de la Directive Cadre de l'Eau (WFD), on propose d'explorer l'utilisation des méthodes de décision multicritère (MCDA, en anglais) pour gérer les conflits d'intérêt des différents acteurs du bassin dans la phase d'acceptation du projet Temenos et dans sa phase d'exploitation.
APA, Harvard, Vancouver, ISO, and other styles
42

Bula, Gustavo Alfredo. "Vehicle Routing for Hazardous Material Transportation." Thesis, Troyes, 2018. http://www.theses.fr/2018TROY0014.

Full text
Abstract:
L'objectif de cette thèse est d'étudier le problème du transport de matières dangereuses (HazMat) vu comme un problème de tournées de véhicules à flotte hétérogène. Les décisions pour ce type de transport comportent des objectifs différents, parfois antagonistes. Deux sont pris en compte dans ce travail, le coût et le risque. La première tâche entreprise a été la formulation d'un modèle mathématique pour la minimisation du risque, qui dépend du type de véhicule, du matériel transporté et du changement de charge lorsque le véhicule passe d'un client à un autre. Une approximation linéaire par morceaux est utilisée pour conserver une formulation de programmation linéaire en nombres entiers mixtes.Des méthodes hybrides basées sur des explorations de voisinages sont proposées pour traiter la minimisation du risque. Cela comprend l'étude des structures de voisinages et le développement d'un algorithme de descente à voisinages variables (VND) pour la recherche locale, ainsi qu'un mécanisme de perturbation des solutions. Une post-optimisation est appliquée pour améliorer la qualité des solutions obtenues.Enfin, deux approches, un algorithme basé sur la dominance multi-objectif et une méta-heuristique de type epsilon- contrainte, sont développées pour traiter la version multi-objectif. Deux mesures de performance sont utilisées : l'hyper volume et la ∆-métrique. Les approximations de fronts montrent qu'une légère augmentation du coût total des tournées peut entraîner une forte réduction en pourcentage des risques<br>The main objective of this thesis is to study the hazardous materials (HazMat) transportation problem considered as a heterogeneous fleet vehicle routing problem. HazMat transportation decisions comprise different and sometimes conflicting objectives. Two are considered in this work, the total routing cost and the total routing risk. The first task undertaken was the formulation of a mathematical model for the routing risk minimization, which depends on the type of vehicle, the material being transported, and the load change when the vehicle goes from one customer to another. A piecewise linear approximation is employed to keep a mixed integer linear programing formulation.Hybrid solution methods based on neighborhood search are explored for solving the routing risk minimization. This includes the study of neighborhood structures and the development of a Variable Neighborhood Descent (VND) algorithm for local search, and a perturbation mechanism (shaking neighborhoods). A post-optimization procedure is applied to improve the solution quality.Finally, two different solution approaches, a multi-objective dominance-based algorithm and a meta-heuristic epsilon-constraint method are employed for addressing the multi-objective version of the problem. Two performance metrics are used: the hyper volume and the ∆-metric. The front approximations show that a small increment in the total routing cost can produce a high reduction in percentage of the expected consequences given the probability of a HazMat transportation incident
APA, Harvard, Vancouver, ISO, and other styles
43

Quindroit, Paul. "Évaluation des expositions aux pyréthrinoïdes par la modélisation toxicocinétique de données de biosurveillance : application à la population générale française." Thesis, Paris, Institut agronomique, vétérinaire et forestier de France, 2019. http://www.theses.fr/2019IAVF0024.

Full text
Abstract:
Les pyréthrinoïdes sont des insecticides ubiquitaires utilisés dans de nombreux domaines et par ce fait, les populations humaines sont susceptibles d’y être exposées par plusieurs médias environnementaux (air, sol, aliments, produits etc.) et plusieurs voies (inhalation, ingestion et contact cutané). Le composé parent est suspecté d’induire des perturbations neuronales et hormonales chez l’humain et certains composés sont plus toxiques que d’autres. Les concentrations urinaires de métabolites des pyréthrinoïdes sont souvent les seuls biomarqueurs d’une exposition humaine et ces métabolites étant parfois communs à plusieurs pyréthrinoïdes, les biomarqueurs sont le reflet d’une exposition globale et non à un pyréthrinoïde spécifique. Ces imprégnations doivent être mises en regard des doses d’expositions externes qui sont les valeurs de référence utilisées pour fixer des seuils réglementaires. Le travail consiste à développer une approche basée sur la modélisation PBPK des pyréthrinoides afin d’analyser les mesures de biomarqueurs dans les urines. Tout d’abord, un modèle PBPK global a été développé pour relier l'exposition externe de quatre pyréthrinoïdes (perméthrine, cyperméthrine, cyfluthrine et deltaméthrine) et de leurs isomères aux concentrations urinaires de métabolites (cis- et trans-DCCA, 3-PBA, F-PBA et DBCA). Le modèle permet de simuler les expositions cumulées agrégées par des voies multiples (inhalation, ingestion et contact cutané). Le modèle PBPK global a été évalué avec des données toxicocinétiques humaines et testé avec des expositions réalistes pour la population française. Le modèle a ensuite été utilisé pour estimer les expositions de la population générale française à partir de biomarqueurs d’exposition. L’étude ENNS réalisée par Santé Publique France a été utilisée. Nous avons mis en évidence des problèmes d’identifiabilité liés à la cyperméthrine et la perméthrine (i.e. partagent deux métabolites communs, mais pas de spécifique) et avons proposé une méthodologie basée sur les questionnaires de consommation alimentaire. Ce travail de thèse souligne la possibilité d’établir un modèle PBPK générique pour les pyréthrinoïdes et sur son applicabilité pour améliorer l'interprétation des biomarqueurs d'exposition aux pyréthrinoïdes<br>Pyrethroids are ubiquitous insecticides used in many sectors. Human populations are likely to be exposed by several environmental media (air, soil, food, products; etc.), which enter the human system through various routes (inhalation, ingestion and skin contact). While some compounds are more toxic that others, parent compounds are suspected of inducing neuronal and hormonal disturbances in humans. Urinary concentrations of pyrethroid metabolites, which can be common to several pyrethroids, are often the only biomarkers of exposure. These concentrations must then be compared with the external exposure doses, which are used as the reference values for regulatory thresholds. This project develops an approach to analyze measurements of biomarkers in urine and estimate global exposure to pyrethroids based on PBPK modeling of pyrethroids. First, a global PBPK model was developed to link the external exposure of four pyrethroids (permethrin, cypermethrin, cyfluthrin and deltamethrin) and their isomers to urinary concentrations of metabolites (cis- and trans-DCCA, 3-PBA, F-PBA and DBCA). The model simulates aggregate cumulative exposures by multiple pathways (inhalation, ingestion, and skin contact). The global model was evaluated with human toxicokinetic data and tested with realistic exposures for the French population. The global model was then used to estimate the exposures of the French general population to pyrethroids from biomarkers, as measured by the ENNS study conducted by Santé Publique France. To address the problem of nonuniqueness of inverse solutions related to cypermethrin and permethrin (i.e. share two common metabolites but no specific one), we proposed a methodology based on food consumption questionnaires. This thesis demonstrates the viability of generic PBPK modeling for pyrethroids and the potential of such a model to improve the interpretation of pyrethroid exposure biomarkers
APA, Harvard, Vancouver, ISO, and other styles
44

Lebourgeois, Samuel. "Etude du cycle infectieux du virus de l’hépatite A (VHA) et développement d'un modèle in vitro pour mettre en évidence son infectiosité." Thesis, Paris, Institut agronomique, vétérinaire et forestier de France, 2018. http://www.theses.fr/2018IAVF0027.

Full text
Abstract:
Le virus de l’hépatite A (VHA) est un virus entérique à transmission féco-orale qui est responsable d’hépatites aigües. Le VHA est à ce jour le 2ème agent étiologique viral pouvant être impliqué dans les toxi-infections alimentaires collectives (TIAC). Pour apprécier le risque en virologie alimentaire, la détection d’ARN reste insuffisante pour la mise en évidence de virions infectieux. Actuellement, les souches sauvages du VHA sont difficilement cultivables : elles se répliquent très lentement en culture (libération de nouveaux virions synthétisés dans les cellules Frhk-4 à partir de 30-45 jours) sans induire d’effet cytopathogène (ECP). A l’inverse, certaines souches du VHA adaptées en culture sont capables d’induire un ECP résultant de la mort par apoptose des cellules infectées. Mes travaux de thèse visaient donc à développer une nouvelle méthode de détection par impédancemétrie des particules virales infectieuses du VHA dans le cadre du diagnostic viral dans les aliments.Dans cette étude, à l’aide de la technologie xCELLigence, l’évaluation du système d’analyse cellulaire en temps réel (« Reel Time Cell Analysis » (RTCA)) a été entreprise pour détecter l’ECP de la souche adaptée du VHA (HM175/18f) sur les cellules FRhK-4. Les résultats ont montré que les cinétiques d'impédance cellulaire, au cours de l’infection par le VHA, induisait une diminution de l'indice cellulaire (CI) en corrélation avec l'apparition de la mort cellulaire induite par le VHA. De plus, le temps nécessaire à la chute des valeurs de CI induite par le VHA dépendait de la concentration virale. Une relation linéaire sur 5 log10 a pu être établie entre la concentration du VHA et le temps nécessaire pour atteindre 50% de la diminution des valeurs de CI (TdCI50) montrant ainsi que le suivi par RTCA pouvait être utilisé comme méthode de titrage infectieux du VHA. En outre, le suivi par RTCA peut être effectué en moins de six jours au lieu de 12 à 14 jours avec les méthodes standards de titrages en plages de lyses. Par conséquent, la méthode de titrage basée sur le suivi par RTCA est un outil puissant pour l’évaluation des traitements d’inactivation virale et antiviraux.Par ailleurs, dans le but d’être en mesure de reproduire un ECP chez les souches sauvages du VHA, les voies de signalisation pro-apoptotiques caspase-dépendantes impliquées dans la mort cellulaire par apoptose des cellules infectées par la souche adaptée ont été étudiées. A partir de résultats antérieurs montrant l’activation de la caspase 3 au cours de l’infection des cellules FRhK-4 par la souche HM175/18f du VHA, les voies extrinsèques et mitochondriales pro-apoptotiques ont été identifiées. L’expression de la caspase 8, marqueur de la voie extrinsèque, en corrélation avec l’expression de la caspase 3 active ainsi que de la protéine tBid a été observée. De plus, l’expression de la protéine tBid induisait la libération du cytochrome c suggérant une activation de la voie mitochondriale dépendante de la voie extrinsèque. Par conséquent, une comparaison des voies de survie et de mort cellulaire au cours de l’infection par les souches sauvages et adaptée du VHA pourra être réalisée dans de prochains travaux. Ainsi, les résultats offrent de nouvelles perspectives dans la compréhension sur la stratégie virale pour induire un ECP dans les cellules hôtes.En conclusion, au-delà d'une meilleure compréhension de la physiopathologie du VHA, cette étude contribue au développement de modèles cellulaires pour détecter les particules infectieuses des souches sauvages du VHA. De plus, le suivi par RTCA dans les études d'inactivation du VHA améliorera l'évaluation du risque viral en virologie alimentaire, en contrôlant la transmission des virus, par leur élimination des denrées alimentaires. Ceci constitue également un enjeu en santé publique important pour réduire le fardeau des maladies virales d'origine alimentaire<br>Hepatitis A virus (HAV) is a fecal-oral enteric virus that causes acute hepatitis. After entering the body orally, HAV interacts with the intestinal epithelium that it must cross to reach the liver via the bloodstream. HAV is to date the second viral etiological agent that can be involved in collective foodborne illness (TIAC). To assess the risk in food virology, the detection of RNA remains insufficient for the detection of infectious virions. Today, cultivating wild strains of HAV is difficult: they replicate very slowly in culture (release of new virions synthesized in Frhk-4 cells from 30-45 days) without inducing cytopathic effect (CPE). In contrast, some culturally adapted HAV strains are capable of inducing CPE resulting from apoptotic death of infected cells. My thesis work aimed to develop a new method of impedance detection of infectious viral particles of HAV in the context of viral diagnosis in food.In this study, using xCELLigence technology, the evaluation of the Real Time Cell Analysis (RTCA) system was undertaken to detect the ECP of the HAV adapted strain. (HM175 / 18f) on FRhK-4 cells. The results showed that cell impedance kinetics, during HAV infection, induced a decrease in cell index (CI) correlated with the occurrence of HAV-induced cell death. In addition, the time required for the fall in HAV-induced IC values was depending on the viral concentration. A linear relationship of 5 log10 could be established between the HAV concentration and the time required to reach 50% of the decrease in IC values (TdCI50), showing that RTCA monitoring could be used as an infectious HAV test method. In addition, RTCA monitoring can be performed in less than six days instead of 12 to 14 days with standard lysis range assays. Therefore, the titration method based on RTCA monitoring is a powerful tool for the evaluation of viral inactivation and antiviral treatments.Moreover, in order to be able to reproduce ECP in wild HAV strains, the pro-apoptotic caspase-dependent signalling pathways involved in apoptotic cell death of cells infected with the adapted strain were studied. From previous results showing the activation of caspase 3 during the infection of FRhK-4 cells by the HM175 / 18f strain of HAV, the extrinsic and mitochondrial pro-apoptotic pathways were identified. The expression of caspase 8, a marker of the extrinsic pathway, correlated with the expression of active caspase 3 as well as tBid protein was observed. In addition, the expression of the tBid protein induced the release of cytochrome c suggesting activation of the extrinsic pathway-dependent mitochondrial pathway. Therefore, a comparison of survival and cell death pathways during infection with wild-type strains and adapted to HAV can be performed in future work. Thus, the results offer new insights into the understanding of viral strategy for inducing ECP in host cells.In conclusion, beyond a better understanding of the pathophysiology of HAV, this study contributes to the development of cellular models to detect infectious particles of wild strains of HAV. In addition, RTCA monitoring in HAV inactivation studies will improve the assessment of viral risk in food virology by controlling the transmission of viruses through their elimination from food. This is also an important public health challenge to help reduce the burden of food-borne viral diseases
APA, Harvard, Vancouver, ISO, and other styles
45

Llorens, Cédric. "Mesure de la sécurité "logique" d'un réseau d'un opérateur de télécommunications." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001492.

Full text
Abstract:
Cette thèse présente un prototype et une méthodologie pour mesurer la sécurité "logique" d'un réseau d'un opérateur de télécommunications. Cette méthode consiste à définir une politique de sécurité, à vérifier l'application de la politique de sécurité dans les configurations des équipements réseau, à définir des indicateurs de sécurité afin d'établir un tableau de bord de la sécurité réseau, à quantifier le risque associé à la non application de la politique de sécurité et enfin à définir des priorités pour corriger les faiblesses de sécurité les plus critiques.
APA, Harvard, Vancouver, ISO, and other styles
46

Kanouni, Hassani Rams, and Hassani Rams Kanouni. "Impact de l'incertitude sur la gestion de l'environnement et des ressources naturelles : une analyse en temps continu par la programmation dynamique et les options réelles." Doctoral thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/18709.

Full text
Abstract:
Cette thèse utilise la mathématique et la théorie de l'économie financière pour étudier la gestion de la pollution, la valeur d'une centrale électrique thermique et le prix d'une ressource naturelle non renouvelable. Elle est composée de trois essais. Le premier essai analyse la décision d'investir afin de réduire les émissions d'un polluant de type stock sous deux types d'incertitude : économique (ce qui rend les émissions stochastiques car elles sont une conséquence de l’activité économique) et environnementale (ce qui affecte directement le stock de polluant). La littérature économique récente semble indiquer qu'en présence d'incertitude et de coûts irréversibles, l'action d’investir devrait être retardée. Nous utilisons des concepts de la théorie des options réelles et formulons ce problème de planificateur central comme un problème d'arrêt optimal en temps continu. Nous dérivons la règle d'arrêt correspondante et montrons que lorsque l'incertitude environnementale ou économique est suffisamment élevée, il est optimal d'investir immédiatement pour réduire les émissions. Ces résultats ont des implications sur la gestion des stocks de polluant stock, notamment pour la gestion des gaz à effet de serre. Le second essai s’appuie sur la théorie des options réelles pour évaluer la valeur d’une centrale électrique dans un marché déréglementé. Ce travail est motivé par la vague de déréglementation qui a sévi récemment dans le secteur de l'électricité. La littérature existante cherche plutôt à trouver la valeur d'option de vente d'une certaine quantité d'électricité à un moment donné dans le futur ou modélise la décision d'opérer une centrale électrique par simulation. Notre formulation considère qu'une usine de production d'électricité peut être dans deux états (à l'arrêt ou en fonctionnement); dans chaque état, la firme possède une option « call américaine » sur l'autre état et le passage d'un état à l'autre est coûteux. Nous supposons que le « spark spread » suit un processus de retour à la moyenne avec changements de régime et nous utilisons des données du marché californien pour notre application empirique. Nous montrons qu'avec la prise en compte des coûts de suspension et de génération d'électricité, il y a un effet d'hystérésis: les seuils de spark spread pour les décisions de produire et d'arrêter la production diffèrent. Nous utilisons ensuite ces règles de fonctionnement à court terme dans une méthodologie basée sur des simulations Monte Carlo pour estimer la valeur de la centrale. Le troisième essai rend plus générale la formulation du modèle de Gaudet et Khadr (1991) en considérant une fonction d'utilité non espérée afin de dériver une généralisation de la règle d'Hotelling. Alors que dans le cadre de l'utilité espérée la différence entre le taux de rendement espéré de l'actif risqué (la ressource non renouvelable) et celui d'un actif certain égale une prime de risque qui ne dépend que du coefficient d'aversion relative au risque et de la covariance entre la consommation et le rendement de l'actif risqué, cela n'est plus vrai avec notre fonction d'utilité plus générale. Nous montrons que la prime de risque dépend alors aussi de l'élasticité de substitution intertemporelle (qui n'est plus nécessairement égale à l'inverse du coefficient d'aversion relative au risque), de l'incertitude de l'utilité indirecte et de l'incertitude de l'utilité marginale de la richesse. La prise en compte de ces paramètres additionnels peut avoir des conséquences importantes. Supposons en effet que l'élasticité de substitution intertemporelle soit suffisamment élevée et que l'incertitude de l'utilité indirecte soit suffisamment faible relativement à celle de l'utilité marginale de la richesse. Alors, même si le consommateur est riscophobe et si la covariance entre la consommation et le rendement de la ressource non renouvelable est positive, il est possible que le consommateur exige une prime pour détenir l'actif risqué. Le taux de rendement espéré de ce dernier est inférieur au taux de rendement certain. Ce résultat est bien entendu exclu dans le cas de l'utilité espérée.<br>Cette thèse utilise la mathématique et la théorie de l'économie financière pour étudier la gestion de la pollution, la valeur d'une centrale électrique thermique et le prix d'une ressource naturelle non renouvelable. Elle est composée de trois essais. Le premier essai analyse la décision d'investir afin de réduire les émissions d'un polluant de type stock sous deux types d'incertitude : économique (ce qui rend les émissions stochastiques car elles sont une conséquence de l’activité économique) et environnementale (ce qui affecte directement le stock de polluant). La littérature économique récente semble indiquer qu'en présence d'incertitude et de coûts irréversibles, l'action d’investir devrait être retardée. Nous utilisons des concepts de la théorie des options réelles et formulons ce problème de planificateur central comme un problème d'arrêt optimal en temps continu. Nous dérivons la règle d'arrêt correspondante et montrons que lorsque l'incertitude environnementale ou économique est suffisamment élevée, il est optimal d'investir immédiatement pour réduire les émissions. Ces résultats ont des implications sur la gestion des stocks de polluant stock, notamment pour la gestion des gaz à effet de serre. Le second essai s’appuie sur la théorie des options réelles pour évaluer la valeur d’une centrale électrique dans un marché déréglementé. Ce travail est motivé par la vague de déréglementation qui a sévi récemment dans le secteur de l'électricité. La littérature existante cherche plutôt à trouver la valeur d'option de vente d'une certaine quantité d'électricité à un moment donné dans le futur ou modélise la décision d'opérer une centrale électrique par simulation. Notre formulation considère qu'une usine de production d'électricité peut être dans deux états (à l'arrêt ou en fonctionnement); dans chaque état, la firme possède une option « call américaine » sur l'autre état et le passage d'un état à l'autre est coûteux. Nous supposons que le « spark spread » suit un processus de retour à la moyenne avec changements de régime et nous utilisons des données du marché californien pour notre application empirique. Nous montrons qu'avec la prise en compte des coûts de suspension et de génération d'électricité, il y a un effet d'hystérésis: les seuils de spark spread pour les décisions de produire et d'arrêter la production diffèrent. Nous utilisons ensuite ces règles de fonctionnement à court terme dans une méthodologie basée sur des simulations Monte Carlo pour estimer la valeur de la centrale. Le troisième essai rend plus générale la formulation du modèle de Gaudet et Khadr (1991) en considérant une fonction d'utilité non espérée afin de dériver une généralisation de la règle d'Hotelling. Alors que dans le cadre de l'utilité espérée la différence entre le taux de rendement espéré de l'actif risqué (la ressource non renouvelable) et celui d'un actif certain égale une prime de risque qui ne dépend que du coefficient d'aversion relative au risque et de la covariance entre la consommation et le rendement de l'actif risqué, cela n'est plus vrai avec notre fonction d'utilité plus générale. Nous montrons que la prime de risque dépend alors aussi de l'élasticité de substitution intertemporelle (qui n'est plus nécessairement égale à l'inverse du coefficient d'aversion relative au risque), de l'incertitude de l'utilité indirecte et de l'incertitude de l'utilité marginale de la richesse. La prise en compte de ces paramètres additionnels peut avoir des conséquences importantes. Supposons en effet que l'élasticité de substitution intertemporelle soit suffisamment élevée et que l'incertitude de l'utilité indirecte soit suffisamment faible relativement à celle de l'utilité marginale de la richesse. Alors, même si le consommateur est riscophobe et si la covariance entre la consommation et le rendement de la ressource non renouvelable est positive, il est possible que le consommateur exige une prime pour détenir l'actif risqué. Le taux de rendement espéré de ce dernier est inférieur au taux de rendement certain. Ce résultat est bien entendu exclu dans le cas de l'utilité espérée.<br>Using tools from mathematical finance and economic theory, this thesis studies the impact of uncertainty and irreversibility on decision-making related to the management of pollution, energy production, and the extraction of a non-renewable resource. It consists of three essays. The first essay analyzes the decision to invest to reduce the emissions of a stock pollutant under two types of uncertainty: economic (emissions are stochastic because of changes in economic activity) and environmental (which affects directly the stock of pollutant). A number of recent papers find that the decision to invest to reduce the emissions of a stock pollutant should be delayed in the presence of sunk costs and uncertainty. Using concepts from the theory of Real Options, we formulate a social planning problem in continuous time, derive the corresponding optimal stopping rule, and show that when economic or environmental uncertainty is large enough, it is optimal to invest immediately to reduce emissions. These results have implications for the management of stock pollutants and particularly for global warming. The second essay is concerned with the valuation of energy generating assets in a deregulated electricity market. The recent wave of deregulation initiatives in the electricity industry has created the need to value energy-generating assets in an uncertain environment in order to facilitate their sale. However, a number of authors have noted discrepancies between valuations predicted by a conventional cost-benefit approach and observed transactions. In this chapter, I analyze the importance of explicitly accounting for technological constraints in the generation process by modeling the decision to start and stop the production of electricity by a gas-powered plant. With the inclusion of these constraints, the generator may be in two different states, idle or generating electricity. In either state its operator has a call option to switch to the other state. These options depend on the spark spread (the difference between the price of electricity and the price of the fuel used to generate it, adjusted for equivalent units), which is assumed to follow a mean reverting process with regime changes. I use data from the California deregulated market to estimate the thresholds for starting and stopping production. These results are entered in a simple simulation framework to estimate the value of the electricity-generating asset in a competitive market. I find significant differences between a standard cost-benefit analysis and this Real Options approach. In my third essay, I derive a testable form of the price dynamics of a non-renewable natural resource in the context of a general equilibrium portfolio choice model where the representative agent has a non-expected utility function. The non-renewable nature of the resource introduces an element of irreversibility in the portfolio choice. An analog of Hotelling's rule is derived. In an expected utility framework, the difference between the rate of return of the risky asset (the non-renewable resource) and that of the riskless one equals a risk premium that depends only on the coefficient of relative risk aversion and the covariance between consumption and the return of the risky asset. I show that with this more general specification of the utility function, the risk premium depends also on the instantaneous elasticity of substitution (IES, which is not necessarily equal to the inverse of the coefficient of relative risk aversion), the uncertainty of the indirect utility function and the uncertainty of the marginal utility of wealth. These results have important consequences. If the IES is large enough and if the uncertainty of the indirect utility function is small enough, a risk-averse consumer may be willing to pay a premium to hold the risky asset even though the covariance between its return and consumption is positive. This case is of course excluded in the expected utility framework.<br>Using tools from mathematical finance and economic theory, this thesis studies the impact of uncertainty and irreversibility on decision-making related to the management of pollution, energy production, and the extraction of a non-renewable resource. It consists of three essays. The first essay analyzes the decision to invest to reduce the emissions of a stock pollutant under two types of uncertainty: economic (emissions are stochastic because of changes in economic activity) and environmental (which affects directly the stock of pollutant). A number of recent papers find that the decision to invest to reduce the emissions of a stock pollutant should be delayed in the presence of sunk costs and uncertainty. Using concepts from the theory of Real Options, we formulate a social planning problem in continuous time, derive the corresponding optimal stopping rule, and show that when economic or environmental uncertainty is large enough, it is optimal to invest immediately to reduce emissions. These results have implications for the management of stock pollutants and particularly for global warming. The second essay is concerned with the valuation of energy generating assets in a deregulated electricity market. The recent wave of deregulation initiatives in the electricity industry has created the need to value energy-generating assets in an uncertain environment in order to facilitate their sale. However, a number of authors have noted discrepancies between valuations predicted by a conventional cost-benefit approach and observed transactions. In this chapter, I analyze the importance of explicitly accounting for technological constraints in the generation process by modeling the decision to start and stop the production of electricity by a gas-powered plant. With the inclusion of these constraints, the generator may be in two different states, idle or generating electricity. In either state its operator has a call option to switch to the other state. These options depend on the spark spread (the difference between the price of electricity and the price of the fuel used to generate it, adjusted for equivalent units), which is assumed to follow a mean reverting process with regime changes. I use data from the California deregulated market to estimate the thresholds for starting and stopping production. These results are entered in a simple simulation framework to estimate the value of the electricity-generating asset in a competitive market. I find significant differences between a standard cost-benefit analysis and this Real Options approach. In my third essay, I derive a testable form of the price dynamics of a non-renewable natural resource in the context of a general equilibrium portfolio choice model where the representative agent has a non-expected utility function. The non-renewable nature of the resource introduces an element of irreversibility in the portfolio choice. An analog of Hotelling's rule is derived. In an expected utility framework, the difference between the rate of return of the risky asset (the non-renewable resource) and that of the riskless one equals a risk premium that depends only on the coefficient of relative risk aversion and the covariance between consumption and the return of the risky asset. I show that with this more general specification of the utility function, the risk premium depends also on the instantaneous elasticity of substitution (IES, which is not necessarily equal to the inverse of the coefficient of relative risk aversion), the uncertainty of the indirect utility function and the uncertainty of the marginal utility of wealth. These results have important consequences. If the IES is large enough and if the uncertainty of the indirect utility function is small enough, a risk-averse consumer may be willing to pay a premium to hold the risky asset even though the covariance between its return and consumption is positive. This case is of course excluded in the expected utility framework.
APA, Harvard, Vancouver, ISO, and other styles
47

Omrane, Fatma. "Human health risk assessment of occupational exposure to trace metallic elements mixtures in metalworking industries in the Sfax metropolis (Tunisia)." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0097/document.

Full text
Abstract:
Les éléments trace métalliques (ETM) sont des polluants qui sont sources de préoccupations majeures à cause de leurs toxicités et de leurs propriétés cumulatives. Certains d’eux peuvent être cancérogènes. La métropole de Sfax, située au sud de la Tunisie, a été touchée par des rejets et émissions d’ETM depuis des décennies. Plusieurs études ont confirmé que la pollution métallique est principalement d’origine anthropique, liée en particulier aux activités industrielles. Cela présente un risque sur la santé des habitants, particulièrement pour ceux qui sont également exposés par leur métier dans des procédés industriels. L’objectif de cette étude est d’évaluer les risques sanitaires associés à l’exposition professionnelle dans les industries qui manipulent des ETM dans leurs processus de production, en suivant l’approche de l’évaluation des risques sanitaires. Dans ce but, cinq entreprises qui utilisent des métaux comme matière première pour produire une variété de produits métalliques, ont accepté d’adhérer à notre étude. Les métaux qui étaient explorés sont Al, Cr, Ni, Cu, Zn and Pb. Des modèles mathématiques de prédiction des expositions professionnelles aux agents chimiques ont été utilisés pour estimer les concentrations des ETM dans l’air intérieur pour 15 postes différents. Des prélèvements atmosphériques ont été effectués afin de comparer les concentrations prédites à celles mesurées, en utilisant des prélèvements individuels ou sur postes fixes. Finalement, des prélèvements urinaires ont été collectés chez 61 travailleurs afin d’évaluer le lien entre l’excrétion des ETM et les niveaux atmosphériques. Globalement, les estimations des concentrations atmosphériques avaient une bonne concordance avec les valeurs mesurées sur l’ensemble des postes de travail. Des meilleures prédictions ont été trouvées pour certaines activités, en particulier pour des processus de découpage des tôles et de soudures. Les valeurs qui correspondent au 90ème percentile de la distribution de l’exposition ont été utilisées pour le calcul du « interaction-based hazard index HIint » pour évaluer les risques associés aux mélanges d’ETM. Un excès de risque total de cancer a été aussi calculé. Les résultats ont montré des expositions élevées qui peuvent provoquer des pathologies respiratoires, avec un HIint allant jusqu’à 93,6. Les niveaux les plus élevés sont attribués à la soudure à l'arc à l'électrode enrobée et au débitage et cisaillage des tôles. Ces risques augmentent à cause de l’effet synergique qui existe entre Cr, Ni et Cu. Des risques élevés de cancer du poumon et du rein ont été encore démontrés (risque total vie entière de cancer pour les ouvriers exposés : 3.7×10-4). Ce travail montre que les modèles mathématiques peuvent prédire correctement les niveaux d’exposition des ETM dans l’air intérieur pour plusieurs processus de la métallurgie. Ce résultat est intéressant pour aider les différents acteurs pour piloter de manière efficiente les systèmes de surveillance et la réduction des expositions dans ce secteur économique. Des progrès en matière d’hygiène industrielle sont nécessaires dans ce secteur industriel pour minimiser le risque sanitaire élevé auquel sont actuellement exposés les travailleurs concernés<br>Trace metallic elements (TMEs) are pollutants of great concern even in trace amounts because of their toxicity and cumulative property. Some of them can be carcinogenic. The Sfax metropolis, located in the southern region of Tunisia, has been affected by releases of TMEs for decades. Several studies confirmed that this pollution is predominantly originated from anthropogenic sources, mainly from industrial activities. It represents a threat to the health of residents, particularly for those also exposed during occupational activities in industrial processes. The present study aims to assess health risks associated with occupational exposure in industries handling TMEs in their production processes, following the human health risk assessment approach. To this end, five companies using raw material containing TMEs to produce a variety of metallic products accepted to participate to the study. The metals that were investigated are Al, Cr, Ni, Cu, Zn and Pb. Mathematical models for estimating occupational exposure to chemicals were used to predict indoor air TME exposure levels in 15 different job tasks. Air monitoring was conducted in order to compare the predicted workplace air concentrations versus the direct measured ones, using both workplace-fixed monitors and personal samplers. And finally, urine samples were collected from 61 workers to assess whether TMEs excretion correlate with job exposure levels. Globally, the predicted air estimates relate well with measured concentrations over the whole set of job tasks. Better predictions were found for certain activities, in particular for steel cutting and welding processes. The values that correspond to the 90th percentile of the exposure distribution were then used in the interaction-based hazard index HIint to assess health risks associated with the mixtures of TMEs. Total cancer risk was also investigated. Results showed high exposures for metals that may elicit respiratory conditions, with a HIint reaching 93.6, the highest levels being for the shielded metal arc welding and metal shearing and slitting tasks. The risk is enhanced by a synergetic effect between Cr, Ni and Cu. High risks of lung and kidney cancers were demonstrated (the predicted life-long total cancer risk for exposed workers is 3.7×10-4). This work shows that mathematical models can be accurate in predicting TME airborne exposure levels for several processes in the metallurgic industry, a result that is of interest to help the different stakeholders to monitor efficiently exposure surveillance and abatement. Progress in industrial hygiene is needed in this industrial sector to reduce the high level of health risks currently experienced by the metalworking workers
APA, Harvard, Vancouver, ISO, and other styles
48

Dumollard, Gaspard. "Gestion en futaie régulière d'une forêt à plusieurs classes d'âge et allocation des terres en présence d'un risque de tempête : caractérisation des états stationnaires et rôle des préférences." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA019/document.

Full text
Abstract:
Le risque de tempête a un impact fort sur la gestion forestière, de manière directe à travers les dégâts qu'une tempête peut occasionner, et de manière indirecte à travers les comportements de précaution qu'il induit chez les producteurs forestiers.Cette thèse aborde le problème de la gestion en futaie régulière d'une forêt à plusieurs classes d'âge en présence d'un risque de tempête et quand le producteur a des préférences récursives. Au contraire de l'espérance d'utilité, les préférences récursives permettent de distinguer aversion au risque et préférences intertemporelles.Une approche analytique originale basée sur les conditions de Karush-Kuhn-Tucker, ainsi qu'une approche numérique de programmation dynamique stochastique sont utilisées afin de caractériser les différents états stationnaires possibles et de clarifier le rôle de différents déterminants, en particulier les préférences. L'analyse est par ailleurs étendue aux problèmes de l'allocation des terres et du changement climatique.Les résultats montrent que le risque de tempête associé aux préférences pousse les producteurs à abaisser l'âge moyen de rotation par précaution, car cela permet de diminuer l'exposition et la vulnérabilité de la forêt. La diversification de l'usage des terres au profit d'activités non risquées et procurant un revenu régulier constitue par ailleurs un levier alternatif d'adaptation au risque. Enfin, les anticipations des producteurs sur une hausse de la probabilité du risque de tempête accompagnant le changement climatique sont également à l'origine de comportements de précaution.Dans tous les cas de figure envisagés dans cette thèse, aversion au risque et préférences intertemporelles ont des rôles distincts, confirmant la pertinence des préférences récursives dans l'étude de ce type de problèmes<br>The storm risk has a strong impact on forest management, directly through the damages a storm can cause and indirectly through induced precautionary behaviors.This PhD thesis addresses the issue of even-aged forest management with multiple age-classes in presence of a storm risk and when the producer has recursive preferences. Unlike expected utility preferences, recursive preferences distinguish between risk aversion and intertemporal preferences.An original analytical approach based on Karush-Kuhn-Tucker conditions, as well as a numerical stochastic dynamic programming approach are used to characterize stationary states and to clarify the role of determinants, in particular the role of preferences. In addition, the analysis is extended to the issues of land allocation and climate change.Results show that the storm risk combined with preferences leads forest producers to reduce the average rotation age out of precaution, as it permits to reduce the forest exposure and vulnerability. Moreover, land use diversification in favor of activities without risk and providing a regular income is shown to be another option to adapt to the storm risk. Finally, producers' expectations of an increase in the storm risk probability, which comes along climate change, are revealed as another source of precautionary behavior.In all the situations considered, risk aversion and intertemporal preferences are shown to have distinct roles, confirming that recursive preferences are relevant to deal with this type of issues
APA, Harvard, Vancouver, ISO, and other styles
49

Drouet, Stéphane. "Analyse des données accélérimétriques pour la caractérisation de l'aléa sismique en France métropolitaine." Toulouse 3, 2006. http://www.theses.fr/2006TOU30062.

Full text
Abstract:
Ce travail est consacré à l'étude des données accélérométriques de la france métropolitaine, issues du Réseau Accélérométrique Permanent (RAP), en cours d'installation depuis 1996, pour caractériser l'aléa sismique. Il existe de nombreux modèles empiriques de prédiction des mouvements forts valables pour les régions sismiquement très actives (USA, Japon. . . ), mais leur utilisation dans le contexte français nécessite la ré-évaluation de paramètres tels que les magnitudes et les conditions de site. Dans un premier temps, l'analyse des données de séismes modérés a permis d'établir une échelle homogène de magnitudes issues du moment sismique. Par ailleurs, les réponses de site des stations du réseau RAP ont été calculées pour les Pyrénées, les Alpes et le fossé Rhénan. Enfin, les phénomènes d'atténuation au niveau de la France semblent présenter des variations régionales. En se basant sur les résultats précédents, l'applicabilité de certains modèles empiriques de mouvements forts a été démontrée, à partir des séismes les plus importants enregistés par le RAP<br>The aim of this study is to analyse the vertical structure of the low troposphere during the ESCOMPTE campaign in relation with transport and diffusion of pollutants. This analysis shows the difficulty to define a boundary layer. It allows us to highlight a complexe superposition of several internal boundary layers, particularly near the coast. The study of the layer where pollution may be accumulated or diluted pointed out the fact that pollution is trapped near the surface, close to the coastline under sea-breeze conditions whereas it is advected over the mountains where the boundary layers are deeper. During sea-breeze conditions, the ozone concentration is paradoxically weak near the sources at the coastline (titration). Over the mountains, the strong developments of the boundary layers result in a mixing between the highly polluted low troposphere and the surface which enhances the ozone concentration
APA, Harvard, Vancouver, ISO, and other styles
50

Dessimond, Boris. "Exposition individuelle à la pollution de l’air : mesure par capteurs miniatures, modélisation et évaluation des risques sanitaires associés." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS297.

Full text
Abstract:
La pollution de l’air contribue à dégrader la qualité de vie et à réduire l’espérance de vie des populations. L’organisation mondiale de la santé estime que la pollution de l’air est responsable de 7 millions de morts par an dans le monde. Elle participe à aggraver les maladies respiratoires, cause des cancers du poumon et des crises cardiaques. La pollution de l’air a donc des conséquences sanitaires importantes sur la vie humaine et la biodiversité. Ces dernières années, des progrès considérables ont été réalisés dans le domaine des microcontrôleurs et des modules de télécommunications. Ces derniers sont de plus efficients énergétiquement, performants, abordables, accessibles et sont responsables de l’émergence des objets connectés. Parallèlement, les récents développements des microsystèmes électromécaniques et des capteurs électrochimiques ont permis la miniaturisation des technologies permettant de mesurer de nombreux paramètres environnementaux dont la qualité de l’air. Ces avancées technologiques ont ainsi permis la conception et la production dans un cadre académique de capteurs de la qualité de l’air, portatifs, connectés, autonomes et en capacité de réaliser des acquisitions à une fréquence temporelle élevée. Jusqu’à récemment, l’un des majeurs freins à la compréhension de l’impact de la pollution de l’air sur la santé fut l’impossibilité de connaître l’exposition réelle des individus durant leur vie quotidienne ; la pollution de l’air est complexe et varie en fonction des habitudes, des activités et environnements empruntés par les individus. Ces capteurs portatifs de la qualité de l’air permettent donc de lever entièrement ce frein ainsi qu’un nombre important de contraintes. Ils sont conçus pour être utilisables en mobilité, sur de longues périodes et produisent des données granulaires, immédiatement disponibles, décrivant l’exposition à la pollution de l’air du porteur. Bien que les modules de mesure embarqués dans ces capteurs ne soient aujourd’hui pas aussi performants que les instruments de références ou la télédétection, lorsqu’il s’agit d’évaluer l’exposition individuelle à la pollution de l’air, parce qu'ils sont au plus proche des individus, ils permettent d’obtenir l’information la plus fidèle et constituent donc un outil indispensable pour l’avenir de la recherche épidémiologique. Dans ce contexte, nous avons participé au développement et à l’amélioration de deux capteurs de la qualité de l’air ; le CANARIN II et le CANARIN nano. Le CANARIN II est un capteur connecté communiquant par Wi-Fi, qui rapporte les concentrations de particules de diamètre 10, 2.5 et 1 micromètre, ainsi que les paramètres environnementaux de température, humidité et pression, chaque minute et les rend disponible en temps réel. Le CANARIN nano est, quant à lui, un capteur de plus petite taille, possédant les mêmes capacités que le CANARIN II, tout en faisant additionnellement l’acquisition des composés organiques volatils. Il est en capacité de fonctionner de manière autonome, puisque communiquant par réseau cellulaire. Deux types de résultats ont été obtenus avec les capteurs CANARIN ; d’une part, des résultats produits à partir de leur utilisation dans des conditions de vie réelle, d'autre part, des résultats en lien avec l'interprétation et la compréhension des mesures produites par les capteurs de particules dont les CANARINs sont équipés. Ces deux capteurs furent ainsi tous deux exploités par deux projets de recherche, au sein desquels nous avons accompagné le déploiement de plusieurs flottes de capteurs hétérogènes et réalisé l’analyse des données acquises. [...]<br>Air pollution contributes to the degradation of the quality of life and the reduction of life expectancy of the populations. The World Health Organization estimates that air pollution is responsible for 7 million deaths per year worldwide. It contributes to the aggravation of respiratory diseases, causes lung cancer and heart attacks. Air pollution has therefore significant health consequences on human life and biodiversity. Over the last few years, considerable progress has been made in the field of microcontrollers and telecommunications modules. These are more energy efficient, powerful, affordable, accessible, and are responsible for the growth of connected objects. In the meantime, the recent development of microelectromechanical systems and electrochemical sensors has allowed the miniaturization of technologies measuring many environmental parameters including air quality. These technological breakthroughs have enabled the design and production in an academic environment, of portable, connected, autonomous air quality sensors capable of performing acquisitions at a high temporal frequency. Until recently, one of the major obstacles to understanding the impact of air pollution on human health was the inability to track the real exposure of individuals during their daily lives; air pollution is complex, and varies according to the habits, activities and environments in which individuals spend their lives. Portable air quality sensors completely remove this obstacle as well as a number of other important constraints. These are designed to be used in mobility, over long periods of time, and produce immediately available granular data, which describes the exposure to air pollution of the person wearing it. Although the measurement modules embedded in these sensors are not currently as reliable as reference tools or remote sensing, when it comes to assessing individual exposure to air pollution, because they are as close as possible to the wearer, they provide the most accurate information, and are therefore an indispensable tool for the future of epidemiological research. In this context, we have been involved in the development and improvement of two air quality sensors; the CANARIN II and the CANARIN nano. The CANARIN II is a connected sensor communicating via Wi-Fi, which reports the concentration of 10, 2.5 and 1 micrometer diameter particles, as well as the environmental parameters of temperature, humidity, and pressure, every minute, making them available in real time. The CANARIN nano is a smaller sensor with the same capabilities of the CANARIN II, while additionally sensing volatile organic compounds levels. The CANARIN nano is able to operate autonomously, as it communicates through the cellular network. Two types of results have been obtained with the CANARIN sensors; on one hand, results produced from their use in real life conditions, and on the other hand, results related to the interpretation and understanding of the measurements produced by the particle sensors. These two sensors were both used in two research projects, in which we have helped deploy several heterogeneous sensor fleets and analyzed the acquired data. Firstly, in the POLLUSCOPE project funded by the French National Research Agency, where 86 volunteers from the general population wore a set of air pollution sensors for a total of 101 weeks, 35 of which the volunteers were also equipped with health sensors. Secondly, in the POLLAR project, where 43 subjects underwent polysomnography and then wore one CANARIN sensor for 10 days, thus allowing for the first time to explore the link between sleep apnea and particulate matter exposure. [...]
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography