To see the other types of publications on this topic, follow the link: Estimateur Bayésien.

Dissertations / Theses on the topic 'Estimateur Bayésien'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 22 dissertations / theses for your research on the topic 'Estimateur Bayésien.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rivoirard, Vincent. "Estimation bayésienne non paramétrique." Phd thesis, Université Paris-Diderot - Paris VII, 2002. http://tel.archives-ouvertes.fr/tel-00002149.

Full text
Abstract:
Dans le cadre d'une analyse par ondelettes, nous nous intéressons à l'étude statistique d'une classe particulière d'espaces de Lorentz : les espaces de Besov faibles qui apparaissent naturellement dans le contexte de la théorie maxiset. Avec des hypothèses de type "bruit blanc gaussien", nous montrons, grâce à des techniques bayésiennes, que les vitesses minimax des espaces de Besov forts ou faibles sont les mêmes. Les distributions les plus défavorables que nous exhibons pour chaque espace de Besov faible sont construites à partir des lois de Pareto et diffèrent en cela de celles des espaces de Besov forts. Grâce aux simulations de ces distributions, nous construisons des représentations visuelles des "ennemis typiques". Enfin, nous exploitons ces distributions pour bâtir une procédure d'estimation minimax, de type "seuillage" appelée ParetoThresh, que nous étudions d'un point de vue pratique. Dans un deuxième temps, nous nous plaçons sous le modèle hétéroscédastique de bruit blanc gaussien et sous l'approche maxiset, nous établissons la sous-optimalité des estimateurs linéaires par rapport aux procédures adaptatives de type "seuillage". Puis, nous nous interrogeons sur la meilleure façon de modéliser le caractère "sparse" d'une suite à travers une approche bayésienne. À cet effet, nous étudions les maxisets des estimateurs bayésiens classiques - médiane, moyenne - associés à une modélisation construite sur des densités à queues lourdes. Les espaces maximaux pour ces estimateurs sont des espaces de Lorentz, et coïncident avec ceux associés aux estimateurs de type "seuillage". Nous prolongeons de manière naturelle ce résultat en obtenant une condition nécessaire et suffisante sur les paramètres du modèle pour que la loi a priori se concentre presque sûrement sur un espace de Lorentz précis.
APA, Harvard, Vancouver, ISO, and other styles
2

Amiri, Arij. "Ruptures, singularités : détection et estimation." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILB030.

Full text
Abstract:
Cette thèse regroupe quelques travaux concernant des problèmes de rupture pour des processus stochastiques. Dans la première partie, nous nous intéressons au problème d'estimation, à partir de [dollar]n[dollar] observations indépendantes d'un processus de Poisson non-homogène, de la position de ce que nous appelons une rupture lisse (un endroit où la fonction d'intensité du processus passe d'un niveau à un autre d'une manière continue, mais sur un intervalle tellement petit, que sa longueur [dollar]delta_n[dollar] peut être considérée comme convergeant vers~[dollar]0[dollar]). Nous montrons que dans le cas où [dollar]delta_n[dollar] converge vers [dollar]0[dollar] moins vite que [dollar]1/n[dollar] (cas lent), notre modèle est localement asymptotiquement normal (avec une vitesse non standard), et que dans le cas où [dollar]delta_n[dollar] converge vers [dollar]0[dollar] plus vite que [dollar]1/n[dollar] (cas rapide), notre modèle est non régulier et se comporte comme un modèle de rupture classique. Tous ces résultats sont obtenus en utilisant la méthode d'analyse de rapport de vraisemblance de Ibragimov et Khasminskii, qui garantit également la convergence des moments des estimateurs considérés. Par contre, pour pouvoir appliquer cette méthode dans le cas rapide, nous avons dû d'abord l'adapter à la topologie [dollar]M_1[dollar] sur l'espace de Skorokhod des fonctions càdlàg, ainsi que développer quelques outils pour l'étude de convergence des fonctions dans cette topologie. La deuxième partie de la thèse traite de la détection de rupture dans la régularité höldérienne. Nous étudions la détection de rupture épidémique dans la régularité d'un [dollar]n[dollar]-échantillon de fonctions aléatoires i.i.d. de régularité höldérienne globale [dollar]alpha[dollar] sous l'hypothèse nulle. Sous l'hypothèse alternative, un segment d'échantillon de localisation et de longueur [dollar]l^star
This Ph.D. thesis gathers some works concerning change-point problems for stochastic processes. In Part one, we are interested in the problem of the estimation, from [dollar]n[dollar] independent observations of an inhomogeneous Poisson process, of the location of what we call a smooth change-point (a point in which the intensity function of the process switches from one level to another smoothly, but over such a small interval, that its length [dollar]delta_n[dollar] can be considered as converging to~[dollar]0[dollar]). We show that in the case where [dollar]delta_n[dollar] goes to zero slower than [dollar]1/n[dollar] (slow case), our model is locally asymptotically normal (though with an unusual rate), and that in the case where [dollar]delta_n[dollar] goes to zero faster than [dollar]1/n[dollar] (fast case), our model is non-regular and behaves like a classic change-point model. All these results are obtained using the likelihood ratio analysis method of Ibragimov and Khasminskii, which equally yields the convergence of moments of the considered estimators. However, in order to apply this method in the fast case, we first had to adapt it to the topology [dollar]M_1[dollar] on the Skorokhod space of càdlàg functions, as well as to develop some tools for the study of convergence of functions in this topology. The Part two deals with the detection of a change in the Hölder regularity. We study the detection of an epidemic change in the regularity of an [dollar]n[dollar]-sample of i.i.d. random functions with Hölder regularity [dollar]alpha[dollar] under null hypothesis. Under the alternative hypothesis, a segment of the sample of an unknown location and length [dollar]l^star
APA, Harvard, Vancouver, ISO, and other styles
3

Top, Alioune. "Estimation paramétriques et tests d'hypothèses pour des modèles avec plusieurs ruptures d'un processus de poisson." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1014/document.

Full text
Abstract:
Ce travail est consacré aux problèmes d’estimation paramétriques, aux tests d’hypothèses et aux tests d’ajustement pour les processus de Poisson non homogènes.Tout d’abord on a étudié deux modèles ayant chacun deux sauts localisés par un paramètre inconnu. Pour le premier modèle la somme des sauts est positive. Tandis que le second a un changement de régime et constant par morceaux. La somme de ses deux sauts est nulle. Ainsi pour chacun de ces modèles nous avons étudié les propriétés asymptotiques de l’estimateur bayésien (EB) et celui du maximum de vraisemblance(EMV). Nous avons montré la consistance, la convergence en distribution et la convergence des moments. En particulier l’estimateur bayésien est asymptotiquement efficace. Pour le second modèle nous avons aussi considéré le test d’une hypothèse simple contre une alternative unilatérale et nous avons décrit les propriétés asymptotiques (choix du seuil et puissance ) du test de Wald (WT)et du test du rapport de vraisemblance généralisé (GRLT).Les démonstrations sont basées sur la méthode d’Ibragimov et Khasminskii. Cette dernière repose sur la convergence faible du rapport de vraisemblance normalisé dans l’espace de Skorohod sous certains critères de tension des familles demesure correspondantes.Par des simulations numériques, les variances limites nous ont permis de conclure que l’EB est meilleur que celui du EMV. Lorsque la somme des sauts est nulle, nous avons développé une approche numérique pour le EMV.Ensuite on a considéré le problème de construction d’un test d’ajustement pour un modèle avec un paramètre d’échelle. On a montré que dans ce cas, le test de Cramer-von Mises est asymptotiquement ”parameter-free” et est consistent
This work is devoted to the parametric estimation, hypothesis testing and goodnessof-fit test problems for non homogenous Poisson processes. First we consider two models having two jumps located by an unknown parameter.For the first model the sum of jumps is positive. The second is a model of switching intensity, piecewise constant and the sum of jumps is zero. Thus, for each model, we studied the asymptotic properties of the Bayesian estimator (BE) andthe likelihood estimator (MLE). The consistency, the convergence in distribution and the convergence of moments are shown. In particular we show that the BE is asymptotically efficient. For the second model we also consider the problem of asimple hypothesis testing against a one- sided alternative. The asymptotic properties (choice of the threshold and power) of Wald test (WT) and the generalized likelihood ratio test (GRLT) are described.For the proofs we use the method of Ibragimov and Khasminskii. This method is based on the weak convergence of the normalized likelihood ratio in the Skorohod space under some tightness criterion of the corresponding families of measure.By numerical simulations, the limiting variances of estimators allows us to conclude that the BE outperforms the MLE. In the situation where the sum of jumps is zero, we developed a numerical approach to obtain the MLE.Then we consider the problem of construction of goodness-of-test for a model with scale parameter. We show that the Cram´er-von Mises type test is asymptotically parameter-free. It is also consistent
APA, Harvard, Vancouver, ISO, and other styles
4

Gassem, Anis. "Test d'ajustement d'un processus de diffusion ergodique à changement de régime." Phd thesis, Université du Maine, 2010. http://tel.archives-ouvertes.fr/tel-00543318.

Full text
Abstract:
Nous considérons les tests d'ajustement de type Cramér-von Mises pour tester l'hypothèse que le processus de diffusion observé est un "switching diffusion", c'est-à-dire un processus de diffusion à changement de régime dont la dérive est de type signe. Ces tests sont basés sur la fonction de répartition empirique et la densité empirique. Il est montré que les distributions limites des tests statistiques proposés sont définis par des fonctionnelles de type intégrale des processus Gaussiens continus. Nous établissons les développements de Karhunen-Loève des processus limites correspondants. Ces développements nous permettent de simplifier le problème du calcul des seuils. Nous étudions le comportement de ces statistiques sous les alternatives et nous montrons que ces tests sont consistants. Pour traiter les hypothèses de base composite nous avons besoin de connaître le comportement asymptotique des estimateurs statistiques des paramètres inconnus, c'est pourquoi nous considérons le problème de l'estimation des paramètres pour le processus de diffusion à changement de régime. Nous supposons que le paramètre inconnu est à deux dimensions et nous décrivons les propriétés asymptotiques de l'estimateur de maximum de vraisemblance et de l'estimateur bayésien dans ce cas. L'utilisation de ces estimateurs nous ramène à construire les tests de type Cramér-von Mises correspondants et à étudier leurs distributions limites. Enfin, nous considérons deux tests de type Cramér-von Mises de processus de diffusion ergodiques dans le cas général. Il est montré que pour le choix de certaines des fonctions de poids ces tests sont asymptotiquement " distribution-free ". Pour certains cas particuliers, nous établissons les expressions explicites des distributions limites de ces statistiques par le calcul direct de la transformée de Laplace.
APA, Harvard, Vancouver, ISO, and other styles
5

Autin, Florent. "Point de vue maxiset en estimation non paramétrique." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00008542.

Full text
Abstract:
Dans le cadre d'une analyse par ondelettes, nous étudions les propriétés statistiques de diverses classes de procédures. Plus précisément, nous cherchons à déterminer les espaces maximaux (maxisets) sur lesquels ces procédures atteignent une vitesse de convergence donnée. L'approche maxiset nous permet alors de donner une explication théorique à certains phénomènes observés en pratique et non expliqués par l'approche minimax. Nous montrons en effet que les estimateurs de seuillage aléatoire sont plus performants que ceux de seuillage déterministe. Ensuite, nous prouvons que les procédures de seuillage par groupes, comme certaines procédures d'arbre (proches de la procédure de Lepski) ou de seuillage par blocs, ont de meilleures performances au sens maxiset que les procédures de seuillage individuel. Par ailleurs, si les maxisets des estimateurs Bayésiens usuels construits sur des densités à queues lourdes sont de même nature que ceux des estimateurs de seuillage dur, nous montrons qu'il en est de même pour ceux des estimateurs Bayésiens construits à partir de densités Gaussiennes à grande variance et dont les performances numériques sont très bonnes.
APA, Harvard, Vancouver, ISO, and other styles
6

Ounaissi, Daoud. "Méthodes quasi-Monte Carlo et Monte Carlo : application aux calculs des estimateurs Lasso et Lasso bayésien." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10043/document.

Full text
Abstract:
La thèse contient 6 chapitres. Le premier chapitre contient une introduction à la régression linéaire et aux problèmes Lasso et Lasso bayésien. Le chapitre 2 rappelle les algorithmes d’optimisation convexe et présente l’algorithme FISTA pour calculer l’estimateur Lasso. La statistique de la convergence de cet algorithme est aussi donnée dans ce chapitre en utilisant l’entropie et l’estimateur de Pitman-Yor. Le chapitre 3 est consacré à la comparaison des méthodes quasi-Monte Carlo et Monte Carlo dans les calculs numériques du Lasso bayésien. Il sort de cette comparaison que les points de Hammersely donne les meilleurs résultats. Le chapitre 4 donne une interprétation géométrique de la fonction de partition du Lasso bayésien et l’exprime en fonction de la fonction Gamma incomplète. Ceci nous a permis de donner un critère de convergence pour l’algorithme de Metropolis Hastings. Le chapitre 5 présente l’estimateur bayésien comme la loi limite d’une équation différentielle stochastique multivariée. Ceci nous a permis de calculer le Lasso bayésien en utilisant les schémas numériques semi implicite et explicite d’Euler et les méthodes de Monte Carlo, Monte Carlo à plusieurs couches (MLMC) et l’algorithme de Metropolis Hastings. La comparaison des coûts de calcul montre que le couple (schéma semi-implicite d’Euler, MLMC) gagne contre les autres couples (schéma, méthode). Finalement dans le chapitre 6 nous avons trouvé la vitesse de convergence du Lasso bayésien vers le Lasso lorsque le rapport signal/bruit est constant et le bruit tend vers 0. Ceci nous a permis de donner de nouveaux critères pour la convergence de l’algorithme de Metropolis Hastings
The thesis contains 6 chapters. The first chapter contains an introduction to linear regression, the Lasso and the Bayesian Lasso problems. Chapter 2 recalls the convex optimization algorithms and presents the Fista algorithm for calculating the Lasso estimator. The properties of the convergence of this algorithm is also given in this chapter using the entropy estimator and Pitman-Yor estimator. Chapter 3 is devoted to comparison of Monte Carlo and quasi-Monte Carlo methods in numerical calculations of Bayesian Lasso. It comes out of this comparison that the Hammersely points give the best results. Chapter 4 gives a geometric interpretation of the partition function of the Bayesian lasso expressed as a function of the incomplete Gamma function. This allowed us to give a convergence criterion for the Metropolis Hastings algorithm. Chapter 5 presents the Bayesian estimator as the law limit a multivariate stochastic differential equation. This allowed us to calculate the Bayesian Lasso using numerical schemes semi-implicit and explicit Euler and methods of Monte Carlo, Monte Carlo multilevel (MLMC) and Metropolis Hastings algorithm. Comparing the calculation costs shows the couple (semi-implicit Euler scheme, MLMC) wins against the other couples (scheme method). Finally in chapter 6 we found the Lasso convergence rate of the Bayesian Lasso when the signal / noise ratio is constant and when the noise tends to 0. This allowed us to provide a new criteria for the convergence of the Metropolis algorithm Hastings
APA, Harvard, Vancouver, ISO, and other styles
7

Audibert, Jean-Yves. "Théorie statistique de l'apprentissage : une approche PAC-Bayésienne." Paris 6, 2004. http://www.theses.fr/2004PA066003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Vincent, Rémy. "Identification passive en acoustique : estimateurs et applications au SHM." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT020/document.

Full text
Abstract:
L’identité de Ward est une relation qui permet d’identifier unmilieu de propagation linéaire dissipatif, c'est-à-dire d'estimer des paramètres qui le caractérisent. Dans les travaux exposés, cette identité est utilisée pour proposer de nouveaux modèles d’observation caractérisant un contexte d’estimation qualifié de passif : les sources qui excitent le système ne sont pas contrôlées par l’utilisateur. La théorie de l’estimation/détection dans ce contexte est étudiée et des analyses de performances sont menées sur divers estimateurs. La portée applicative des méthodes proposées concerne le domaine du Structural Health Monitoring (SHM), c’est-à-dire le suivi de l’état de santé desbâtiment, des ponts... L'approche est développée pour la modalité acoustique aux fréquences audibles, cette dernière s'avérant complémentaire des techniques de l’état de l’art du SHM et permettant entre autre, d’accéder à des paramètres structuraux et géométriques. Divers scénarios sont illustrés par la mise en oeuvre expérimentale des algorithmes développés et adaptés à des contraintes de calculs embarqués sur un réseau de capteurs autonome
Ward identity is a relationship that enables damped linear system identification, ie the estimation its caracteristic properties. This identity is used to provide new observation models that are available in an estimation context where sources are uncontrolled by the user. An estimation and detection theory is derived from these models and various performances studies areconducted for several estimators. The reach of the proposed methods is extended to Structural Health Monitoring (SHM), that aims at measuring and tracking the health of buildings, such as a bridge or a sky-scraper for instance. The acoustic modality is chosen as it provides complementary parameters estimation to the state of the art in SHM, such as structural and geometrical parameters recovery. Some scenarios are experimentally illustrated by using the developed algorithms, adapted to fit the constrains set by embedded computation on anautonomous sensor network
APA, Harvard, Vancouver, ISO, and other styles
9

Criticou, Doukissa. "Estimateurs à rétrécisseurs (cas de distributions normales) : une classe d'estimateurs bayesiens." Rouen, 1986. http://www.theses.fr/1986ROUES050.

Full text
Abstract:
On s'intéresse au traitement bayésien de l'estimation de la moyenne dans le modèle linéaire gaussien, quand: 1) la variance est connue à un facteur multiplicatif près; 2) le coût utilisé est quadratique (inverse de la variance); 3) la probabilité a priori est un mélange de lois gaussiennes
APA, Harvard, Vancouver, ISO, and other styles
10

Devulder, Antoine. "Involuntary unemployment and financial frictions in estimated DSGE models." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E016/document.

Full text
Abstract:
L’utilisation de modèles DSGE, construits à partir de comportements micro-fondés des agents économiques, s'est progressivement imposée aux institutions pour l'analyse macroéconomique du cycle d'affaires et l'évaluation de politiques, grâce à leur cohérence interne. La crise financière récente et la préoccupation que représente la persistance du chômage à un niveau élevé plaident en faveur de modèles qui tiennent compte des ajustements imparfaits de l'offre et de la demande sur les marchés du crédit et du travail. Pourtant, des modèles relativement rudimentaires dans leur représentation de ces marchés, comme celui de Smets et Wouters (2003-2007), reproduisent aussi bien les données que des modèles économétriques usuels. On peut donc légitimement s'interroger sur l'intérêt de prendre en compte ces frictions dans la spécification des modèles théoriques destinés à l'analyse économique opérationnelle. Dans cette thèse, je réponds à cette question en montrant que l'inclusion de mécanismes microfondés, spécifiques aux marchés du crédit et du travail peut modifier très significativement les conclusions obtenues à partir d'un modèle DSGE estimé, tant d'un point de vue positif que normatif. Pour cela, je construis un modèle à deux pays de la France et du reste de la zone euro, avec un reste du monde exogène, et l'estime avec et sans ces deux frictions, en utilisant une approche hayésienne. Par rapport aux modèles existant dans la littérature, je propose deux améliorations à la spécification du marché du travail. Premièrement, suivant Pissarides (2009), le salaire réel moyen est rendu rigide en supposant que seuls les nouveaux employés renégocient leur rémunération. Deuxièmement, le taux de participation sur le marché du travail est rendu endogène et le chômage involontaire, dans le sens où le bien-être des chômeurs est inférieur à celui des employés. L'inclusion de ce dernier mécanisme dans le modèle estimé fera cependant I'objet de travaux futurs.Afin de mettre en évidence les effets des frictions sur les marches du crédit et du travail, je soumets les quatre versions estimées du modèle à plusieurs exercices: une analyse en contributions des chocs structurels pendant la crise. L'évaluation de différentes règles de politique monétaire, la simulation contrefactuelle de la crise sous l'hypothèse d'un régime de change flexible entre la France et le reste de la zone euro et, enfin. la simulation de variante de TVA sociale
Thanks to their internal consistency. DSGE models, built on microecoc behavor, have become prevalenl for business cycle and policy analysis in institutions. The recent crisis and governments' concern about persistent unemployment advocate for mechanism, capturing imperfect adjustments in credit and labor markets. However, popular models such as the one of Smets and Wouters (2003-2007), although unsophisticated in their representation of these markets, are able to replicate the data as well as usual econometric tools. It is thus necessary to question the benefits of including these frictions in theoretical models for operational use.ln this thesis, I address this issue and show that microfounded mechanisms specifiç to labor and credit markets can significantly alter the conclusions based on the use of an estimated DSGE model, fom both a positive and a normative perspective.For this purpose, I build a two-country model of France and the rest of the euro area with exogenous rest of the world variables, and estimate it with and without these two frictions using Bayesian techniques. By contrast with existing models, I propose two improvements of the representation of labor markets. First, following Pissarides (2009), only wages in new jobs are negotiated by firms and workers, engendering stickiness in the average real wage. Second, I develop a set of assumptions to make labor market participation endogenous and unemployment involuntary in the sense that the unemployed workers are worse-off that the employed ones. Yet, including this setup in the estimated model is left for future research.Using the four estimated versions of the model, I undertake a number of analyses to highlight the role of financial and labor market frictions : an historical shock decomposition of fluctuations during the crisis, the evaluation of several monetary policy rules, a counterfactual simulation of the crisis under the assumption of a flexible exchange rate regime between France and the rest of the euro area and, lastly, the simulation of social VAT scenarios
APA, Harvard, Vancouver, ISO, and other styles
11

Righi, Ali. "Sur l'estimation de densités prédictives et l'estimation d'un coût." Rouen, 2011. http://www.theses.fr/2011ROUES002.

Full text
Abstract:
Cette thèse est composée de deux parties. Dans la première partie, nous étudions l’estimation des densités prédictives, sous le coût de Kullback-Leibler, pour le modèle gaussien multidimensionnel de dimension p. Nous nous focalisons sur le lien qui existe entre ce problème d’estimation et l’estimation de la moyenne correspondante sous coût quadratique. Nous exhibons plusieurs résultats parallèles. Nous prouvons des résultats de minimaxité et d’amélioration des estimateurs sous contrainte pour la moyenne inconnue. Notamment, nous établissons, au travers deux méthodes, que la densité prédictive bayésienne associée à la loi a priori uniforme sur un convexe C domine la meilleure densité invariante sous la contrainte μ 2 C. Ceci constitue un résultat parallèle à celui de Hartigan en 2004 pour l’estimation de la moyenne sous coût quadratique. A la fin de cette partie, nous donnons des simulations numériques pour visualiser les gains réalisés par quelques nouveaux estimateurs proposés. Dans la seconde partie, pour le modèle gaussien de dimension p, nous traitons le problème de l’estimation du coût quadratique de l’estimateur standard de la moyenne (soit #0(X) = X). Nous proposons des estimateurs de coût bayésiens généralisés qui dominent l’estimateur standard du coût (soit #0(X) = p), en donnant des conditions suffisantes sur la loi a priori afin d’obtenir cette domination pour p # 5. Nous illustrons nos résultats par des exemples. Ensuite nous réalisons une étude technique et des simulations numériques du gain obtenu par un de nos estimateurs bayésiens généralisés proposés
This thesis is divided in two parts. In the first part, we investigate predictive density estimation for a multivariate Gaussian model under the Kullback-Leibler loss. We focus on the link with the problem of estimation of the mean under quadratic loss. We obtain several parallel results. We prove minimaxity and improved estimation results under restriction for the unknown mean. In particular, we show, via two different paths, that the Bayesian predictive density associated to the uniform prior on a convex C dominates the best invariant predictive density when μ 2 C. This is a parallel result to Hartigan’s result in 2004, for the estimation of the mean under quadratic loss. At the end of this part, we give numerical simulations to visualize the gain obtained by some of our new proposed estimators. In the second part, for the Gaussian model of dimension p, we treat the problem of estimating the loss of the standard estimator of the mean (that is, #0(X) = X). We give generalized Bayes estimators which dominate the unbiased estimator of loss (that is, #0(X) = p), through sufficient conditions for p # 5. Examples illustrate the theory. Then we carry on a technical study and numerical simulations on the gain reached by one of our proposed minimax generalized Bayes estimators of loss
APA, Harvard, Vancouver, ISO, and other styles
12

Thouvenot, Vincent. "Estimation et sélection pour les modèles additifs et application à la prévision de la consommation électrique." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS184/document.

Full text
Abstract:
L'électricité ne se stockant pas aisément, EDF a besoin d'outils de prévision de consommation et de production efficaces. Le développement de nouvelles méthodes automatiques de sélection et d'estimation de modèles de prévision est nécessaire. En effet, grâce au développement de nouvelles technologies, EDF peut étudier les mailles locales du réseau électrique, ce qui amène à un nombre important de séries chronologiques à étudier. De plus, avec les changements d'habitude de consommation et la crise économique, la consommation électrique en France évolue. Pour cette prévision, nous adoptons ici une méthode semi-paramétrique à base de modèles additifs. L'objectif de ce travail est de présenter des procédures automatiques de sélection et d'estimation de composantes d'un modèle additif avec des estimateurs en plusieurs étapes. Nous utilisons du Group LASSO, qui est, sous certaines conditions, consistant en sélection, et des P-Splines, qui sont consistantes en estimation. Nos résultats théoriques de consistance en sélection et en estimation sont obtenus sans nécessiter l'hypothèse classique que les normes des composantes non nulles du modèle additif soient bornées par une constante non nulle. En effet, nous autorisons cette norme à pouvoir converger vers 0 à une certaine vitesse. Les procédures sont illustrées sur des applications pratiques de prévision de consommation électrique nationale et locale.Mots-clés: Group LASSO, Estimateurs en plusieurs étapes, Modèle Additif, Prévision de charge électrique, P-Splines, Sélection de variables
French electricity load forecasting encounters major changes since the past decade. These changes are, among others things, due to the opening of electricity market (and economical crisis), which asks development of new automatic time adaptive prediction methods. The advent of innovating technologies also needs the development of some automatic methods, because we have to study thousands or tens of thousands time series. We adopt for time prediction a semi-parametric approach based on additive models. We present an automatic procedure for covariate selection in a additive model. We combine Group LASSO, which is selection consistent, with P-Splines, which are estimation consistent. Our estimation and model selection results are valid without assuming that the norm of each of the true non-zero components is bounded away from zero and need only that the norms of non-zero components converge to zero at a certain rate. Real applications on local and agregate load forecasting are provided.Keywords: Additive Model, Group LASSO, Load Forecasting, Multi-stage estimator, P-Splines, Variables selection
APA, Harvard, Vancouver, ISO, and other styles
13

Nguyen, Huu Du. "System Reliability : Inference for Common Cause Failure Model in Contexts of Missing Information." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS530.

Full text
Abstract:
Le bon fonctionnement de l’ensemble d’un système industriel est parfois fortement dépendant de la fiabilité de certains éléments qui le composent. Une défaillance de l’un de ces éléments peut conduire à une défaillance totale du système avec des conséquences qui peuvent être catastrophiques en particulier dans le secteur de l’industrie nucléaire ou dans le secteur de l’industrie aéronautique. Pour réduire ce risque de panne catastrophique, une stratégie consiste à dupliquer les éléments sensibles dans le dispositif. Ainsi, si l’un de ces éléments tombe en panne, un autre pourra prendre le relais et le bon fonctionnement du système pourra être maintenu. Cependant, on observe couramment des situations qui conduisent à des défaillances simultanées d’éléments du système : on parle de défaillance de cause commune. Analyser, modéliser, prédire ce type d’événement revêt donc une importance capitale et sont l’objet des travaux présentés dans cette thèse. Il existe de nombreux modèles pour les défaillances de cause commune. Des méthodes d’inférence pour étudier les paramètres de ces modèles ont été proposées. Dans cette thèse, nous considérons la situation où l’inférence est menée sur la base de données manquantes. Nous étudions en particulier le modèle BFR (Binomial Failure Rate) et la méthode des facteurs alpha. En particulier, une approche bayésienne est développée en s’appuyant sur des techniques algorithmiques (Metropolis, IBF). Dans le domaine du nucléaire, les données de défaillances sont peu abondantes et des techniques particulières d’extrapolations de données doivent être mis en oeuvre pour augmenter l’information. Nous proposons dans le cadre de ces stratégies, des techniques de prédiction des défaillances de cause commune. L’actualité récente a mis en évidence l’importance de la fiabilité des systèmes redondants et nous espérons que nos travaux contribueront à une meilleure compréhension et prédiction des risques de catastrophes majeures
The effective operation of an entire industrial system is sometimes strongly dependent on the reliability of its components. A failure of one of these components can lead to the failure of the system with consequences that can be catastrophic, especially in the nuclear industry or in the aeronautics industry. To reduce this risk of catastrophic failures, a redundancy policy, consisting in duplicating the sensitive components in the system, is often applied. When one of these components fails, another will take over and the normal operation of the system can be maintained. However, some situations that lead to simultaneous failures of components in the system could be observed. They are called common cause failure (CCF). Analyzing, modeling, and predicting this type of failure event are therefore an important issue and are the subject of the work presented in this thesis. We investigate several methods to deal with the statistical analysis of CCF events. Different algorithms to estimate the parameters of the models and to make predictive inference based on various type of missing data are proposed. We treat confounded data using a BFR (Binomial Failure Rare) model. An EM algorithm is developed to obtain the maximum likelihood estimates (MLE) for the parameters of the model. We introduce the modified-Beta distribution to develop a Bayesian approach. The alpha-factors model is considered to analyze uncertainties in CCF. We suggest a new formalism to describe uncertainty and consider Dirichlet distributions (nested, grouped) to make a Bayesian analysis. Recording of CCF cause data leads to incomplete contingency table. For a Bayesian analysis of this type of tables, we propose an algorithm relying on inverse Bayes formula (IBF) and Metropolis-Hasting algorithm. We compare our results with those obtained with the alpha- decomposition method, a recent method proposed in the literature. Prediction of catastrophic event is addressed and mapping strategies are described to suggest upper bounds of prediction intervals with pivotal method and Bayesian techniques. Recent events have highlighted the importance of reliability redundant systems and we hope that our work will contribute to a better understanding and prediction of the risks of major CCF events
APA, Harvard, Vancouver, ISO, and other styles
14

Dortel, Emmanuelle. "Croissance de l'albacore (Thunnus albacares) de l'Océan Indien : de la modélisation statistique à la modélisation bio-énergétique." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20035/document.

Full text
Abstract:
Depuis le début des années 1960, la croissance de l'albacore fait l'objet d'une attention particulière tant dans le domaine de la recherche que pour la gestion des pêcheries. Dans l'océan Indien, la gestion du stock d'albacores, sous la juridiction le Commission Thonière de l'Océan Indien (CTOI), souffre de nombreuses incertitudes associées à la courbe de croissance actuellement considérée. En particulier, des lacunes subsistent dans notre connaissance des processus biologiques et écologiques élémentaires régulant la croissance. Leur connaissance est pourtant fondamentale pour comprendre la productivité des stocks et leur capacité de résistance à la pression de pêche et aux changements océanographiques en cours. À travers la modélisation, cette étude se propose d'améliorer les connaissances actuelles sur la croissance de la population d'albacore de l'océan Indien et de renforcer ainsi les avis scientifiques sur l'état du stock. Alors que la plupart des études sur la croissance de l'albacore s'appuient sur une seule source de données, nous avons mis en œuvre un modèle hiérarchique Bayésien qui exploite diverses sources d'informations sur la croissance, i.e. des estimations d'âge obtenues par otolithométrie, des analyses de progressions modales et les taux de croissance individuels issus du marquage-recapture, et intègre explicitement des connaissances d'experts et les incertitudes associées à chaque source de données ainsi qu'au processus de modélisation. En particulier, le modèle de croissance a été couplé un à modèle d'erreurs dans les estimations d'âge par otolithométrie apportant une amélioration significative des estimations d'âge et des paramètres de croissance en résultant et permettant une meilleure évaluation de la fiabilité des estimations. Les courbes de croissances obtenues constituent une avancée majeure dans la représentation du patron de croissance actuellement utilisé dans les évaluations de stock d'albacore. Elles démontrent que l'albacore présente une croissance en phases, caractérisée par une forte accélération en fin de phase juvénile. Cependant, elles n'apportent aucune information sur les mécanismes biologiques et écologiques à l'origine de ces phases de croissance. Afin de mieux comprendre les facteurs impliqués dans l'accélération de la croissance, nous avons mis en œuvre un modèle bio-énergétique s'appuyant sur les principes de la théorie des bilans dynamiques d'énergie (DEB). Deux hypothèses apparaissant comme les plus pertinentes ont été testées : (i) une faible disponibilité alimentaire liée à une forte compétition inter et intra-spécifique chez les jeunes albacores formant des bancs et (ii) un changement dans le régime alimentaire des adultes s'accompagnant de la consommation de proies plus énergétiques. Il apparait que ces deux hypothèses sont susceptibles d'expliquer, au moins partiellement, l'accélération de la croissance
Since the early 1960s, the growth of yellowfin has been enjoyed a particular attention both in the research field and for fisheries management. In the Indian Ocean, the management of yellowfin stock, under the jurisdiction of the Indian Ocean Tuna Commission (IOTC), suffers from much uncertainty associated with the growth curve currently considered. In particular, there remain gaps in our knowledge of basic biological and ecological processes regulating growth. Their knowledge is however vital for understanding the stocks productivity and their resilience abilities to fishing pressure and oceanographic changes underway.Through modelling, this study aims to improve current knowledge on the growth of yellowfin population of the Indian Ocean and thus strengthen the scientific advice on the stock status. Whilst most studies on yellowfin growth only rely on one data source, we implemented a hierarchical Bayesian model that exploits various information sources on growth, i.e. direct age estimates obtained through otolith readings, analyzes of modal progressions and individual growth rates derived from mark-recapture experiments, and takes explicitely into account the expert knowledge and the errors associated with each dataset and the growth modelling process. In particular, the growth model was coupled with an ageing error model from repeated otolith readings which significantly improves the age estimates as well as the resulting growth estimates and allows a better assessment of the estimates reliability. The growth curves obtained constitute a major improvement of the growth pattern currently used in the yellowfin stock assessment. They demonstrates that yellowfin exhibits a two-stanzas growth, characterized by a sharp acceleration at the end of juvenile stage. However, they do not provide information on the biological and ecological mechanisms that lie behind the growth acceleration.For a better understanding of factors involved in the acceleration of growth, we implemented a bioenergetic model relying on the principles of Dynamic Energy Budget theory (DEB). Two major assumptions were investigated : (i) a low food availability during juvenile stage in relation with high intra and inter-specific competition and (ii) changes in food diet characterized by the consumption of more energetic prey in older yellowfin. It appears that these two assumption may partially explain the growth acceleration
APA, Harvard, Vancouver, ISO, and other styles
15

Ruffio, Emmanuel. "Estimation de paramètres et de conditions limites thermiques en conduction instationnaire pour des matériaux anisotropes." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2011. http://www.theses.fr/2011ESMA0019.

Full text
Abstract:
Cette étude porte sur deux types de problèmes inverses en thermique : l'estimation de propriétés thermophysiques de matériaux anisotropes et l'estimation de conditions limites. Dans un premier temps, la méthode flash 3D permet d'estimer la diffusivité thermique dans les trois directions principales d'un matériau anisotrope. Pour cela, un dispositif expérimental spécifique a été développé. Il s'appuie essentiellement sur un laser CO2 comme source de puissance thermique et sur la thermographie infrarouge comme instrument de mesure. En associant à l'expérimentation un modèle analytique des transferts thermiques dans l'échantillon, un estimateur permet d'obtenir les diffusivités thermiques recherchées. Au cours de ce travail, différents estimateurs ont été proposés et comparés à travers notamment leurs écarts types. Par ailleurs, il est proposé également une méthode de conception optimale d'expérience permettant de diminuer davantage ces écarts types. Dans un deuxième temps, on s'intéresse à l'estimation de conditions aux limites thermiques d'un système faisant intervenir les matériaux dont on connaît les propriétés thermophysiques, à partir de mesures de température par thermocouples. La première application concerne la caractérisation les transferts thermiques instationnaires gaz-paroi pendant la phase de remplissage de bouteilles d'hydrogène haute pression. La seconde application porte sur l'estimation du flux de chaleur absorbé par des matériaux composites soumis à une flamme oxygène/acétylène. Ces travaux font appel à différentes méthodes d'optimisation, aussi bien des algorithmes classiques de type gradient, que des algorithmes stochastiques. Ces derniers se sont révélés particulièrement adaptés à la conception optimale d'expériences
This study deals with the resolution of two types of inverse heat transfer problem: estimation of thermophysical parameters and estimation of thermal boundary conditions. A first part is devoted to the 3D-flash method which is used to estimate the three thermal diffusivities corresponding to the three principal directions of an anisotropic material. This work led to the realization of a experimental setup. The thermal excitation is provided by a CO2 laser and the temperature fields are acquired using infrared thermography. The thermal diffusivities are estimated by combining an estimator, an experiment and an analytical modeling. Different estimators are proposed and compared, based on their standard deviations. Moreover, a procedure to perform experiment design is presented to further reduce these standard deviations. In the second part, two studied cases consisting in estimating thermal boundary conditions are presented. Both underlying systems involve materials whose thermal properties are known. The thermal boundaries are estimated using temperature measurement provided by thermocouples. The first case deals with the evaluation of heat transfer between the gas and the inner-surface of a high pressure hydrogen tank. In the second case, the objective is to estimate the heat flux absorbed by a composite sample exposed to an oxygen-acetylene torch, in order to simulate the ablation phenomena under extreme conditions. Optimization algorithms are essential in this work. Gradient-based methods are used for parameters estimation and thermal boundary estimation problems. Stochastic algorithms appear to be well adapted in the framework of experiment design problems
APA, Harvard, Vancouver, ISO, and other styles
16

Motrunich, Anastasiia. "Estimation des paramètres pour les séquences de Markov avec application dans des problèmes médico-économiques." Thesis, Le Mans, 2015. http://www.theses.fr/2015LEMA1009/document.

Full text
Abstract:
Dans la première partie de cette thèse, nous considérons plusieurs problèmes d'estimation de paramètre de dimension finie pour les séquences de Markov dans l'asymptotique des grands échantillons. Le comportement asymptotique des estimateurs bayésiens et les estimateurs obtenus par la méthode des moments sont décrits. Nous montrons que sous les conditions de régularité ces estimateurs sont consistants et asymptotiquement normaux et que l'estimateur bayésien est asymptotiquement efficace. Les estimateur-processus du maximum de vraisemblance un-pas et deux-pas sont étudiés. Ces estimateurs nous permettent de construire des estimateurs asymptotiquement efficaces sur la base de certainsestimateurs préliminaires, par exemple, les estimateurs obtenus par la méthode des moments ou l'estimateur deBayes et la structure de l'estimateur du maximum de vraisemblance un-pas. Nous proposons notamment des processus autorégressifs non linéaires comme exemple et nous illustrons les propriétés de ces estimateurs à l'aide de simulations numériques. Dans la deuxième partie, nous donnons les applications de processus de Markov en économie de la santé. Nous comparons les modèles de Markov homogènes et non-homogènes pour l'analyse coût-efficacité de l'utilisation depansements transparents contenant un gel de gluconate de chlorhexidine par rapport aux pansements transparents standard. Le pansement antimicrobien protège les accès vasculaire centrale et réduit le risque de bactériémies liées aux cathéters. L'impact de l'approche de modélisation sur la décision d'adopter des pansements antimicrobiens pour les patients gravement malades est discuté
In the first part of this dissertation we consider several problems of finite-dimensional parameter estimation for Markov sequences in the asymptotics of large samples. The asymptotic behavior of the Bayesian estimators and the estimators of the method of moments are described. It is shown that under regularity conditions these estimators are consistent and asymptotically normal. We show that the Bayesian estimator is asymptotically efficient. The one-step and two-step maximum likelihood estimator-processes are studied. These estimators allow us to construct the asymptotically efficient estimators based on some preliminary estimators, say, the estimators of the method of moments or Bayes estimator and the one-step maximum likelihood estimator structure. We propose particular non-linear autoregressive processes as examples and we illustrate the properties of these estimators with the help of numerical simulations. In the second part we give theapplications of Markov processes in health economics. We compare homogeneous and non-homogeneous Markov models for cost-effectiveness analysis of routine use of transparent dressings containing a chlorhexidine gluconate gel pad versus standard transparent dressings. The antimicrobial dressing protects central vascular accesses reducing the risk of catheter-related bloodstream infections. The impact of the modeling approach on the decision of adopting antimicrobialdressings for critically-ill patients is discussed
APA, Harvard, Vancouver, ISO, and other styles
17

Rodriguez, Delphy. "Caractérisation de la pollution urbaine en Île-de-France par une synergie de mesures de surface et de modélisation fine échelle." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS341.

Full text
Abstract:
L’impact sanitaire lié à la pollution de l’air nécessite une estimation précise de celle-ci. Les réseaux de stations de mesures des agences de surveillance de la qualité de l’air (AIRPARIF en Île-de-France) ne sont pas suffisamment denses pour renseigner sur l’hétérogénéité de la pollution en ville. Et, les modèles haute résolution simulant les champs de concentration de polluants en 3D ont une large couverture spatiale mais sont limités par leurs incertitudes. Ces deux sources d’information exploitées indépendamment ne permettent pas d’évaluer finement l’exposition d’un individu. Nous proposons deux approches pour résoudre ce problème : (1) par la mesure directe des polluants avec des capteurs mobiles à bas coût et des instruments de référence. Des niveaux de pollution très variables ont été constatés entre les microenvironnements et dans une même pièce. Ces capteurs devraient être déployés en grand nombre pour palier à leurs contraintes techniques. Les instruments de référence, très coûteux et volumineux, ne peuvent être utilisés que ponctuellement. (2) en combinant les concentrations simulées par le modèle Parallel Micro-SWIFT-SPRAY (PMSS) à Paris avec une résolution horizontale de 3 mètres et les mesures des stations de surface AIRPARIF. Nous avons déterminé des « zones de représentativité » - zones géographiques où les concentrations sont très proches de celle de la station - uniquement à partir des sorties du modèle PMSS. Ensuite, nous avons développé un modèle bayésien pour propager la mesure des stations dans ces zones
The harmful effects of air pollution need a high-resolution concentration estimate. Ambient pollutant concentrations are routinely measured by surface monitoring sites of local agencies (AIRPARIF in Paris area, France). Such networks are not dense enough to represent the strong horizontal gradients of pollutant concentrations over urban areas. And, high-resolution models that simulate 3D pollutant concentration fields have a large spatial coverage but suffer from uncertainties. Those both information sources exploited independently are not able to accurately assess an individual’s exposure. We suggest two approaches to solve this problem : (1) direct pollution measurement by using low cost mobile sensors and reference instruments. A high variability across pollution levels is shown between microenvironments and also in the same room. Mobile sensors should be deployed on a large scale due to their technical constraints. Reference instruments are very expensive, cumbersome, and can only be used occasionally. (2) by combining concentration fields of the Parallel Micro-SWIFT-SPRAY (PMSS) model over Paris at a horizontal resolution of 3 meters with AIRPARIF local ground stations measurements. We determined “representativeness areas” - perimeter where concentrations are very close to the one of the station location – only from PMSS simulations. Next, we developed a Bayesian model to extend the stations measurements within these areas
APA, Harvard, Vancouver, ISO, and other styles
18

Brun, Mélanie. "Aide à la décision pour la conservation des populations de saumon atlantique (Salmo salar L.)." Thesis, Pau, 2011. http://www.theses.fr/2011PAUU3015/document.

Full text
Abstract:
La gestion durable des ressources naturelles vivantes est un problème majeur dans un contexte de raréfaction, dû à l'impact de l'homme et à une incertitude omniprésente. Améliorer les outils existant et en développer de nouveaux pour conseiller les gestionnaires sur l'évolution potentielle des ressources naturelles vivantes, selon divers scénarios environnementaux et de gestion, est nécessaire. Cette thèse a pour but de contribuer au développement d'une méthodologie pour l'aide à la décision pour la gestion des ressources naturelles vivantes, tout en prenant en compte les sources d'incertitude majeures. Ce travail est appliqué au cas de la population de saumon atlantique (Salmo salar L.) de la Nivelle (France). Cette population fait l'objet d'un programme de suivi à long terme et cette espèce a été largement étudiée. Cette dernière est menacée mais elle est toujours ciblée par la pêche commerciale et récréative. Elle illustre la dualité entre conservation et exploitation, qui est au coeur de la gestion des ressources naturelles vivantes. Pour gérer une population, il est nécessaire de comprendre sa dynamique et de prédire son évolution sous divers scénarios environnementaux et de gestion. L'approche Bayésienne fournit un cadre cohérent pour quantifier l'incertitude sous ses différentes formes. Les modèles hiérarchiques permettent l'assimilation de sources de données multiples et de faire des inférences et des prédictions sur des grandeurs spatio-temporelles inconnues. Un modèle stochastique d'état Bayésien, i.e. un modèle hiérarchique Bayésien dynamique, est construit pour étudier la dynamique de la population d'intérêt et pour prédire son évolution. La théorie de la décision en univers incertain fournit un cadre pour aider un individu dans ses choix, mais son application reste difficile. En théorie, une fonction d'utilité qui dépend des conséquences des alternatives de gestion reflète les préférences d'un individu unique impliqué dans un problème décisionnel. En pratique, sa construction est malaisée. Premièrement, il estdifficile de définir une valeur pour chaque conséquence. Deuxièmement, il y a généralement plus d'un individu impliqué dans le problème décisionnel. Par conséquent, on obtient une classe de fonctions d'utilité. De par les différents intérêts, souvent conflictuels, que les gestionnaires ont à prendre en compte, la fonction d'utilité est multi variée. Dans cette thèse, une classe de fonctions d'utilité bi-variées est construite. Elle prend en compte l'incertitude concernant la fonction, les variations de préférence entre les acteurs et la dualité d'intérêts exploitation vs conservation. Ensuite, une analyse de la robustesse est réalisée pour étudier si la décision optimale, i.e. l'utilité espérée maximale, varie lorsque la fonction d'utilité varie.La méthodologie développée dans cette thèse s'est avérée possible et fructueuse. Elle fournit un cadre cohérent pour organiser les interactions entre scientifiques, acteurs et gestionnaires pour atteindre une compréhension commune des problèmes de décision dans la gestion des ressources naturelles vivantes. En reconnaissant explicitement la diversité des acteurs, elle permet d'identifier des conflits potentiels et de guider les gestionnaires vers des compromis acceptables. Cependant, elle demande un haut niveau de formation et d'expertise en modélisation et en calcul. Elle implique également un temps d'analyse important. Comment rendre ces exigences compatibles avec le niveau actuel d'expertise et les agendas à court terme des structures de gestion est un challenge principal pour le futur
The sustainable management of natural living resources is a major issue in a context of increasing scarcity due to human impact and of pervasive uncertainty. Improving existing tools and developing new ones to advise decision makers on the potential evolution of natural living resources, according to various management and environmental scenarios, is requested. This PhD aims at contributing to the development of a methodology for decision making for natural living resources management, while taking into account major sources of uncertainty. This is achieved through the study case of the Atlantic salmon (Salmo salar L.) population ofthe Nivelle River (France). This population is subjected to a long term monitoring program and the species has been extensively studied. Atlantic salmon is a threatened species but still targeted by commercial and recreational fisheries. It illustrates the duality between conservation and exploitation which is at the heart of natural living resource management. To manage a population, it is necessary to understand its dynamics and to predict its evolution under various management and environmental scenarios. The Bayesian approach provides a coherent framework to quantify uncertainty in its different forms. Hierarchical models allow the assimilation of multiple sources of data and to make spatio-temporal inferences and predictions. A Bayesian state space model, i.e. a Bayesian dynamic hierarchical model, is constructed to study the dynamics of the population of interest and topredict its evolution. The decision theory under uncertainty provides a framework to help an individual in its choices, but its application still raises difficulties. In theory, a utility function depending on the consequences of alternative actions reflects the preferences of a single individual involved in a decision problem. In practice, its construction is challenging. Firstly, it is difficult to assign a value for each consequence. Secondly, there is usually more than one individual involved in the decision problem. Consequently, we obtain a set of utility functions. Due to the various and often conflicting interests the decision maker has to take into account, the utility function is multivariate. In this PhD, a set of bivariate utility functions is constructed. It accounts for the uncertainty about the function, the variation of preferences among stakeholders and the dual interests of exploitation vs conservation. Next, a robustness analysis is performed to study if the optimal decision, i.e. associated to the maximum expected utility, varies when the utility function varies. The methodology developed in this PhD proved practicable and fruitful. It provides a coherent framework for organizing the interactions between scientists, stakeholders and decision makers for reaching a common understanding of decision problems in the management of natural living resources. By acknowledging explicitly the diversity among stakeholders, it allows to identify potential conflict and it helps guiding decision makers towards acceptable trade-off actions. However, it requires a high level of training and expertise in modelling and computation. It involves also thoughtful and time consuming analyses. How to render these requirements compatible with the current level of expertise and the short term agendas of management bodies is a main challenge for the near future
APA, Harvard, Vancouver, ISO, and other styles
19

Do, Van-Cuong. "Analyse statistique de processus stochastiques : application sur des données d’orages." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS526/document.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent l'analyse statistique de cas particuliers du processus de Cox. Dans une première partie, nous proposons une synthèse des résultats existants sur le processus power-law (processus d'intensité puissance), synthèse qui ne peut être exhaustive étant donné la popularité de ce processus. Nous considérons une approche bayésienne pour l'inférence des paramètres de ce processus qui nous conduit à introduire et à étudier en détails une distribution que nous appelons loi H-B. Cette loi est une loi conjuguée. Nous proposons des stratégies d'élicitation des hyperparamètres et étudions le comportement des estimateurs de Bayes par des simulations. Dans un deuxième temps, nous étendons ces travaux au cas du processus d’intensité exponentielle (exponential-law process). De la même façon, nous définissons et étudions une loi conjuguée pour l'analyse bayésienne de ce dernier. Dans la dernière partie de la thèse, nous considérons un processus auto-excité qui intègre une covariable. Ce travail est motivé, à l'origine, par un problème de fiabilité qui concerne des données de défaillances de matériels exposés à des environnements sévères. Les résultats sont illustrés par des applications sur des données d'activités orageuses collectées dans deux départements français. Enfin, nous donnons quelques directions de travail et perspectives de futurs développements de l'ensemble de nos travaux
The work presented in this PhD dissertation concerns the statistical analysis of some particular cases of the Cox process. In a first part, we study the power-law process (PLP). Since the literature for the PLP is abundant, we suggest a state-of-art for the process. We consider the classical approach and recall some important properties of the maximum likelihood estimators. Then we investigate a Bayesian approach with noninformative priors and conjugate priors considering different parametrizations and scenarios of prior guesses. That leads us to define a family of distributions that we name H-B distribution as the natural conjugate priors for the PLP. Bayesian analysis with the conjugate priors are conducted via a simulation study and an application on real data. In a second part, we study the exponential-law process (ELP). We review the maximum likelihood techniques. For Bayesian analysis of the ELP, we define conjugate priors: the modified- Gumbel distribution and Gamma-modified-Gumbel distribution. We conduct a simulation study to compare maximum likelihood estimates and Bayesian estimates. In the third part, we investigate self-exciting point processes and we integrate a power-law covariate model to this intensity of this process. A maximum likelihood procedure for the model is proposed and the Bayesian approach is suggested. Lastly, we present an application on thunderstorm data collected in two French regions. We consider a strategy to define a thunderstorm as a temporal process associated with the charges in a particular location. Some selected thunderstorms are analyzed. We propose a reduced maximum likelihood procedure to estimate the parameters of the Hawkes process. Then we fit some thunderstorms to the power-law covariate self-exciting point process taking into account the associated charges. In conclusion, we give some perspectives for further work
APA, Harvard, Vancouver, ISO, and other styles
20

Paule, Inès. "Adaptation of dosing regimen of chemotherapies based on pharmacodynamic models." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00846454.

Full text
Abstract:
There is high variability in response to cancer chemotherapies among patients. Its sources are diverse: genetic, physiologic, comorbidities, concomitant medications, environment, compliance, etc. As the therapeutic window of anticancer drugs is usually narrow, such variability may have serious consequences: severe (even life-threatening) toxicities or lack of therapeutic effect. Therefore, various approaches to individually tailor treatments and dosing regimens have been developed: a priori (based on genetic information, body size, drug elimination functions, etc.) and a posteriori (that is using information of measurements of drug exposure and/or effects). Mixed-effects modelling of pharmacokinetics and pharmacodynamics (PK-PD), combined with Bayesian maximum a posteriori probability estimation of individual effects, is the method of choice for a posteriori adjustments of dosing regimens. In this thesis, a novel approach to adjust the doses on the basis of predictions, given by a model for ordered categorical observations of toxicity, was developed and investigated by computer simulations. More technical aspects concerning the estimation of individual parameters were analysed to determine the factors of good performance of the method. These works were based on the example of capecitabine-induced hand-and-foot syndrome in the treatment of colorectal cancer. Moreover, a review of pharmacodynamic models for discrete data (categorical, count, time-to-event) was performed. Finally, PK-PD analyses of hydroxyurea in the treatment of sickle cell anemia were performed and used to compare different dosing regimens and determine the optimal measures for monitoring the treatment
APA, Harvard, Vancouver, ISO, and other styles
21

Lassoued, Khaoula. "Localisation de robots mobiles en coopération mutuelle par observation d'état distribuée." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2289/document.

Full text
Abstract:
On étudie dans cette thèse des méthodes de localisation coopérative de robots mobiles sans utilisation de mesures extéroceptives relatives, comme des angles ou des distances entre robots. Les systèmes de localisation considérés sont basés sur des mesures de radionavigation sur des balises fixes ou des satellites. Pour ces systèmes, on observe en général un écart entre la position observée et la position réelle. Cet écart systématique (appelé biais) peut être dû à une mauvaise position de la balise ou à une différence entre la propagation réelles des ondes électromagnétiques par rapport aux conditions standard utilisées pour établir les modèles d’observation. L’influence de ce biais sur la localisation des robots est non négligeable. La coopération et l’échange de données entre les robots (estimations des biais, estimations des positions et données proprioceptives) est une approche qui permet de corriger ces erreurs systématiques. La localisation coopérative par échange des estimations est sujette aux problèmes de consanguinité des données qui peuvent engendrer des résultats erronés, en particulier trop confiants. Lorsque les estimations sont utilisées pour la navigation autonome à l’approche, on doit éviter tout risque de collision qui peut mettre en jeu la sécurité des robots et des personnes aux alentours. On doit donc avoir recours à un mécanisme d’intégrité vérifiant que l’erreur commise reste inférieure à une erreur maximale tolérable pour la mission. Dans un tel contexte, il est nécessaire de caractériser des domaines de confiance fiables contenant les positions des robots mobiles avec une forte probabilité. L’utilisation des méthodes ensemblistes à erreurs bornées est considérée alors comme une solution efficace. En effet, ce type d’approche résout naturellement le problème de consanguinité des données et fournit des domaines de confiance fiables. De surcroît, l’utilisation de modèles non-linéaires ne pose aucun problème de linéarisation. Après avoir modélisé un système coopératif de nr robots avec des mesures biaisées sur des balises, une étude d’observabilité est conduite. Deux cas sont considérés selon la nature des mesures brutes des observations. En outre, des conditions d’observabilité sont démontrées. Un algorithme ensembliste de localisation coopérative est ensuite présenté. Les méthodes considérées sont basées sur la propagation de contraintes sur des intervalles et l’inversion ensembliste. La coopération est effectuée grâce au partage des positions estimées, des biais estimés et des mesures proprioceptives.L’échange des estimations de biais permet de réduire les incertitudes sur les positions des robots. Dans un cadre d’étude simple, la faisabilité de l’algorithme est évaluée grâce à des simulations de mesures de distances sur balises en utilisant plusieurs robots. La coopération est comparée aux méthodes non coopératives. L’algorithme coopératif ensembliste est ensuite testé sur des données réelles en utilisant deux véhicules. Les performances de la méthode ensembliste coopérative sont enfin comparées avec deux méthodes Bayésiennes séquentielles, notamment une avec fusion par intersection de covariance. La comparaison est conduite en termes d’exactitude et d’incertitude
In this work, we study some cooperative localization issues for mobile robotic systems that interact with each other without using relative measurements (e.g. bearing and relative distances). The considered localization technologies are based on beacons or satellites that provide radio-navigation measurements. Such systems often lead to offsets between real and observed positions. These systematic offsets (i.e, biases) are often due to inaccurate beacon positions, or differences between the real electromagnetic waves propagation and the observation models. The impact of these biases on robots localization should not be neglected. Cooperation and data exchange (estimates of biases, estimates of positions and proprioceptive measurements) reduce significantly systematic errors. However, cooperative localization based on sharing estimates is subject to data incest problems (i.e, reuse of identical information in the fusion process) that often lead to over-convergence problems. When position information is used in a safety-critical context (e.g. close navigation of autonomous robots), one should check the consistency of the localization estimates. In this context, we aim at characterizing reliable confidence domains that contain robots positions with high reliability. Hence, set-membership methods are considered as efficient solutions. This kind of approach enables merging adequately the information even when it is reused several time. It also provides reliable domains. Moreover, the use of non-linear models does not require any linearization. The modeling of a cooperative system of nr robots with biased beacons measurements is firstly presented. Then, we perform an observability study. Two cases regarding the localization technology are considered. Observability conditions are identified and demonstrated. We then propose a set-membership method for cooperativelocalization. Cooperation is performed by sharing estimated positions, estimated biases and proprioceptive measurements. Sharing biases estimates allows to reduce the estimation error and the uncertainty of the robots positions. The algorithm feasibility is validated through simulation when the observations are beacons distance measurements with several robots. The cooperation provides better performance compared to a non-cooperative method. Afterwards, the cooperative algorithm based on set-membership method is tested using real data with two experimental vehicles. Finally, we compare the interval method performance with a sequential Bayesian approach based on covariance intersection. Experimental results indicate that the interval approach provides more accurate positions of the vehicles with smaller confidence domains that remain reliable. Indeed, the comparison is performed in terms of accuracy and uncertainty
APA, Harvard, Vancouver, ISO, and other styles
22

Kadje, Kenmogne Romain. "Estimation de paramètres en exploitant les aspects calculatoires et numériques." Thèse, 2017. http://hdl.handle.net/1866/20584.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography