Academic literature on the topic 'Estimateur Bayésien'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Estimateur Bayésien.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Estimateur Bayésien"

1

Detemple, Jérôme B., and Richard E. Kihlstrom. "Acquisition d’information dans un modèle intertemporel en temps continu." L'Actualité économique 63, no. 2-3 (January 27, 2009): 118–37. http://dx.doi.org/10.7202/601413ar.

Full text
Abstract:
Résumé Cet article examine la demande d’information et la valeur de l’information dans un modèle intertemporel en temps continu. Le modèle étudié est un modèle à information incomplète où la technologie d’information est contrôlée par l’investisseur moyennant un coût. Le mécanisme bayésien continu de révision des croyances produit, pour cette structure, une distribution postérieure gaussienne à tout point du temps. Le contrôle de la technologie d’information est équivalent au contrôle de l’estimateur de la position de la variable d’état (espérance conditionnelle) ainsi que de la précision de cet estimateur (variance conditionnelle). La demande d’information, dans notre modèle, se compose de deux termes, qui résultent du conflit entre deux objets d’apprentissage. Sous l’hypothèse d’une offre de précision stochastique et inélastique, le prix d’équilibre de l’information est dérivé et sa structure analysée.
APA, Harvard, Vancouver, ISO, and other styles
2

Thioune, Thierno. "Écart de production dans la zone UEMOA : analyse comparative d'une estimation par la fonction de production, le filtre de Kalman et le var structurel bayésien." Revue Internationale des Économistes de Langue Française 6, no. 2 (2021): 77–105. http://dx.doi.org/10.18559/rielf.2021.2.4.

Full text
Abstract:
The potential output and output gap concepts are important tools for central banks, and in particular the Central Bank of West African States (BCEAO), to forecast inflation in pursuit of their priority objective of inflation control. The choice of a method for estimating inflation is a delicate one. This paper proposes an estimation of potential output by the unobservable component methods, Watson's (1986) and Kuttner's (1994) approach, and by an economic modelling method, namely the Bayesian structural VAR. It also proposes a comparison of these different methods with the production function, which is widely used in the literature and recognized as the best method for estimating potential output for WAEMU countries. The results indicate that the different approaches as well as the production function explain the different crisis periods identified within the union. The comparative analysis, against all expectations, reveals that only the output gap obtained by the production function does not explain inflation.
APA, Harvard, Vancouver, ISO, and other styles
3

Beringer, Paul M., Annie Wong-Beringer, and Jay P. Rho. "Predictive Performance of a Vancomycin–Aminoglycoside Population Model." Annals of Pharmacotherapy 32, no. 2 (February 1998): 176–81. http://dx.doi.org/10.1345/aph.17129.

Full text
Abstract:
OBJECTIVE: To evaluate the Wragge–Cooper method of predicting vancomycin serum concentrations utilizing knowledge of aminoglycoside pharmacokinetic parameters in general medicine and intensive care unit populations, and to develop a revised model if necessary. DESIGN: This study consists of two phases evaluating 50 adults receiving concurrent vancomycin and aminoglycoside therapy. Patients were identified by a retrospective review of medical records. Bayesian analysis of measured serum aminoglycoside and vancomycin concentrations was performed to determine the individualized pharmacokinetic parameters. Phase I of the study tested the predictive performance of a published model incorporating aminoglycoside elimination (Wragge–Cooper) in 25 patients (group 1), and a revised model was developed. Phase II determined the predictive performance of the revised model (revised) and its performance relative to the Wragge–Cooper model and a traditional model incorporating estimated creatinine clearance (traditional) in an additional 25 patients (group 2). SETTING: Two tertiary care university teaching hospitals. MAIN OUTCOME MEASURES: The predictive performance of the models was determined by comparing predicted with measured vancomycin serum concentrations. Bias and precision were evaluated by calculating the mean prediction error (ME) and mean absolute error (MAE), respectively. Linear regression was performed to determine relationships between parameters. RESULTS: The Wragge–Cooper model consistently underpredicts vancomycin serum concentrations in general medicine and intensive care unit populations (ME = −5.18, MAE = 6.63). Relative predictive performance analysis indicates no significant difference in bias or precision between the traditional and Wragge–Cooper models (ΔME 1.17, ΔMAE −0.80). Regression analysis of individualized aminoglycoside and vancomycin elimination derived from patients in group 1 reveals the following relationship: vancomycin k10 (1/h) = 0.081 + 1.037ke, amg, r = 0.73. The revised model is significantly less biased and more precise compared with the traditional model (ΔME −4.48; ΔMAE 1.22), and is significantly less biased (ΔME 4.29) but no more precise than the Wragge–Cooper model (ΔMAE −0.58), using patients from group 2. CONCLUSIONS: The revised model is an accurate method of predicting vancomycin serum concentrations in both general medicine and intensive care unit populations. Use of this model enables individualization of vancomycin dosage in patients receiving concurrent aminoglycoside therapy and minimizes vancomycin serum concentration monitoring. OBJETIVO: Evaluar el modelo Wragge-Cooper de predecir concentraciones séricas de vancomicina utilizando lo parámetros farmacocinéticos de aminoglucósidos determinados en pacientes internados en las salas de cuidado intensivos y medicina general. De acuerdo al resultado de las predicciones, se desarrollará un modelo revisado de ser necesario. DISEÑO: Este estudio consiste de dos fases, evaluando un 50 adultos recibiendo terapia concurrente de vancomicina y aminoglucósido. Los pacientes fueron identificados por una revisión retrospectiva de los expedientes médicos. Se hizo un análisis Bayesiano de las concentraciones séricas de vancomicina y aminoglucósido para determinar los parámetros farmacocinéticos individuales. La fase I del estudios era para examinar la ejecución predictiva del modelo publicado incorporando la eliminación del aminoglicósido (Wragge-Cooper) en 25 pacientes (grupo 1), y se desarrolló un modelo revisado, da fase II consistía en examinar la ejecución predictiva del modelo revisado y su ejecución comparada al modelo Wragge-Cooper y al modelo tradicional incorporando la depuración de creatinina estimada en 25 pacientes adicionales (grupo 2). ESCENARIO: Dos hospitales universitarios de cuidado terciario. MEDICIÓN DE RESULTADOS: La ejecución predictiva de los modelos fue determinada por la comparación entre los valores predecidos y los medidos de las concentraciones séricas de vancomicina. El sesgo y la precisión fueron evaluados a base del cálculo del error medio predecido (EM) y el error absoluto medio (EAM), respectivamente. Se hizo una regresión lineal para determinar la relación entre ambos parámetros. RESULTADOS: El modelo Wragge-Cooper consistentemente sub-predice las concentraciones séricas de vancomicina en las poblaciones estudiadas (EM = −5.18; EAM = 6.63). Un análisis de ejecución predictiva relativa indica que no existe diferencia significativa en sesgo o precisión entre el modelo tradicional y el de Wragge-Cooper (Δ EM1.17; ΔEAM −0.80). El analisis de regresión de las depuraciones de creatinina individualizadas de vancomicina y aminoglucósidos derivado de los pacientes del grupo 1, revela la siguiente relación: vancomicina K10 (1/h) = 0.081 + 1.037 (Kelamg), r = 0.73. El modelo revisado es significativamente menos sesgado y más preciso al compararse con el modelo tradicional (ΔEM −4.48; ΔEAM 1.22) y es significativamente menos sesgado (ΔEM 4.29) aunque no más preciso que el modelo Wragge-Cooper (ΔEAM −0.58), al examinar los resultados en los pacientes del grupo 2. CONCLUSIONES: El modelo revisado es un método certero de predecir las concentraciones séricas de vancomicina tanto en pacientes de cuidado intensivo así como los de medicina general. El uso de este modelo permite la individualización de la dosis de vancomicina en pacientes recibiendo terapia concurrente con aminoglucósido y disminuye la necesidad del seguimiento de las concentraciones séricas de vancomicina. OBJECTIF: Évaluer la méthode de Wragge-Cooper, une méthode permettant de prédire les concentrations sériques de vancomycine à partir des paramètres pharmacocinétiques des aminosides chez des patients de soins généraux et de soins intensifs. Réviser ce modèle, si nécessaire. DEVIS EXPÉRIMENTAL: Cette étude comportait deux phases et a évalué 50 malades adultes recevant un traitement concomitant de vancomycine et d'un aminoside. Une revue rétrospective des dossiers médicaux a permis d'identifier les sujets. Une analyse Bayésienne des concentrations sériques mesurées de vancomycine et d'aminosides a été effectuée afin de déterminer les paramètres pharmacocinétiques individualisés. La phase I de l'étude a évalué la performance prédictive du modèle de Wragge-Cooper chez 25 patients. Un modèle révisé a été développé au cours de cette phase. La phase II a évalué la performance prédictive du modèle révisé ainsi que sa performance comparativement au modèle de Wragge-Cooper et à un modèle traditionnel tenant compte de la clairance estimée à la créatinine chez 25 autres patients. LIEU DE l'ÉTUDE: Deux centres hospitaliers universitaires de soins tertiaires. MESURES DE L'EFFET: La performance prédictive des différents modèles a été déterminée en comparant les concentrations sériques prédites et mesurées de vancomycine. Les biais et la précision ont été évalués en calculant respectivement l'erreur moyenne de prédiction (EM) et l'erreur absolue moyenne (EAM). Une régression linéaire a été effectuée afin de déterminer les relations existant entre ces paramètres. RÉSULTATS: Le modèle de Wragge-Cooper sous-estime de façon constante les concentrations sériques de vancomycine des patients de soins généraux et de soins intensifs (EM = −5.18; EAM = 6.63). L'analyse de performance prédictive n'indique aucune différence significative en ce qui concerne les biais ou la précision entre les modèles traditionnel et de Wragge-Cooper (ΔEM 1.17; ΔEAM −0.80). L'analyse de régression des clairances individualisées d'aminoside et de vancomycine obtenue des patients du groupe 1 révèle la relation suivante: K10 vancomycine (1/h) = 0.081 + 1.037 (Kélaminoside), r = 0.73. Le modèle révisé est significativement moins biaisé et plus précis que le modèle traditionnel (ΔEM −4.48; ΔEAM 1.22), et significativement moins biaisé (ΔEM 4.29) mais pas plus précis que le modèle de Wragge-Cooper (ΔEAM −0.58) en utilisant les données obtenues des patients de la groupe 2. CONCLUSIONS: Le modèle révisé constitue une méthode précise permettant de prédire les concentrations sériques de vancomycine chez des patients de soins généraux et de soins intensifs. L'utilisation de ce modèle permet l'individualisation des doses de vancomycine chez les patients recevant un traitement concomitant d'aminoside et réduit le monitorage des concentrations sériques de vancomycine.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Estimateur Bayésien"

1

Rivoirard, Vincent. "Estimation bayésienne non paramétrique." Phd thesis, Université Paris-Diderot - Paris VII, 2002. http://tel.archives-ouvertes.fr/tel-00002149.

Full text
Abstract:
Dans le cadre d'une analyse par ondelettes, nous nous intéressons à l'étude statistique d'une classe particulière d'espaces de Lorentz : les espaces de Besov faibles qui apparaissent naturellement dans le contexte de la théorie maxiset. Avec des hypothèses de type "bruit blanc gaussien", nous montrons, grâce à des techniques bayésiennes, que les vitesses minimax des espaces de Besov forts ou faibles sont les mêmes. Les distributions les plus défavorables que nous exhibons pour chaque espace de Besov faible sont construites à partir des lois de Pareto et diffèrent en cela de celles des espaces de Besov forts. Grâce aux simulations de ces distributions, nous construisons des représentations visuelles des "ennemis typiques". Enfin, nous exploitons ces distributions pour bâtir une procédure d'estimation minimax, de type "seuillage" appelée ParetoThresh, que nous étudions d'un point de vue pratique. Dans un deuxième temps, nous nous plaçons sous le modèle hétéroscédastique de bruit blanc gaussien et sous l'approche maxiset, nous établissons la sous-optimalité des estimateurs linéaires par rapport aux procédures adaptatives de type "seuillage". Puis, nous nous interrogeons sur la meilleure façon de modéliser le caractère "sparse" d'une suite à travers une approche bayésienne. À cet effet, nous étudions les maxisets des estimateurs bayésiens classiques - médiane, moyenne - associés à une modélisation construite sur des densités à queues lourdes. Les espaces maximaux pour ces estimateurs sont des espaces de Lorentz, et coïncident avec ceux associés aux estimateurs de type "seuillage". Nous prolongeons de manière naturelle ce résultat en obtenant une condition nécessaire et suffisante sur les paramètres du modèle pour que la loi a priori se concentre presque sûrement sur un espace de Lorentz précis.
APA, Harvard, Vancouver, ISO, and other styles
2

Amiri, Arij. "Ruptures, singularités : détection et estimation." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. http://www.theses.fr/2022ULILB030.

Full text
Abstract:
Cette thèse regroupe quelques travaux concernant des problèmes de rupture pour des processus stochastiques. Dans la première partie, nous nous intéressons au problème d'estimation, à partir de [dollar]n[dollar] observations indépendantes d'un processus de Poisson non-homogène, de la position de ce que nous appelons une rupture lisse (un endroit où la fonction d'intensité du processus passe d'un niveau à un autre d'une manière continue, mais sur un intervalle tellement petit, que sa longueur [dollar]delta_n[dollar] peut être considérée comme convergeant vers~[dollar]0[dollar]). Nous montrons que dans le cas où [dollar]delta_n[dollar] converge vers [dollar]0[dollar] moins vite que [dollar]1/n[dollar] (cas lent), notre modèle est localement asymptotiquement normal (avec une vitesse non standard), et que dans le cas où [dollar]delta_n[dollar] converge vers [dollar]0[dollar] plus vite que [dollar]1/n[dollar] (cas rapide), notre modèle est non régulier et se comporte comme un modèle de rupture classique. Tous ces résultats sont obtenus en utilisant la méthode d'analyse de rapport de vraisemblance de Ibragimov et Khasminskii, qui garantit également la convergence des moments des estimateurs considérés. Par contre, pour pouvoir appliquer cette méthode dans le cas rapide, nous avons dû d'abord l'adapter à la topologie [dollar]M_1[dollar] sur l'espace de Skorokhod des fonctions càdlàg, ainsi que développer quelques outils pour l'étude de convergence des fonctions dans cette topologie. La deuxième partie de la thèse traite de la détection de rupture dans la régularité höldérienne. Nous étudions la détection de rupture épidémique dans la régularité d'un [dollar]n[dollar]-échantillon de fonctions aléatoires i.i.d. de régularité höldérienne globale [dollar]alpha[dollar] sous l'hypothèse nulle. Sous l'hypothèse alternative, un segment d'échantillon de localisation et de longueur [dollar]l^star
This Ph.D. thesis gathers some works concerning change-point problems for stochastic processes. In Part one, we are interested in the problem of the estimation, from [dollar]n[dollar] independent observations of an inhomogeneous Poisson process, of the location of what we call a smooth change-point (a point in which the intensity function of the process switches from one level to another smoothly, but over such a small interval, that its length [dollar]delta_n[dollar] can be considered as converging to~[dollar]0[dollar]). We show that in the case where [dollar]delta_n[dollar] goes to zero slower than [dollar]1/n[dollar] (slow case), our model is locally asymptotically normal (though with an unusual rate), and that in the case where [dollar]delta_n[dollar] goes to zero faster than [dollar]1/n[dollar] (fast case), our model is non-regular and behaves like a classic change-point model. All these results are obtained using the likelihood ratio analysis method of Ibragimov and Khasminskii, which equally yields the convergence of moments of the considered estimators. However, in order to apply this method in the fast case, we first had to adapt it to the topology [dollar]M_1[dollar] on the Skorokhod space of càdlàg functions, as well as to develop some tools for the study of convergence of functions in this topology. The Part two deals with the detection of a change in the Hölder regularity. We study the detection of an epidemic change in the regularity of an [dollar]n[dollar]-sample of i.i.d. random functions with Hölder regularity [dollar]alpha[dollar] under null hypothesis. Under the alternative hypothesis, a segment of the sample of an unknown location and length [dollar]l^star
APA, Harvard, Vancouver, ISO, and other styles
3

Top, Alioune. "Estimation paramétriques et tests d'hypothèses pour des modèles avec plusieurs ruptures d'un processus de poisson." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1014/document.

Full text
Abstract:
Ce travail est consacré aux problèmes d’estimation paramétriques, aux tests d’hypothèses et aux tests d’ajustement pour les processus de Poisson non homogènes.Tout d’abord on a étudié deux modèles ayant chacun deux sauts localisés par un paramètre inconnu. Pour le premier modèle la somme des sauts est positive. Tandis que le second a un changement de régime et constant par morceaux. La somme de ses deux sauts est nulle. Ainsi pour chacun de ces modèles nous avons étudié les propriétés asymptotiques de l’estimateur bayésien (EB) et celui du maximum de vraisemblance(EMV). Nous avons montré la consistance, la convergence en distribution et la convergence des moments. En particulier l’estimateur bayésien est asymptotiquement efficace. Pour le second modèle nous avons aussi considéré le test d’une hypothèse simple contre une alternative unilatérale et nous avons décrit les propriétés asymptotiques (choix du seuil et puissance ) du test de Wald (WT)et du test du rapport de vraisemblance généralisé (GRLT).Les démonstrations sont basées sur la méthode d’Ibragimov et Khasminskii. Cette dernière repose sur la convergence faible du rapport de vraisemblance normalisé dans l’espace de Skorohod sous certains critères de tension des familles demesure correspondantes.Par des simulations numériques, les variances limites nous ont permis de conclure que l’EB est meilleur que celui du EMV. Lorsque la somme des sauts est nulle, nous avons développé une approche numérique pour le EMV.Ensuite on a considéré le problème de construction d’un test d’ajustement pour un modèle avec un paramètre d’échelle. On a montré que dans ce cas, le test de Cramer-von Mises est asymptotiquement ”parameter-free” et est consistent
This work is devoted to the parametric estimation, hypothesis testing and goodnessof-fit test problems for non homogenous Poisson processes. First we consider two models having two jumps located by an unknown parameter.For the first model the sum of jumps is positive. The second is a model of switching intensity, piecewise constant and the sum of jumps is zero. Thus, for each model, we studied the asymptotic properties of the Bayesian estimator (BE) andthe likelihood estimator (MLE). The consistency, the convergence in distribution and the convergence of moments are shown. In particular we show that the BE is asymptotically efficient. For the second model we also consider the problem of asimple hypothesis testing against a one- sided alternative. The asymptotic properties (choice of the threshold and power) of Wald test (WT) and the generalized likelihood ratio test (GRLT) are described.For the proofs we use the method of Ibragimov and Khasminskii. This method is based on the weak convergence of the normalized likelihood ratio in the Skorohod space under some tightness criterion of the corresponding families of measure.By numerical simulations, the limiting variances of estimators allows us to conclude that the BE outperforms the MLE. In the situation where the sum of jumps is zero, we developed a numerical approach to obtain the MLE.Then we consider the problem of construction of goodness-of-test for a model with scale parameter. We show that the Cram´er-von Mises type test is asymptotically parameter-free. It is also consistent
APA, Harvard, Vancouver, ISO, and other styles
4

Gassem, Anis. "Test d'ajustement d'un processus de diffusion ergodique à changement de régime." Phd thesis, Université du Maine, 2010. http://tel.archives-ouvertes.fr/tel-00543318.

Full text
Abstract:
Nous considérons les tests d'ajustement de type Cramér-von Mises pour tester l'hypothèse que le processus de diffusion observé est un "switching diffusion", c'est-à-dire un processus de diffusion à changement de régime dont la dérive est de type signe. Ces tests sont basés sur la fonction de répartition empirique et la densité empirique. Il est montré que les distributions limites des tests statistiques proposés sont définis par des fonctionnelles de type intégrale des processus Gaussiens continus. Nous établissons les développements de Karhunen-Loève des processus limites correspondants. Ces développements nous permettent de simplifier le problème du calcul des seuils. Nous étudions le comportement de ces statistiques sous les alternatives et nous montrons que ces tests sont consistants. Pour traiter les hypothèses de base composite nous avons besoin de connaître le comportement asymptotique des estimateurs statistiques des paramètres inconnus, c'est pourquoi nous considérons le problème de l'estimation des paramètres pour le processus de diffusion à changement de régime. Nous supposons que le paramètre inconnu est à deux dimensions et nous décrivons les propriétés asymptotiques de l'estimateur de maximum de vraisemblance et de l'estimateur bayésien dans ce cas. L'utilisation de ces estimateurs nous ramène à construire les tests de type Cramér-von Mises correspondants et à étudier leurs distributions limites. Enfin, nous considérons deux tests de type Cramér-von Mises de processus de diffusion ergodiques dans le cas général. Il est montré que pour le choix de certaines des fonctions de poids ces tests sont asymptotiquement " distribution-free ". Pour certains cas particuliers, nous établissons les expressions explicites des distributions limites de ces statistiques par le calcul direct de la transformée de Laplace.
APA, Harvard, Vancouver, ISO, and other styles
5

Autin, Florent. "Point de vue maxiset en estimation non paramétrique." Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00008542.

Full text
Abstract:
Dans le cadre d'une analyse par ondelettes, nous étudions les propriétés statistiques de diverses classes de procédures. Plus précisément, nous cherchons à déterminer les espaces maximaux (maxisets) sur lesquels ces procédures atteignent une vitesse de convergence donnée. L'approche maxiset nous permet alors de donner une explication théorique à certains phénomènes observés en pratique et non expliqués par l'approche minimax. Nous montrons en effet que les estimateurs de seuillage aléatoire sont plus performants que ceux de seuillage déterministe. Ensuite, nous prouvons que les procédures de seuillage par groupes, comme certaines procédures d'arbre (proches de la procédure de Lepski) ou de seuillage par blocs, ont de meilleures performances au sens maxiset que les procédures de seuillage individuel. Par ailleurs, si les maxisets des estimateurs Bayésiens usuels construits sur des densités à queues lourdes sont de même nature que ceux des estimateurs de seuillage dur, nous montrons qu'il en est de même pour ceux des estimateurs Bayésiens construits à partir de densités Gaussiennes à grande variance et dont les performances numériques sont très bonnes.
APA, Harvard, Vancouver, ISO, and other styles
6

Ounaissi, Daoud. "Méthodes quasi-Monte Carlo et Monte Carlo : application aux calculs des estimateurs Lasso et Lasso bayésien." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10043/document.

Full text
Abstract:
La thèse contient 6 chapitres. Le premier chapitre contient une introduction à la régression linéaire et aux problèmes Lasso et Lasso bayésien. Le chapitre 2 rappelle les algorithmes d’optimisation convexe et présente l’algorithme FISTA pour calculer l’estimateur Lasso. La statistique de la convergence de cet algorithme est aussi donnée dans ce chapitre en utilisant l’entropie et l’estimateur de Pitman-Yor. Le chapitre 3 est consacré à la comparaison des méthodes quasi-Monte Carlo et Monte Carlo dans les calculs numériques du Lasso bayésien. Il sort de cette comparaison que les points de Hammersely donne les meilleurs résultats. Le chapitre 4 donne une interprétation géométrique de la fonction de partition du Lasso bayésien et l’exprime en fonction de la fonction Gamma incomplète. Ceci nous a permis de donner un critère de convergence pour l’algorithme de Metropolis Hastings. Le chapitre 5 présente l’estimateur bayésien comme la loi limite d’une équation différentielle stochastique multivariée. Ceci nous a permis de calculer le Lasso bayésien en utilisant les schémas numériques semi implicite et explicite d’Euler et les méthodes de Monte Carlo, Monte Carlo à plusieurs couches (MLMC) et l’algorithme de Metropolis Hastings. La comparaison des coûts de calcul montre que le couple (schéma semi-implicite d’Euler, MLMC) gagne contre les autres couples (schéma, méthode). Finalement dans le chapitre 6 nous avons trouvé la vitesse de convergence du Lasso bayésien vers le Lasso lorsque le rapport signal/bruit est constant et le bruit tend vers 0. Ceci nous a permis de donner de nouveaux critères pour la convergence de l’algorithme de Metropolis Hastings
The thesis contains 6 chapters. The first chapter contains an introduction to linear regression, the Lasso and the Bayesian Lasso problems. Chapter 2 recalls the convex optimization algorithms and presents the Fista algorithm for calculating the Lasso estimator. The properties of the convergence of this algorithm is also given in this chapter using the entropy estimator and Pitman-Yor estimator. Chapter 3 is devoted to comparison of Monte Carlo and quasi-Monte Carlo methods in numerical calculations of Bayesian Lasso. It comes out of this comparison that the Hammersely points give the best results. Chapter 4 gives a geometric interpretation of the partition function of the Bayesian lasso expressed as a function of the incomplete Gamma function. This allowed us to give a convergence criterion for the Metropolis Hastings algorithm. Chapter 5 presents the Bayesian estimator as the law limit a multivariate stochastic differential equation. This allowed us to calculate the Bayesian Lasso using numerical schemes semi-implicit and explicit Euler and methods of Monte Carlo, Monte Carlo multilevel (MLMC) and Metropolis Hastings algorithm. Comparing the calculation costs shows the couple (semi-implicit Euler scheme, MLMC) wins against the other couples (scheme method). Finally in chapter 6 we found the Lasso convergence rate of the Bayesian Lasso when the signal / noise ratio is constant and when the noise tends to 0. This allowed us to provide a new criteria for the convergence of the Metropolis algorithm Hastings
APA, Harvard, Vancouver, ISO, and other styles
7

Audibert, Jean-Yves. "Théorie statistique de l'apprentissage : une approche PAC-Bayésienne." Paris 6, 2004. http://www.theses.fr/2004PA066003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Vincent, Rémy. "Identification passive en acoustique : estimateurs et applications au SHM." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT020/document.

Full text
Abstract:
L’identité de Ward est une relation qui permet d’identifier unmilieu de propagation linéaire dissipatif, c'est-à-dire d'estimer des paramètres qui le caractérisent. Dans les travaux exposés, cette identité est utilisée pour proposer de nouveaux modèles d’observation caractérisant un contexte d’estimation qualifié de passif : les sources qui excitent le système ne sont pas contrôlées par l’utilisateur. La théorie de l’estimation/détection dans ce contexte est étudiée et des analyses de performances sont menées sur divers estimateurs. La portée applicative des méthodes proposées concerne le domaine du Structural Health Monitoring (SHM), c’est-à-dire le suivi de l’état de santé desbâtiment, des ponts... L'approche est développée pour la modalité acoustique aux fréquences audibles, cette dernière s'avérant complémentaire des techniques de l’état de l’art du SHM et permettant entre autre, d’accéder à des paramètres structuraux et géométriques. Divers scénarios sont illustrés par la mise en oeuvre expérimentale des algorithmes développés et adaptés à des contraintes de calculs embarqués sur un réseau de capteurs autonome
Ward identity is a relationship that enables damped linear system identification, ie the estimation its caracteristic properties. This identity is used to provide new observation models that are available in an estimation context where sources are uncontrolled by the user. An estimation and detection theory is derived from these models and various performances studies areconducted for several estimators. The reach of the proposed methods is extended to Structural Health Monitoring (SHM), that aims at measuring and tracking the health of buildings, such as a bridge or a sky-scraper for instance. The acoustic modality is chosen as it provides complementary parameters estimation to the state of the art in SHM, such as structural and geometrical parameters recovery. Some scenarios are experimentally illustrated by using the developed algorithms, adapted to fit the constrains set by embedded computation on anautonomous sensor network
APA, Harvard, Vancouver, ISO, and other styles
9

Criticou, Doukissa. "Estimateurs à rétrécisseurs (cas de distributions normales) : une classe d'estimateurs bayesiens." Rouen, 1986. http://www.theses.fr/1986ROUES050.

Full text
Abstract:
On s'intéresse au traitement bayésien de l'estimation de la moyenne dans le modèle linéaire gaussien, quand: 1) la variance est connue à un facteur multiplicatif près; 2) le coût utilisé est quadratique (inverse de la variance); 3) la probabilité a priori est un mélange de lois gaussiennes
APA, Harvard, Vancouver, ISO, and other styles
10

Devulder, Antoine. "Involuntary unemployment and financial frictions in estimated DSGE models." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E016/document.

Full text
Abstract:
L’utilisation de modèles DSGE, construits à partir de comportements micro-fondés des agents économiques, s'est progressivement imposée aux institutions pour l'analyse macroéconomique du cycle d'affaires et l'évaluation de politiques, grâce à leur cohérence interne. La crise financière récente et la préoccupation que représente la persistance du chômage à un niveau élevé plaident en faveur de modèles qui tiennent compte des ajustements imparfaits de l'offre et de la demande sur les marchés du crédit et du travail. Pourtant, des modèles relativement rudimentaires dans leur représentation de ces marchés, comme celui de Smets et Wouters (2003-2007), reproduisent aussi bien les données que des modèles économétriques usuels. On peut donc légitimement s'interroger sur l'intérêt de prendre en compte ces frictions dans la spécification des modèles théoriques destinés à l'analyse économique opérationnelle. Dans cette thèse, je réponds à cette question en montrant que l'inclusion de mécanismes microfondés, spécifiques aux marchés du crédit et du travail peut modifier très significativement les conclusions obtenues à partir d'un modèle DSGE estimé, tant d'un point de vue positif que normatif. Pour cela, je construis un modèle à deux pays de la France et du reste de la zone euro, avec un reste du monde exogène, et l'estime avec et sans ces deux frictions, en utilisant une approche hayésienne. Par rapport aux modèles existant dans la littérature, je propose deux améliorations à la spécification du marché du travail. Premièrement, suivant Pissarides (2009), le salaire réel moyen est rendu rigide en supposant que seuls les nouveaux employés renégocient leur rémunération. Deuxièmement, le taux de participation sur le marché du travail est rendu endogène et le chômage involontaire, dans le sens où le bien-être des chômeurs est inférieur à celui des employés. L'inclusion de ce dernier mécanisme dans le modèle estimé fera cependant I'objet de travaux futurs.Afin de mettre en évidence les effets des frictions sur les marches du crédit et du travail, je soumets les quatre versions estimées du modèle à plusieurs exercices: une analyse en contributions des chocs structurels pendant la crise. L'évaluation de différentes règles de politique monétaire, la simulation contrefactuelle de la crise sous l'hypothèse d'un régime de change flexible entre la France et le reste de la zone euro et, enfin. la simulation de variante de TVA sociale
Thanks to their internal consistency. DSGE models, built on microecoc behavor, have become prevalenl for business cycle and policy analysis in institutions. The recent crisis and governments' concern about persistent unemployment advocate for mechanism, capturing imperfect adjustments in credit and labor markets. However, popular models such as the one of Smets and Wouters (2003-2007), although unsophisticated in their representation of these markets, are able to replicate the data as well as usual econometric tools. It is thus necessary to question the benefits of including these frictions in theoretical models for operational use.ln this thesis, I address this issue and show that microfounded mechanisms specifiç to labor and credit markets can significantly alter the conclusions based on the use of an estimated DSGE model, fom both a positive and a normative perspective.For this purpose, I build a two-country model of France and the rest of the euro area with exogenous rest of the world variables, and estimate it with and without these two frictions using Bayesian techniques. By contrast with existing models, I propose two improvements of the representation of labor markets. First, following Pissarides (2009), only wages in new jobs are negotiated by firms and workers, engendering stickiness in the average real wage. Second, I develop a set of assumptions to make labor market participation endogenous and unemployment involuntary in the sense that the unemployed workers are worse-off that the employed ones. Yet, including this setup in the estimated model is left for future research.Using the four estimated versions of the model, I undertake a number of analyses to highlight the role of financial and labor market frictions : an historical shock decomposition of fluctuations during the crisis, the evaluation of several monetary policy rules, a counterfactual simulation of the crisis under the assumption of a flexible exchange rate regime between France and the rest of the euro area and, lastly, the simulation of social VAT scenarios
APA, Harvard, Vancouver, ISO, and other styles
More sources
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography