To see the other types of publications on this topic, follow the link: Estimateur maximum de vraisemblance.

Dissertations / Theses on the topic 'Estimateur maximum de vraisemblance'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Estimateur maximum de vraisemblance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Detais, Amélie. "Maximum de vraisemblance et moindre carrés pénalisés dans des modèles de durée de vie censurées." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/820/.

Full text
Abstract:
L'analyse de durées de vie censurées est utilisée dans des domaines d'application variés et différentes possibilités ont été proposées pour la modélisation de telles données. Nous nous intéressons dans cette thèse à deux types de modélisation différents, le modèle de Cox stratifié avec indicateurs de strates aléatoirement manquants et le modèle de régression linéaire censuré à droite. Nous proposons des méthodes d'estimation des paramètres et établissons les propriétés asymptotiques des estimateurs obtenus dans chacun de ces modèles. Dans un premier temps, nous considérons une généralisation du modèle de Cox qui permet à différents groupes de la population, appelés strates, de posséder des fonctions d'intensité de base différentes tandis que la valeur du paramètre de régression est commune. Dans ce modèle à intensité proportionnelle stratifié, nous nous intéressons à l'estimation des paramètres lorsque l'indicateur de strate est manquant pour certains individus de la population. Des estimateurs du maximum de vraisemblance non paramétrique pour les paramètres du modèle sont proposés et nous montrons leurs consistance et normalité asymptotique. L'efficacité du paramètre de régression est établie et des estimateurs consistants de sa variance asymptotique sont également obtenus. Pour l'évaluation des estimateurs du modèle, nous proposons l'utilisation de l'algorithme Espérance-Maximisation et le développons dans ce cas particulier. Dans un second temps, nous nous intéressons au modèle de régression linéaire lorsque la donnée réponse est censurée aléatoirement à droite. Nous introduisons un nouvel estimateur du paramètre de régression minimisant un critère des moindres carrés pénalisé et pondéré par des poids de Kaplan-Meier. Des résultats de consistance et normalité asymptotique sont obtenus et une étude de simulations est effectuée pour illustrer les propriétés de cet estimateur de type LASSO. La méthode bootstrap est utilisée pour l'estimation de la variance asymptotique
Life data analysis is used in various application fields. Different methods have been proposed for modelling such data. In this thesis, we are interested in two distinct modelisation types, the stratified Cox model with randomly missing strata indicators and the right-censored linear regression model. We propose methods for estimating the parameters and establish the asymptotic properties of the obtained estimators in each of these models. First, we consider a generalization of the Cox model, allowing different groups, named strata, of the population to have distinct baseline intensity functions, whereas the regression parameter is shared by all the strata. In this stratified proportional intensity model, we are interested in the parameters estimation when the strata indicator is missing for some of the population individuals. Nonparametric maximum likelihood estimators are proposed for the model parameters and their consistency and asymptotic normality are established. We show the efficiency of the regression parameter and obtain consistent estimators of its variance. The Expectation-Maximization algorithm is proposed and developed for the evaluation of the estimators of the model parameters. Second, we are interested in the regression linear model when the response data is randomly right-censored. We introduce a new estimator of the regression parameter, which minimizes a Kaplan-Meier-weighted penalized least squares criterion. Results of consistency and asymptotic normality are obtained and a simulation study is conducted in order to investigate the small sample properties of this LASSO-type estimator. The bootstrap method is used for the estimation of the asymptotic variance
APA, Harvard, Vancouver, ISO, and other styles
2

Henkouche, Meriem. "Estimateurs du maximum de vraisemblance dans des processus autorégressifs non-linéaires." Toulouse 3, 1989. http://www.theses.fr/1989TOU30216.

Full text
Abstract:
Cette these est constituee de quatre parties: la premiere est consacree aux proprietes d'ergodicite du processus autoregressif non lineaire. Dans la deuxieme partie on etudie la consistance, la normalite asymptotique de la suite des estimateurs du maximum de vraisemblance; les resultats se deduisent en eprouvant la methode d'ibragimov. On y etablit une inegalite de grande deviation. Dans la troisieme partie on s'interesse au theoreme central limite pour des variables aleatoires harris recurrentes pour lesquelles la condition de cramer n'est pas satisfaite; on demontre que le reste de convergence est de l'ordre de 1/n. Dans la derniere partie, une vitesse de convergence en loi de l'estimateur du maximum de vraisemblance de l'ordre de 1/n est demontree en appliquant les resultats de la troisieme partie et des resultats d'analyse convexe
APA, Harvard, Vancouver, ISO, and other styles
3

Pieczynski, Wojciech. "Sur diverses applications de la décantation des lois de probabilité dans la théorie générale de l'estimation statistique." Paris 6, 1986. http://www.theses.fr/1986PA066064.

Full text
Abstract:
On cherche à construire des estimateurs convergents dans le cas des V. A. Non nécessairement indépendantes et équidistribuées. La méthode de la décantation est particulièrement adaptée car elle permet la construction explicite de tels estimateurs et donne des renseignements sur leur vitesse de convergence.
APA, Harvard, Vancouver, ISO, and other styles
4

Top, Alioune. "Estimation paramétriques et tests d'hypothèses pour des modèles avec plusieurs ruptures d'un processus de poisson." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1014/document.

Full text
Abstract:
Ce travail est consacré aux problèmes d’estimation paramétriques, aux tests d’hypothèses et aux tests d’ajustement pour les processus de Poisson non homogènes.Tout d’abord on a étudié deux modèles ayant chacun deux sauts localisés par un paramètre inconnu. Pour le premier modèle la somme des sauts est positive. Tandis que le second a un changement de régime et constant par morceaux. La somme de ses deux sauts est nulle. Ainsi pour chacun de ces modèles nous avons étudié les propriétés asymptotiques de l’estimateur bayésien (EB) et celui du maximum de vraisemblance(EMV). Nous avons montré la consistance, la convergence en distribution et la convergence des moments. En particulier l’estimateur bayésien est asymptotiquement efficace. Pour le second modèle nous avons aussi considéré le test d’une hypothèse simple contre une alternative unilatérale et nous avons décrit les propriétés asymptotiques (choix du seuil et puissance ) du test de Wald (WT)et du test du rapport de vraisemblance généralisé (GRLT).Les démonstrations sont basées sur la méthode d’Ibragimov et Khasminskii. Cette dernière repose sur la convergence faible du rapport de vraisemblance normalisé dans l’espace de Skorohod sous certains critères de tension des familles demesure correspondantes.Par des simulations numériques, les variances limites nous ont permis de conclure que l’EB est meilleur que celui du EMV. Lorsque la somme des sauts est nulle, nous avons développé une approche numérique pour le EMV.Ensuite on a considéré le problème de construction d’un test d’ajustement pour un modèle avec un paramètre d’échelle. On a montré que dans ce cas, le test de Cramer-von Mises est asymptotiquement ”parameter-free” et est consistent
This work is devoted to the parametric estimation, hypothesis testing and goodnessof-fit test problems for non homogenous Poisson processes. First we consider two models having two jumps located by an unknown parameter.For the first model the sum of jumps is positive. The second is a model of switching intensity, piecewise constant and the sum of jumps is zero. Thus, for each model, we studied the asymptotic properties of the Bayesian estimator (BE) andthe likelihood estimator (MLE). The consistency, the convergence in distribution and the convergence of moments are shown. In particular we show that the BE is asymptotically efficient. For the second model we also consider the problem of asimple hypothesis testing against a one- sided alternative. The asymptotic properties (choice of the threshold and power) of Wald test (WT) and the generalized likelihood ratio test (GRLT) are described.For the proofs we use the method of Ibragimov and Khasminskii. This method is based on the weak convergence of the normalized likelihood ratio in the Skorohod space under some tightness criterion of the corresponding families of measure.By numerical simulations, the limiting variances of estimators allows us to conclude that the BE outperforms the MLE. In the situation where the sum of jumps is zero, we developed a numerical approach to obtain the MLE.Then we consider the problem of construction of goodness-of-test for a model with scale parameter. We show that the Cram´er-von Mises type test is asymptotically parameter-free. It is also consistent
APA, Harvard, Vancouver, ISO, and other styles
5

Fallaha, Mouna. "Contribution à l'étude asymptotique des estimateurs du maximum de la pseudo-vraisemblance conditionnelle des paramètres de champs de Markov." Pau, 2001. http://www.theses.fr/2001PAUU3018.

Full text
Abstract:
Nous nous intéressons à l'étude des estimateurs du maximum de la pseudo-vraisemblance conditionnelle de paramètres de champs de Gibbs markoviens. Le premier chapitre est consacre à une présentation de champs de Gibbs et de Markov. Puis nous donnons quelques méthodes d'estimations des paramètres de ces champs, ainsi que quelques méthodes de reconstruction d'image à partir des observations données. Dans le chapitre 2, nous présentons une revue d'une part sur les théorèmes de la limite centrale des champs aléatoires sur un réseau et d'autre part sur les propriétés asymptotiques des estimateurs de paramètres de champs de Gibbs markoviens. Dans le chapitre 3, on étudie la consistance et la normalité asymptotique des estimateurs du maximum de la pseudo-vraisemblance conditionnelle de paramètres de champs de Gibbs markoviens et stationnaires. Deux cas sont considérés, celui ou l'énergie dépend linéairement des paramètres, puis celui ou la dépendance est non-linéaire. Pour obtenir la normalité asymptotique de ces estimateurs, nous adoptons deux nouvelles techniques d'approximation par des martingales pour les champs aléatoires. Dans le dernier chapitre, nous mettons en oeuvre des simulations numériques qui ont pour but de vérifier les résultats théoriques des propriétés asymptotiques des estimateurs du maximum de la pseudo-vraisemblance conditionnelle, nous calculons aussi les variances asymptotiques approchées de ces estimateurs.
APA, Harvard, Vancouver, ISO, and other styles
6

Cai, Chunhao. "Analyse statistique de quelques modèles de processus de type fractionnaire." Thesis, Le Mans, 2014. http://www.theses.fr/2014LEMA1030/document.

Full text
Abstract:
Cette thèse porte sur l’analyse statistique de quelques modèles de processus stochastiques gouvernés par des bruits de type fractionnaire, en temps discret ou continu.Dans le Chapitre 1, nous étudions le problème d’estimation par maximum de vraisemblance (EMV) des paramètres d’un processus autorégressif d’ordre p (AR(p)) dirigé par un bruit gaussien stationnaire, qui peut être à longue mémoire commele bruit gaussien fractionnaire. Nous donnons une formule explicite pour l’EMV et nous analysons ses propriétés asymptotiques. En fait, dans notre modèle la fonction de covariance du bruit est supposée connue, mais le comportement asymptotique de l’estimateur (vitesse de convergence, information de Fisher) n’en dépend pas.Le Chapitre 2 est consacré à la détermination de l’entrée optimale (d’un point de vue asymptotique) pour l’estimation du paramètre de dérive dans un processus d’Ornstein-Uhlenbeck fractionnaire partiellement observé mais contrôlé. Nous exposons un principe de séparation qui nous permet d’atteindre cet objectif. Les propriétés asymptotiques de l’EMV sont démontrées en utilisant le programme d’Ibragimov-Khasminskii et le calcul de transformées de Laplace d’une fonctionnellequadratique du processus.Dans le Chapitre 3, nous présentons une nouvelle approche pour étudier les propriétés du mouvement brownien fractionnaire mélangé et de modèles connexes, basée sur la théorie du filtrage des processus gaussiens. Les résultats mettent en lumière la structure de semimartingale et mènent à un certain nombre de propriétés d’absolue continuité utiles. Nous établissons l’équivalence des mesures induites par le mouvement brownien fractionnaire mélangé avec une dérive stochastique, et en déduisons l’expression correspondante de la dérivée de Radon-Nikodym. Pour un indice de Hurst H > 3=4, nous obtenons une représentation du mouvement brownien fractionnaire mélangé comme processus de type diffusion dans sa filtration naturelle et en déduisons une formule de la dérivée de Radon-Nikodym par rapport à la mesurede Wiener. Pour H < 1=4, nous montrons l’équivalence de la mesure avec celle la composante fractionnaire et obtenons une formule pour la densité correspondante. Un domaine d’application potentielle est l’analyse statistique des modèles gouvernés par des bruits fractionnaires mélangés. A titre d’exemple, nous considérons le modèle de régression linéaire de base et montrons comment définir l’EMV et étudié son comportement asymptotique
This thesis focuses on the statistical analysis of some models of stochastic processes generated by fractional noise in discrete or continuous time.In Chapter 1, we study the problem of parameter estimation by maximum likelihood (MLE) for an autoregressive process of order p (AR (p)) generated by a stationary Gaussian noise, which can have long memory as the fractional Gaussiannoise. We exhibit an explicit formula for the MLE and we analyze its asymptotic properties. Actually in our model the covariance function of the noise is assumed to be known but the asymptotic behavior of the estimator ( rate of convergence, Fisher information) does not depend on it.Chapter 2 is devoted to the determination of the asymptotical optimal input for the estimation of the drift parameter in a partially observed but controlled fractional Ornstein-Uhlenbeck process. We expose a separation principle that allows us toreach this goal. Large sample asymptotical properties of the MLE are deduced using the Ibragimov-Khasminskii program and Laplace transform computations for quadratic functionals of the process.In Chapter 3, we present a new approach to study the properties of mixed fractional Brownian motion (fBm) and related models, based on the filtering theory of Gaussian processes. The results shed light on the semimartingale structure andproperties lead to a number of useful absolute continuity relations. We establish equivalence of the measures, induced by the mixed fBm with stochastic drifts, and derive the corresponding expression for the Radon-Nikodym derivative. For theHurst index H > 3=4 we obtain a representation of the mixed fBm as a diffusion type process in its own filtration and derive a formula for the Radon-Nikodym derivative with respect to the Wiener measure. For H < 1=4, we prove equivalenceto the fractional component and obtain a formula for the corresponding derivative. An area of potential applications is statistical analysis of models, driven by mixed fractional noises. As an example we consider only the basic linear regression setting and show how the MLE can be defined and studied in the large sample asymptotic regime
APA, Harvard, Vancouver, ISO, and other styles
7

Rey, Clément. "Étude et modélisation des équations différentielles stochastiques." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1177/document.

Full text
Abstract:
Durant les dernières décennies, l'essor des moyens technologiques et particulièrement informatiques a permis l'émergence de la mise en œuvre de méthodes numériques pour l'approximation d'Equations Différentielles Stochastiques (EDS) ainsi que pour l'estimation de leurs paramètres. Cette thèse aborde ces deux aspects et s'intéresse plus spécifiquement à l'efficacité de ces méthodes. La première partie sera consacrée à l'approximation d'EDS par schéma numérique tandis que la deuxième partie traite l'estimation de paramètres. Dans un premier temps, nous étudions des schémas d'approximation pour les EDSs. On suppose que ces schémas sont définis sur une grille de temps de taille $n$. On dira que le schéma $X^n$ converge faiblement vers la diffusion $X$ avec ordre $h in mathbb{N}$ si pour tout $T>0$, $vert mathbb{E}[f(X_T)-f(X_T^n)] vertleqslant C_f /n^h$. Jusqu'à maintenant, sauf dans certains cas particulier (schémas d'Euler et de Ninomiya Victoir), les recherches sur le sujet imposent que $C_f$ dépende de la norme infini de $f$ mais aussi de ses dérivées. En d'autres termes $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Notre objectif est de montrer que si le schéma converge faiblement avec ordre $h$ pour un tel $C_f$, alors, sous des hypothèses de non dégénérescence et de régularité des coefficients, on peut obtenir le même résultat avec $C_f=C Vert f Vert_{infty}$. Ainsi, on prouve qu'il est possible d'estimer $mathbb{E}[f(X_T)]$ pour $f$ mesurable et bornée. On dit alors que le schéma converge en variation totale vers la diffusion avec ordre $h$. On prouve aussi qu'il est possible d'approximer la densité de $X_T$ et ses dérivées par celle $X_T^n$. Afin d'obtenir ce résultat, nous emploierons une méthode de calcul de Malliavin adaptatif basée sur les variables aléatoires utilisées dans le schéma. L'intérêt de notre approche repose sur le fait que l'on ne traite pas le cas d'un schéma particulier. Ainsi notre résultat s'applique aussi bien aux schémas d'Euler ($h=1$) que de Ninomiya Victoir ($h=2$) mais aussi à un ensemble générique de schémas. De plus les variables aléatoires utilisées dans le schéma n'ont pas de lois de probabilité imposées mais appartiennent à un ensemble de lois ce qui conduit à considérer notre résultat comme un principe d'invariance. On illustrera également ce résultat dans le cas d'un schéma d'ordre 3 pour les EDSs unidimensionnelles. La deuxième partie de cette thèse traite le sujet de l'estimation des paramètres d'une EDS. Ici, on va se placer dans le cas particulier de l'Estimateur du Maximum de Vraisemblance (EMV) des paramètres qui apparaissent dans le modèle matriciel de Wishart. Ce processus est la version multi-dimensionnelle du processus de Cox Ingersoll Ross (CIR) et a pour particularité la présence de la fonction racine carrée dans le coefficient de diffusion. Ainsi ce modèle permet de généraliser le modèle d'Heston au cas d'une covariance locale. Dans cette thèse nous construisons l'EMV des paramètres du Wishart. On donne également la vitesse de convergence et la loi limite pour le cas ergodique ainsi que pour certains cas non ergodiques. Afin de prouver ces convergences, nous emploierons diverses méthodes, en l'occurrence : les théorèmes ergodiques, des méthodes de changement de temps, ou l'étude de la transformée de Laplace jointe du Wishart et de sa moyenne. De plus, dans dernière cette étude, on étend le domaine de définition de cette transformée jointe
The development of technology and computer science in the last decades, has led the emergence of numerical methods for the approximation of Stochastic Differential Equations (SDE) and for the estimation of their parameters. This thesis treats both of these two aspects. In particular, we study the effectiveness of those methods. The first part will be devoted to SDE's approximation by numerical schemes while the second part will deal with the estimation of the parameters of the Wishart process. First, we focus on approximation schemes for SDE's. We will treat schemes which are defined on a time grid with size $n$. We say that the scheme $ X^n $ converges weakly to the diffusion $ X $, with order $ h in mathbb{N} $, if for every $ T> 0 $, $ vert mathbb{E} [f (X_T) -f (X_T^n)]vert leqslant C_f / h^n $. Until now, except in some particular cases (Euler and Victoir Ninomiya schemes), researches on this topic require that $ C_f$ depends on the supremum norm of $ f $ as well as its derivatives. In other words $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Our goal is to show that, if the scheme converges weakly with order $ h $ for such $C_f$, then, under non degeneracy and regularity assumptions, we can obtain the same result with $ C_f=C Vert f Vert_{infty}$. We are thus able to estimate $mathbb{E} [f (X_T)]$ for a bounded and measurable function $f$. We will say that the scheme converges for the total variation distance, with rate $h$. We will also prove that the density of $X^n_T$ and its derivatives converge toward the ones of $X_T$. The proof of those results relies on a variant of the Malliavin calculus based on the noise of the random variable involved in the scheme. The great benefit of our approach is that it does not treat the case of a particular scheme and it can be used for many schemes. For instance, our result applies to both Euler $(h = 1)$ and Ninomiya Victoir $(h = 2)$ schemes. Furthermore, the random variables used in this set of schemes do not have a particular distribution law but belong to a set of laws. This leads to consider our result as an invariance principle as well. Finally, we will also illustrate this result for a third weak order scheme for one dimensional SDE's. The second part of this thesis deals with the topic of SDE's parameter estimation. More particularly, we will study the Maximum Likelihood Estimator (MLE) of the parameters that appear in the matrix model of Wishart. This process is the multi-dimensional version of the Cox Ingersoll Ross (CIR) process. Its specificity relies on the square root term which appears in the diffusion coefficient. Using those processes, it is possible to generalize the Heston model for the case of a local covariance. This thesis provides the calculation of the EMV of the parameters of the Wishart process. It also gives the speed of convergence and the limit laws for the ergodic cases and for some non-ergodic case. In order to obtain those results, we will use various methods, namely: the ergodic theorems, time change methods or the study of the joint Laplace transform of the Wishart process together with its average process. Moreover, in this latter study, we extend the domain of definition of this joint Laplace transform
APA, Harvard, Vancouver, ISO, and other styles
8

Du, Roy de Chaumaray Marie. "Estimation statistique des paramètres pour les processus de Cox-Ingersoll-Ross et de Heston." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0299/document.

Full text
Abstract:
Les processus de Cox-Ingersoll-Ross et de Heston jouent un rôle prépondérant dans la modélisation mathématique des cours d’actifs financiers ou des taux d’intérêts. Dans cette thèse, on s’intéresse à l’estimation de leurs paramètres à partir de l’observation en temps continu d’une de leurs trajectoires. Dans un premier temps, on se place dans le cas où le processus CIR est géométriquement ergodique et ne s’annule pas. On établit alors un principe de grandes déviationspour l’estimateur du maximum de vraisemblance du couple des paramètres de dimension et de dérive d’un processus CIR. On établit ensuite un principe de déviations modérées pour l’estimateur du maximum de vraisemblance des quatre paramètres d’un processus de Heston, ainsi que pour l’estimateur du maximum de vraisemblance du couple des paramètres d’un processus CIR. Contrairement à ce qui a été fait jusqu’ici dans la littérature,les paramètres sont estimés simultanément. Dans un second temps, on ne se restreint plus au cas où le processus CIR n’atteint jamais zéro et on propose un nouvel estimateur des moindres carrés pondérés pour le quadruplet des paramètres d’un processus de Heston.On établit sa consistance forte et sa normalité asymptotique, et on illustre numériquement ses bonnes performances
The Cox-Ingersoll-Ross process and the Heston process are widely used in financial mathematics for pricing and hedging or to model interest rates. In this thesis, we focus on estimating their parameters using continuous-time observations. Firstly, we restrict ourselves to the most tractable situation where the CIR processis geometrically ergodic and does not vanish. We establish a large deviations principle for the maximum likelihood estimator of the couple of dimensionnal and drift parameters of a CIR process. Then we establish a moderate deviations principle for the maximum likelihood estimator of the four parameters of an Heston process, as well as for the maximum likelihood estimator of the couple of parameters of a CIR process. In contrast to the previous literature, parameters are estimated simultaneously. Secondly, we do not restrict ourselves anymore to the case where the CIR process never reaches zero and we introduce a new weighted least squares estimator for the quadruplet of parameters of an Heston process. We establish its strong consitency and asymptotic normality, and we illustrate numerically its good performances
APA, Harvard, Vancouver, ISO, and other styles
9

Zaïdi, Abdelhamid. "Séparation aveugle d'un mélange instantané de sources autorégressives gaussiennes par la méthode du maximum de vraissemblance exact." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10233.

Full text
Abstract:
Cette these est consacree a l'etude du probleme de la separation aveugle d'un melange instantane de sources gaussiennes autoregressives, sans bruit additif, par la methode du maximum de vraisemblance exact. La maximisation de la vraisemblance est decomposee, par relaxation, en deux sous-problemes d'optimisation, egalement traites par des techniques de relaxation. Le premier consiste en l'estimation de la matrice de separation a structure autoregressive des sources fixee. Le second est d'estimer cette structure lorsque la matrice de separation est fixee. Le premier probleme est equivalent a la maximisation du determinant de la matrice de separation sous contraintes non lineaires. Nous donnons un algorithme de calcul de la solution de ce probleme pour lequel nous precisons les conditions de convergence. Nous montrons l'existence de l'estimateur du maximum de vraisemblance dont nous prouvons la consistance. Nous determinons egalement la matrice d'information de fisher relative au parametre global et nous proposons un indice pour mesurer les performances des methodes de separation. Puis nous analysons, par simulation, les performances de l'estimateur ainsi defini et nous montrons l'amelioration qu'il apporte a la procedure de quasi-maximum de vraisemblance ainsi qu'aux autres methodes du second ordre.
APA, Harvard, Vancouver, ISO, and other styles
10

Abeida, Habti. "Imagerie d'antenne pour signaux non circulaires : bornes de performance et algorithmes." Paris 6, 2006. http://www.theses.fr/2006PA066330.

Full text
Abstract:
La conception et l'étude des performances statistiques d'algorithmes du second ordre de type sous espace dans le cas de sources complexes non circulaires affectées par un bruit additif blanc uniforme gaussien complexe circulaire. * le calcul d'expressions analytiques interprétables de la borne de Cramer Rao stochastique du paramètre de DOA seul de signaux gaussiens complexes non circulaires sous différents modèles de corrélations spatiales de bruits gaussiens complexes circulaires. * le calcul d'expressions analytiques interprétables de la borne de Cramer Rao stochastique du paramètre de DOA seul pour des signaux de modulations BPSK, MSK et QPSK dans le cas de bruit additif blanc uniforme ou non uniforme gaussien complexe circulaire. Des expressions de limites de résolution ont été comparées à celles du cas gaussien. * l'extension des résultats standards sur l'estimateur asymptotiquement de variance minimale (AMV) au cas singulier (première matrice de covariance singulière). Application à des statistiques composées de différents projecteurs orthogonaux estimés associés à différents sous espaces bruit. * l'efficacité enfin des estimateurs AMV basés sur des statistiques formées par des projecteurs orthogonaux estimés associés à des sous espaces du modèle gaussien général où le paramètre est identifiable par différents projecteurs orthogonaux.
APA, Harvard, Vancouver, ISO, and other styles
11

Gassem, Anis. "Test d'ajustement d'un processus de diffusion ergodique à changement de régime." Phd thesis, Université du Maine, 2010. http://tel.archives-ouvertes.fr/tel-00543318.

Full text
Abstract:
Nous considérons les tests d'ajustement de type Cramér-von Mises pour tester l'hypothèse que le processus de diffusion observé est un "switching diffusion", c'est-à-dire un processus de diffusion à changement de régime dont la dérive est de type signe. Ces tests sont basés sur la fonction de répartition empirique et la densité empirique. Il est montré que les distributions limites des tests statistiques proposés sont définis par des fonctionnelles de type intégrale des processus Gaussiens continus. Nous établissons les développements de Karhunen-Loève des processus limites correspondants. Ces développements nous permettent de simplifier le problème du calcul des seuils. Nous étudions le comportement de ces statistiques sous les alternatives et nous montrons que ces tests sont consistants. Pour traiter les hypothèses de base composite nous avons besoin de connaître le comportement asymptotique des estimateurs statistiques des paramètres inconnus, c'est pourquoi nous considérons le problème de l'estimation des paramètres pour le processus de diffusion à changement de régime. Nous supposons que le paramètre inconnu est à deux dimensions et nous décrivons les propriétés asymptotiques de l'estimateur de maximum de vraisemblance et de l'estimateur bayésien dans ce cas. L'utilisation de ces estimateurs nous ramène à construire les tests de type Cramér-von Mises correspondants et à étudier leurs distributions limites. Enfin, nous considérons deux tests de type Cramér-von Mises de processus de diffusion ergodiques dans le cas général. Il est montré que pour le choix de certaines des fonctions de poids ces tests sont asymptotiquement " distribution-free ". Pour certains cas particuliers, nous établissons les expressions explicites des distributions limites de ces statistiques par le calcul direct de la transformée de Laplace.
APA, Harvard, Vancouver, ISO, and other styles
12

Kengne, William Charky. "Détection des ruptures dans les processus causaux : application aux débits du bassin versant de la Sanaga au Cameroun." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2012. http://tel.archives-ouvertes.fr/tel-00695364.

Full text
Abstract:
Cette thèse porte sur la détection de rupture dans les processus causaux avec application aux débits du bassin versant de la Sanaga. Nous considérons une classe semi-paramétrique de modèles causaux contenant des processus classique tel que l'AR, ARCH, TARCH. Le chapitre 1 est une synthèse des travaux. Il présente le modèle avec des exemples et donne les principaux résultats obtenus aux chapitres 2, 3,4. Le chapitre 2 porte sur la détection off-line de ruptures multiples en utilisant un critère de vraisemblance pénalisée. Le nombre de rupture, les instants de rupture et les paramètres du modèle sur chaque segment sont inconnus. Ils sont estimés par maximisation d'un contraste construit à partir des quasi-vraisemblances et pénalisées par le nombre de ruptures. Nous donnons les choix possibles du paramètre de pénalité et montrons que les estimateurs des paramètres du modèle sont consistants avec des vitesses optimales. Pour des applications pratiques, un estimateur adaptatif du paramètre de pénalité basé sur l'heuristique de la pente est proposé. La programmation dynamique est utilisée pour réduire le coût numérique des opérations, celui-ci est désormais de l'ordre de $\mathcal{O}(n^2)$. Des comparaisons faites avec des résultats existants montrent que notre procédure est plus stable et plus robuste. Le chapitre 3 porte toujours sur la détection off-line de ruptures multiples, mais cette fois en utilisant une procédure de test. Nous avons construit une nouvelle procédure qui, combinée avec un algorithme de type ICSS (Itereted Cumulative Sums of Squares) permet de détecter des ruptures multiples dans des processus causaux. Le test est consistant en puissance et la comparaison avec des procédures existantes montre qu'il est plus puissant. Le chapitre 4 étudie la détection des ruptures on-line dans la classe de modèle considéré aux chapitres 2 et 3. Une procédure basée sur la quasi-vraisemblance des observations a été développée. La procédure est consistante en puissance et le délai de détection est meilleur que celui des procédures existantes. Le chapitre 5 est consacré aux applications aux débits du bassin versant de la Sanaga, les procédures décrites aux chapitres 2 et 3 ont été utilisées en appliquant un modèle ARMA sur les données désaisonnalisées et standardisées. Ces deux procédures ont détecté des ruptures qui sont "proches".
APA, Harvard, Vancouver, ISO, and other styles
13

Telmoudi, Fedya. "Estimation and misspecification Risks in VaR estimation." Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30061/document.

Full text
Abstract:
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation
In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation
APA, Harvard, Vancouver, ISO, and other styles
14

Rachedi, Fatiha. "Estimateurs cribles des processus autorégressifs Banachiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00012194.

Full text
Abstract:
Le modèle autorégressif dans un espace de Banach (ARB) permet
de représenter des processus à temps continu. Nous considérons
l'estimation de l'opérateur d'autocorrelation d'un ARB(1). Les
méthodes classiques d'estimation (maximum de vraisemblance et
moindres carrées) s'avèrent inadéquates quand l'espace
paramétrique est de dimension infinie, Grenander (1983} a proposé
d'estimer le paramètre sur un sous espace de dimension en général
finie m, puis d'étudier la consistance de cet estimateur lorsque
la dimension m tend vers l'infini avec le nombres d'observations
à vitesse convenable. Cette méthode est dite méthode des cribles.
Notons que plus généralement il serait possible d'utiliser la
méthode des f-divergences. Nous définissons la méthode des
moindres carrées comme problème d'optimisation dans un espace de
Banach dans le cas ou l'opérateur est p-sommable,
p>1. Nous montrons la convergence de l'estimateur
crible et sa normalité asymptotique dans le cas d'un opérateur est
strictement -intégral. Nous utilisons la représentation duale
de la f-divergence pour définir l'estimateur du minimum des
f-divergences. Nous nous limitons ici à l'étude de
l'estimateur dit du minimum de KL-divergence (divergence de
Kullback-Leibler). Cet estimateur est celui
du maximum de vraisemblance. Nous montrons par la suite qu'il
converge presque surement vers la vraie valeur du paramètre
pour la norme des opérateurs p-sommables. La démonstration est
basée sur les techniques de Geman et Hwang (1982), utilisées pour
des observations indépendantes et identiquement distribuées, qu'on
a adapté au cas autorégressif.
APA, Harvard, Vancouver, ISO, and other styles
15

Ren, Chengfang. "Caractérisation des performances minimales d'estimation pour des modèles d'observations non-standards." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112167/document.

Full text
Abstract:
Dans le contexte de l'estimation paramétrique, les performances d'un estimateur peuvent être caractérisées, entre autre, par son erreur quadratique moyenne (EQM) et sa résolution limite. La première quantifie la précision des valeurs estimées et la seconde définit la capacité de l'estimateur à séparer plusieurs paramètres. Cette thèse s'intéresse d'abord à la prédiction de l'EQM "optimale" à l'aide des bornes inférieures pour des problèmes d'estimation simultanée de paramètres aléatoires et non-aléatoires (estimation hybride), puis à l'extension des bornes de Cramér-Rao pour des modèles d'observation moins standards. Enfin, la caractérisation des estimateurs en termes de résolution limite est également étudiée. Ce manuscrit est donc divisé en trois parties :Premièrement, nous complétons les résultats de littérature sur les bornes hybrides en utilisant deux bornes bayésiennes : la borne de Weiss-Weinstein et une forme particulière de la famille de bornes de Ziv-Zakaï. Nous montrons que ces bornes "étendues" sont plus précises pour la prédiction de l'EQM optimale par rapport à celles existantes dans la littérature.Deuxièmement, nous proposons des bornes de type Cramér-Rao pour des contextes d'estimation moins usuels, c'est-à-dire : (i) Lorsque les paramètres non-aléatoires sont soumis à des contraintes d'égalité linéaires ou non-linéaires (estimation sous contraintes). (ii) Pour des problèmes de filtrage à temps discret où l'évolution des états (paramètres) est régit par une chaîne de Markov. (iii) Lorsque la loi des observations est différente de la distribution réelle des données.Enfin, nous étudions la résolution et la précision des estimateurs en proposant un critère basé directement sur la distribution des estimées. Cette approche est une extension des travaux de Oh et Kashyap et de Clark pour des problèmes d'estimation de paramètres multidimensionnels
In the parametric estimation context, estimators performances can be characterized, inter alia, by the mean square error and the resolution limit. The first quantities the accuracy of estimated values and the second defines the ability of the estimator to allow a correct resolvability. This thesis deals first with the prediction the "optimal" MSE by using lower bounds in the hybrid estimation context (i.e. when the parameter vector contains both random and non-random parameters), second with the extension of Cramér-Rao bounds for non-standard estimation problems and finally to the characterization of estimators resolution. This manuscript is then divided into three parts :First, we fill some lacks of hybrid lower bound on the MSE by using two existing Bayesian lower bounds: the Weiss-Weinstein bound and a particular form of Ziv-Zakai family lower bounds. We show that these extended lower bounds are tighter than the existing hybrid lower bounds in order to predict the optimal MSE.Second, we extend Cramer-Rao lower bounds for uncommon estimation contexts. Precisely: (i) Where the non-random parameters are subject to equality constraints (linear or nonlinear). (ii) For discrete-time filtering problems when the evolution of states are defined by a Markov chain. (iii) When the observation model differs to the real data distribution.Finally, we study the resolution of the estimators when their probability distributions are known. This approach is an extension of the work of Oh and Kashyap and the work of Clark to multi-dimensional parameters estimation problems
APA, Harvard, Vancouver, ISO, and other styles
16

Do, Van-Cuong. "Analyse statistique de processus stochastiques : application sur des données d’orages." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS526/document.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent l'analyse statistique de cas particuliers du processus de Cox. Dans une première partie, nous proposons une synthèse des résultats existants sur le processus power-law (processus d'intensité puissance), synthèse qui ne peut être exhaustive étant donné la popularité de ce processus. Nous considérons une approche bayésienne pour l'inférence des paramètres de ce processus qui nous conduit à introduire et à étudier en détails une distribution que nous appelons loi H-B. Cette loi est une loi conjuguée. Nous proposons des stratégies d'élicitation des hyperparamètres et étudions le comportement des estimateurs de Bayes par des simulations. Dans un deuxième temps, nous étendons ces travaux au cas du processus d’intensité exponentielle (exponential-law process). De la même façon, nous définissons et étudions une loi conjuguée pour l'analyse bayésienne de ce dernier. Dans la dernière partie de la thèse, nous considérons un processus auto-excité qui intègre une covariable. Ce travail est motivé, à l'origine, par un problème de fiabilité qui concerne des données de défaillances de matériels exposés à des environnements sévères. Les résultats sont illustrés par des applications sur des données d'activités orageuses collectées dans deux départements français. Enfin, nous donnons quelques directions de travail et perspectives de futurs développements de l'ensemble de nos travaux
The work presented in this PhD dissertation concerns the statistical analysis of some particular cases of the Cox process. In a first part, we study the power-law process (PLP). Since the literature for the PLP is abundant, we suggest a state-of-art for the process. We consider the classical approach and recall some important properties of the maximum likelihood estimators. Then we investigate a Bayesian approach with noninformative priors and conjugate priors considering different parametrizations and scenarios of prior guesses. That leads us to define a family of distributions that we name H-B distribution as the natural conjugate priors for the PLP. Bayesian analysis with the conjugate priors are conducted via a simulation study and an application on real data. In a second part, we study the exponential-law process (ELP). We review the maximum likelihood techniques. For Bayesian analysis of the ELP, we define conjugate priors: the modified- Gumbel distribution and Gamma-modified-Gumbel distribution. We conduct a simulation study to compare maximum likelihood estimates and Bayesian estimates. In the third part, we investigate self-exciting point processes and we integrate a power-law covariate model to this intensity of this process. A maximum likelihood procedure for the model is proposed and the Bayesian approach is suggested. Lastly, we present an application on thunderstorm data collected in two French regions. We consider a strategy to define a thunderstorm as a temporal process associated with the charges in a particular location. Some selected thunderstorms are analyzed. We propose a reduced maximum likelihood procedure to estimate the parameters of the Hawkes process. Then we fit some thunderstorms to the power-law covariate self-exciting point process taking into account the associated charges. In conclusion, we give some perspectives for further work
APA, Harvard, Vancouver, ISO, and other styles
17

Poignard, Benjamin. "Approches nouvelles des modèles GARCH multivariés en grande dimension." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED010/document.

Full text
Abstract:
Ce document traite du problème de la grande dimension dans des processus GARCH multivariés. L'auteur propose une nouvelle dynamique vine-GARCH pour des processus de corrélation paramétrisés par un graphe non dirigé appelé "vine". Cette approche génère directement des matrices définies-positives et encourage la parcimonie. Après avoir établi des résultats d'existence et d'unicité pour les solutions stationnaires du modèle vine-GARCH, l'auteur analyse les propriétés asymptotiques du modèle. Il propose ensuite un cadre général de M-estimateurs pénalisés pour des processus dépendants et se concentre sur les propriétés asymptotiques de l'estimateur "adaptive Sparse Group Lasso". La grande dimension est traitée en considérant le cas où le nombre de paramètres diverge avec la taille de l'échantillon. Les résultats asymptotiques sont illustrés par des expériences simulées. Enfin dans ce cadre l'auteur propose de générer la sparsité pour des dynamiques de matrices de variance covariance. Pour ce faire, la classe des modèles ARCH multivariés est utilisée et les processus correspondants à celle-ci sont estimés par moindres carrés ordinaires pénalisés
This document contributes to high-dimensional statistics for multivariate GARCH processes. First, the author proposes a new dynamic called vine-GARCH for correlation processes parameterized by an undirected graph called vine. The proposed approach directly specifies positive definite matrices and fosters parsimony. The author provides results for the existence and uniqueness of stationary solution of the vine-GARCH model and studies its asymptotic properties. He then proposes a general framework for penalized M-estimators with dependent processes and focuses on the asymptotic properties of the adaptive Sparse Group Lasso regularizer. The high-dimensionality setting is studied when considering a diverging number of parameters with the sample size. The asymptotic properties are illustrated through simulation experiments. Finally, the author proposes to foster sparsity for multivariate variance covariance matrix processes within the latter framework. To do so, the multivariate ARCH family is considered and the corresponding parameterizations are estimated thanks to penalized ordinary least square procedures
APA, Harvard, Vancouver, ISO, and other styles
18

Barbiero, Franck. "Antibrouillage de récepteur GNSS embarqué sur hélicoptère." Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0052.

Full text
Abstract:
En environnements hostiles, les signaux GNSS (Global Navigation Satellite System)peuvent être soumis à des risques de brouillages intentionnels. Basées sur un réseau d'antennes adaptatif, les solutions spatio-temporelles (STAP) ont déjà montré de bonnes performances de réjection des interférences. Toutefois, lorsque le module GNSS est placé sous les pales d'un hélicoptère, des effets non-stationnaires, appelés Rotor Blade Modulation (RBM), créés par les multiples réflexions du signal sur les pales du rotor, peuvent dégrader les techniques usuelles d’antibrouillage. Le signal utile GNSS n’est alors plus accessible. Le travail de la thèse consiste donc à élaborer un système de protection des signaux GNSS adapté à la RBM. Pour cela, un modèle innovant de multitrajets, adapté à ce type de phénomène, a été développé. La comparaison de simulations électromagnétiques représentatives et de mesures expérimentales sur hélicoptère EC-120 a permis de valider ce modèle. Celui-ci permet d'estimer, par maximum de vraisemblance, les paramètres de la contribution non-stationnaire du signal reçu. Enfin, l'association d'un algorithme de filtrage des multitrajets par projection oblique et d'un traitement STAP permet d'éliminer la contribution dynamique puis statique de l'interférence. Les simulations montrent que le signal utile GNSS est alors de nouveau exploitable
In hostile environments, Global Navigation Satellite System (GNSS) can be disturbed by intentional jamming. Using antenna arrays, space-time adaptive algorithm (STAP) isone of the most efficient methods to deal with these threats. However, when a GNSS receiver is placed near rotating bodies, non-stationary effects called Rotor Blade Modulation (RBM) are created by the multipaths on the blades of the helicopter. They can degrade significantly the anti-jamming system and the signal of interest could belost. The work of the thesis is, consequently, to develop a GNSS protection system adapted to the RBM. In this way, an innovative multipath model, adapted to this phenomenon, has been developed. The model is then confirmed by comparison with a symptotic electromagnetic simulations and experiments conducted on an EC-120helicopter. Using a Maximum Likelihood algorithm, the parameters of the non-stationary part of the received signal have been estimated. And finally, the RBM anti-jamming solution, combining oblique projection algorithm and academic STAP, can mitigate dynamic and static contributions of interferences. In the end, the navigation information is available again
APA, Harvard, Vancouver, ISO, and other styles
19

Stupfler, Gilles. "Un modèle de Markov caché en assurance et Estimation de frontière et de point terminal." Phd thesis, Université de Strasbourg, 2011. http://tel.archives-ouvertes.fr/tel-00638368.

Full text
Abstract:
Cette thèse est divisée en deux parties indépendantes. Dans une première partie, on introduit et on étudie un nouveau processus de pertes en assurance : c'est un triplet (J, N, S) où (J, N) est un processus de Poisson à modulation markovienne et S est un processus dont toutes les composantes sont des fonctions en escalier, croissantes en temps. Le processus S est supposé à accroissements indépendants conditionnellement au processus (J, N). En faisant une hypothèse paramétrique sur la loi de ses sauts, on démontre que l'estimateur du maximum de vraisemblance des paramètres du modèle est consistant. On donne un algorithme EM permettant de calculer en pratique cet estimateur : le procédé ainsi développé est utilisé sur des données réelles en assurance et ses performances sont évaluées sur simulations. Dans une seconde partie, on s'intéresse au problème de l'estimation du point terminal, supposé fini, d'une fonction de répartition F : étant donné un échantillon de variables aléatoires indépendantes identiquement distribuées de fonction de répartition F, on construit un estimateur du point terminal à droite de F en utilisant une méthode des moments d'ordre élevé. L'étude est scindée en deux cas : dans un premier temps, on suppose que les variables sont positives, puis on généralise la méthode au cas où elles sont de signe quelconque en proposant un autre estimateur. On étudie les propriétés asymptotiques de nos estimateurs, et leurs performances sont examinées sur simulations. On s'inspire ensuite des techniques développées pour construire un estimateur de la frontière du support d'un couple aléatoire. On étudie ses propriétés asymptotiques, et on le compare à des estimateurs classiques dans ce cadre.
APA, Harvard, Vancouver, ISO, and other styles
20

Gharbi, Zied. "Contribution à l’économétrie spatiale et l’analyse de données fonctionnelles." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1A012/document.

Full text
Abstract:
Ce mémoire de thèse touche deux champs de recherche importants en statistique inférentielle, notamment l’économétrie spatiale et l’analyse de données fonctionnelles. Plus précisément, nous nous sommes intéressés à l’analyse de données réelles spatiales ou spatio-fonctionnelles en étendant certaines méthodes inférentielles pour prendre en compte une éventuelle dépendance spatiale. Nous avons d’abord considéré l’estimation d’un modèle autorégressif spatiale (SAR) ayant une variable dépendante fonctionnelle et une variable réponse réelle à l’aide d’observations sur une unité géographique donnée. Il s’agit d’un modèle de régression avec la spécificité que chaque observation de la variable indépendante collectée dans un emplacement géographique dépend d’observations de la même variable dans des emplacements voisins. Cette relation entre voisins est généralement mesurée par une matrice carrée nommée matrice de pondération spatiale et qui mesure l’effet d’interaction entre les unités spatiales voisines. Cette matrice est supposée exogène c’est-à-dire la métrique utilisée pour la construire ne dépend pas des mesures de variables explicatives du modèle. L’apport de cette thèse sur ce modèle réside dans le fait que la variable explicative est de nature fonctionnelle, à valeurs dans un espace de dimension infinie. Notre méthodologie d’estimation est basée sur une réduction de la dimension de la variable explicative fonctionnelle, par l’analyse en composantes principales fonctionnelles suivie d’une maximisation de la vraisemblance tronquée du modèle. Des propriétés asymptotiques des estimateurs, des illustrations des performances des estimateurs via une étude de Monte Carlo et une application à des données réelles environnementales ont été considérées. Dans la deuxième contribution, nous reprenons le modèle SAR fonctionnel étudié dans la première partie en considérant une structure endogène de la matrice de pondération spatiale. Au lieu de se baser sur un critère géographique pour calculer les dépendances entre localisations voisines, nous calculons ces dernières via un processus endogène, c’est-à-dire qui dépend des variables à expliquées. Nous appliquons la même approche d’estimation à deux étapes décrite ci-dessus, nous étudions aussi les performances de l’estimateur proposé pour des échantillons à taille finie et discutons le cadre asymptotique. Dans la troisième partie de cette contribution, nous nous intéressons à l’hétéroscédasticité dans les modèles partiellement linéaires pour variables exogènes réelles et variable réponse binaire. Nous proposons un modèle Probit spatial contenant une partie non-paramétrique. La dépendance spatiale est introduite au niveau des erreurs (perturbations) du modèle considéré. L’estimation des parties paramétrique et non paramétrique du modèle est récursive et consiste à fixer d’abord les composants paramétriques et à estimer la partie non paramétrique à l’aide de la méthode de vraisemblance pondérée puis utiliser cette dernière estimation pour construire un profil de la vraisemblance pour estimer la partie paramétrique. La performance de la méthode proposée est étudiée via une étude Monte Carlo. La contribution finit par une étude empirique sur la relation entre la croissance économique et la qualité environnementale en Suède à l’aide d’outils de l’économétrie spatiale
This thesis covers two important fields of research in inferential statistics, namely spatial econometrics and functional data analysis. More precisely, we have focused on the analysis of real spatial or spatio-functional data by extending certain inferential methods to take into account a possible spatial dependence. We first considered the estimation of a spatial autoregressive model (SAR) with a functional dependent variable and a real response variable using observations on a given geographical unit. This is a regression model with the specificity that each observation of the independent variable collected in a geographical location depends on observations of the same variable in neighboring locations. This relationship between neighbors is generally measured by a square matrix called the spatial weighting matrix, which measures the interaction effect between neighboring spatial units. This matrix is assumed to be exogenous, i.e. the metric used to construct it does not depend on the explanatory variable. The contribution of this thesis to this model lies in the fact that the explanatory variable is of a functional nature, with values in a space of infinite dimension. Our estimation methodology is based on a dimension reduction of the functional explanatory variable through functional principal component analysis followed by maximization of the truncated likelihood of the model. Asymptotic properties of the estimators, illustrations of the performance of the estimators via a Monte Carlo study and an application to real environmental data were considered. In the second contribution, we use the functional SAR model studied in the first part by considering an endogenous structure of the spatial weighting matrix. Instead of using a geographical criterion to calculate the dependencies between neighboring locations, we calculate them via an endogenous process, i.e. one that depends on explanatory variables. We apply the same two-step estimation approach described above and study the performance of the proposed estimator for finite or infinite-tending samples. In the third part of this thesis we focus on heteroskedasticity in partially linear models for real exogenous variables and binary response variable. We propose a spatial Probit model containing a non-parametric part. Spatial dependence is introduced at the level of errors (perturbations) of the model considered. The estimation of the parametric and non-parametric parts of the model is recursive and consists of first setting the parametric parameters and estimating the non-parametric part using the weighted likelihood method and then using the latter estimate to construct a likelihood profile to estimate the parametric part. The performance of the proposed method is investigated via a Monte-Carlo study. An empirical study on the relationship between economic growth and environmental quality in Sweden using some spatial econometric tools finishes the document
APA, Harvard, Vancouver, ISO, and other styles
21

Motrunich, Anastasiia. "Estimation des paramètres pour les séquences de Markov avec application dans des problèmes médico-économiques." Thesis, Le Mans, 2015. http://www.theses.fr/2015LEMA1009/document.

Full text
Abstract:
Dans la première partie de cette thèse, nous considérons plusieurs problèmes d'estimation de paramètre de dimension finie pour les séquences de Markov dans l'asymptotique des grands échantillons. Le comportement asymptotique des estimateurs bayésiens et les estimateurs obtenus par la méthode des moments sont décrits. Nous montrons que sous les conditions de régularité ces estimateurs sont consistants et asymptotiquement normaux et que l'estimateur bayésien est asymptotiquement efficace. Les estimateur-processus du maximum de vraisemblance un-pas et deux-pas sont étudiés. Ces estimateurs nous permettent de construire des estimateurs asymptotiquement efficaces sur la base de certainsestimateurs préliminaires, par exemple, les estimateurs obtenus par la méthode des moments ou l'estimateur deBayes et la structure de l'estimateur du maximum de vraisemblance un-pas. Nous proposons notamment des processus autorégressifs non linéaires comme exemple et nous illustrons les propriétés de ces estimateurs à l'aide de simulations numériques. Dans la deuxième partie, nous donnons les applications de processus de Markov en économie de la santé. Nous comparons les modèles de Markov homogènes et non-homogènes pour l'analyse coût-efficacité de l'utilisation depansements transparents contenant un gel de gluconate de chlorhexidine par rapport aux pansements transparents standard. Le pansement antimicrobien protège les accès vasculaire centrale et réduit le risque de bactériémies liées aux cathéters. L'impact de l'approche de modélisation sur la décision d'adopter des pansements antimicrobiens pour les patients gravement malades est discuté
In the first part of this dissertation we consider several problems of finite-dimensional parameter estimation for Markov sequences in the asymptotics of large samples. The asymptotic behavior of the Bayesian estimators and the estimators of the method of moments are described. It is shown that under regularity conditions these estimators are consistent and asymptotically normal. We show that the Bayesian estimator is asymptotically efficient. The one-step and two-step maximum likelihood estimator-processes are studied. These estimators allow us to construct the asymptotically efficient estimators based on some preliminary estimators, say, the estimators of the method of moments or Bayes estimator and the one-step maximum likelihood estimator structure. We propose particular non-linear autoregressive processes as examples and we illustrate the properties of these estimators with the help of numerical simulations. In the second part we give theapplications of Markov processes in health economics. We compare homogeneous and non-homogeneous Markov models for cost-effectiveness analysis of routine use of transparent dressings containing a chlorhexidine gluconate gel pad versus standard transparent dressings. The antimicrobial dressing protects central vascular accesses reducing the risk of catheter-related bloodstream infections. The impact of the modeling approach on the decision of adopting antimicrobialdressings for critically-ill patients is discussed
APA, Harvard, Vancouver, ISO, and other styles
22

Graffigne, Christine. "Application des statistiques au traitement d'images." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375980109.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Leroy, Fanny. "Etude des délais de survenue des effets indésirables médicamenteux à partir des cas notifiés en pharmacovigilance : Problème de l'estimation d'une distribution en présence de données tronquées à droite." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01011262.

Full text
Abstract:
Ce travail de thèse porte sur l'estimation paramétrique du maximum de vraisemblance pour des données de survie tronquées à droite, lorsque les délais de troncature sont considérés déterministes. Il a été motivé par le problème de la modélisation des délais de survenue des effets indésirables médicamenteux à partir des bases de données de pharmacovigilance, constituées des cas notifiés. Les distributions exponentielle, de Weibull et log-logistique ont été explorées.Parfois le caractère tronqué à droite des données est ignoré et un estimateur naïf est utilisé à la place de l'estimateur pertinent. Une première étude de simulations a montré que, bien que ces deux estimateurs - naïf et basé sur la troncature à droite - puissent être positivement biaisés, le biais de l'estimateur basé sur la troncature est bien moindre que celui de l'estimateur naïf et il en va de même pour l'erreur quadratique moyenne. De plus, le biais et l'erreur quadratique moyenne de l'estimateur basé sur la troncature à droite diminuent nettement avec l'augmentation de la taille d'échantillon, ce qui n'est pas le cas de l'estimateur naïf. Les propriétés asymptotiques de l'estimateur paramétrique du maximum de vraisemblance ont été étudiées. Sous certaines conditions, suffisantes, cet estimateur est consistant et asymptotiquement normal. La matrice de covariance asymptotique a été détaillée. Quand le délai de survenue est modélisé par la loi exponentielle, une condition d'existence de l'estimation du maximum de vraisemblance, assurant ces conditions suffisantes, a été obtenue. Pour les deux autres lois, une condition d'existence de l'estimation du maximum de vraisemblance a été conjecturée.A partir des propriétés asymptotiques de cet estimateur paramétrique, les intervalles de confiance de type Wald et de la vraisemblance profilée ont été calculés. Une seconde étude de simulations a montré que la couverture des intervalles de confiance de type Wald pouvait être bien moindre que le niveau attendu en raison du biais de l'estimateur du paramètre de la distribution, d'un écart à la normalité et d'un biais de l'estimateur de la variance asymptotique. Dans ces cas-là, la couverture des intervalles de la vraisemblance profilée est meilleure.Quelques procédures d'adéquation adaptées aux données tronquées à droite ont été présentées. On distingue des procédures graphiques et des tests d'adéquation. Ces procédures permettent de vérifier l'adéquation des données aux différents modèles envisagés.Enfin, un jeu de données réelles constitué de 64 cas de lymphomes consécutifs à un traitement anti TNF-α issus de la base de pharmacovigilance française a été analysé, illustrant ainsi l'intérêt des méthodes développées. Bien que ces travaux aient été menés dans le cadre de la pharmacovigilance, les développements théoriques et les résultats des simulations peuvent être utilisés pour toute analyse rétrospective réalisée à partir d'un registre de cas, où les données sur un délai de survenue sont aussi tronquées à droite.
APA, Harvard, Vancouver, ISO, and other styles
24

Babykina, Evgénia. "Modélisation statistique d'événements récurrents. Exploration empirique des estimateurs, prise en compte d'une covariable temporelle et application aux défaillances des réseaux d'eau." Thesis, Bordeaux 2, 2010. http://www.theses.fr/2010BOR21750/document.

Full text
Abstract:
Dans le contexte de la modélisation aléatoire des événements récurrents, un modèle statistique particulier est exploré. Ce modèle est fondé sur la théorie des processus de comptage et est construit dans le cadre d'analyse de défaillances dans les réseaux d'eau. Dans ce domaine nous disposons de données sur de nombreux systèmes observés durant une certaine période de temps. Les systèmes étant posés à des instants différents, leur âge est utilisé en tant qu'échelle temporelle dans la modélisation. Le modèle tient compte de l'historique incomplet d'événements, du vieillissement des systèmes, de l'impact négatif des défaillances précédentes sur l'état des systèmes et des covariables. Le modèle est positionné parmi d'autres approches visant à l'analyse d'événements récurrents utilisées en biostatistique et en fiabilité. Les paramètres du modèle sont estimés par la méthode du Maximum de Vraisemblance (MV). Une covariable dépendante du temps est intégrée au modèle. Il est supposé qu'elle est extérieure au processus de défaillance et constante par morceaux. Des méthodes heuristiques sont proposées afin de tenir compte de cette covariable lorsqu'elle n'est pas observée. Des méthodes de simulation de données artificielles et des estimations en présence de la covariable temporelle sont proposées. Les propriétés de l'estimateur (la normalité, le biais, la variance) sont étudiées empiriquement par la méthode de Monte Carlo. L'accent est mis sur la présence de deux directions asymptotiques : asymptotique en nombre de systèmes n et asymptotique en durée d'observation T. Le comportement asymptotique de l'estimateur MV constaté empiriquement est conforme aux résultats théoriques classiques. Il s'agit de l'asymptotique en n. Le comportement T-asymptotique constaté empiriquement n'est pas classique. L'analyse montre également que les deux directions asymptotiques n et T peuvent être combinées en une unique direction : le nombre d'événements observés. Cela concerne les paramètres classiques du modèle (les coefficients associés aux covariables fixes et le paramètre caractérisant le vieillissement des systèmes). Ce n'est en revanche pas le cas pour le coefficient associé à la covariable temporelle et pour le paramètre caractérisant l'impact négatif des défaillances précédentes sur le comportement futur du système. La méthodologie développée est appliquée à l'analyse des défaillances des réseaux d'eau. L'influence des variations climatiques sur l'intensité de défaillance est prise en compte par une covariable dépendante du temps. Les résultats montrent globalement une amélioration des prédictions du comportement futur du processus lorsque la covariable temporelle est incluse dans le modèle
In the context of stochastic modeling of recurrent events, a particular model is explored. This model is based on the counting process theory and is built to analyze failures in water distribution networks. In this domain the data on a large number of systems observed during a certain time period are available. Since the systems are installed at different dates, their age is used as a time scale in modeling. The model accounts for incomplete event history, aging of systems, negative impact of previous failures on the state of systems and for covariates.The model is situated among other approaches to analyze the recurrent events, used in biostatistics and in reliability. The model parameters are estimated by the Maximum Likelihood method (ML). A method to integrate a time-dependent covariate into the model is developed. The time-dependent covariate is assumed to be external to the failure process and to be piecewise constant. Heuristic methods are proposed to account for influence of this covariate when it is not observed. Methods for data simulation and for estimations in presence of the time-dependent covariate are proposed. A Monte Carlo study is carried out to empirically assess the ML estimator's properties (normality, bias, variance). The study is focused on the doubly-asymptotic nature of data: asymptotic in terms of the number of systems n and in terms of the duration of observation T. The asymptotic behavior of the ML estimator, assessed empirically agrees with the classical theoretical results for n-asymptotic behavior. The T-asymptotics appears to be less typical. It is also revealed that the two asymptotic directions, n and T can be combined into one unique direction: the number of observed events. This concerns the classical model parameters (the coefficients associated to fixed covariates, the parameter characterizing aging of systems). The presence of one unique asymptotic direction is not obvious for the time-dependent covariate coefficient and for a parameter characterizing the negative impact of previous events on the future behavior of a system.The developed methodology is applied to the analysis of failures of water networks. The influence of climatic variations on failure intensity is assessed by a time-dependent covariate. The results show a global improvement in predictions of future behavior of the process when the time-dependent covariate is included into the model
APA, Harvard, Vancouver, ISO, and other styles
25

Keribin, Christine. "Tests de modeles par maximum de vraisemblance." Evry-Val d'Essonne, 1999. http://www.theses.fr/1999EVRY0006.

Full text
Abstract:
L'ordre d'un modele parametrique est, grossierement, le nombre de parametres necessaires pour definir le modele. Lorsque cet ordre n'est pas connu, l'estimateur du maximum de vraisemblance va surestimer l'ordre, pour s'ajuster le mieux aux donnees. Mais un modele sur-parametre ne donnera pas de bons resultats de prediction. Ainsi, il est interessant d'etudier des estimateurs et des tests de l'ordre. Nous etudions des tests de rapport de vraisemblance dans le cadre de trois modeles : le modele a observations independantes et identiquement distribuees (i. I. D. ) identifiable, meme quand l'ordre surestime, le modele de melange a observations i. I. D. (qui n'est pas identifiable quand le nombre de composantes est surestime), et le modele de chaine de markov cachee (cmc) a observations continues (qui presente les memes problemes d'identifiabilite que le precedent, avec en plus la dependance markovienne). Dans le premier cas, nous utilisons des resultats connus de consistance de l'estimateur de l'ordre pour determiner la vitesse asymptotique de la probabilite de se tromper d'ordre. Dans le second cas, nous demontrons d'abord la consistance de l'estimateur du maximum de vraisemblance penalisee sous certaines hypotheses, puis nous donnons un majorant du niveau d'un test de contamination. Dans le dernier cas, nous testons un modele a observations i. I. D. Contre un modele cmc a deux etats caches. Dans ce cas, sur un sous-ensemble des parametres, nous montrons que le rapport de vraisemblance tend en loi vers la moitie du supremum du carre d'un processus gaussien tronque a ses valeurs positives. Puis agrandissant le domaine, nous montrons que le rapport de vraisemblance tend vers l'infini en probabilite. Prenant un cas particulier de cmc, le modele ma bruite, nous etudions, a ordre connu, un estimateur du filtre et des parametres de la chaine cachee, quand celle-ci est, elle aussi, a etats continus. Des simulations permettent d'illustrer les resultats. Ces etudes sont accompagnees d'un travail bibliographique les positionnant dans le contexte actuel, les eclairant par des exemples, montrant leur apport, et proposant des voies de recherche.
APA, Harvard, Vancouver, ISO, and other styles
26

Ahmad, Ali. "Contribution à l'économétrie des séries temporelles à valeurs entières." Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30059/document.

Full text
Abstract:
Dans cette thèse, nous étudions des modèles de moyennes conditionnelles de séries temporelles à valeurs entières. Tout d’abord, nous proposons l’estimateur de quasi maximum de vraisemblance de Poisson (EQMVP) pour les paramètres de la moyenne conditionnelle. Nous montrons que, sous des conditions générales de régularité, cet estimateur est consistant et asymptotiquement normal pour une grande classe de modèles. Étant donné que les paramètres de la moyenne conditionnelle de certains modèles sont positivement contraints, comme par exemple dans les modèles INAR (INteger-valued AutoRegressive) et les modèles INGARCH (INteger-valued Generalized AutoRegressive Conditional Heteroscedastic), nous étudions la distribution asymptotique de l’EQMVP lorsque le paramètre est sur le bord de l’espace des paramètres. En tenant compte de cette dernière situation, nous déduisons deux versions modifiées du test de Wald pour la significativité des paramètres et pour la moyenne conditionnelle constante. Par la suite, nous accordons une attention particulière au problème de validation des modèles des séries temporelles à valeurs entières en proposant un test portmanteau pour l’adéquation de l’ajustement. Nous dérivons la distribution jointe de l’EQMVP et des autocovariances résiduelles empiriques. Puis, nous déduisons la distribution asymptotique des autocovariances résiduelles estimées, et aussi la statistique du test. Enfin, nous proposons l’EQMVP pour estimer équation-par-équation (EpE) les paramètres de la moyenne conditionnelle des séries temporelles multivariées à valeurs entières. Nous présentons les hypothèses de régularité sous lesquelles l’EQMVP-EpE est consistant et asymptotiquement normal, et appliquons les résultats obtenus à plusieurs modèles des séries temporelles multivariées à valeurs entières
The framework of this PhD dissertation is the conditional mean count time seriesmodels. We propose the Poisson quasi-maximum likelihood estimator (PQMLE) for the conditional mean parameters. We show that, under quite general regularityconditions, this estimator is consistent and asymptotically normal for a wide classeof count time series models. Since the conditional mean parameters of some modelsare positively constrained, as, for example, in the integer-valued autoregressive (INAR) and in the integer-valued generalized autoregressive conditional heteroscedasticity (INGARCH), we study the asymptotic distribution of this estimator when the parameter lies at the boundary of the parameter space. We deduce a Waldtype test for the significance of the parameters and another Wald-type test for the constance of the conditional mean. Subsequently, we propose a robust and general goodness-of-fit test for the count time series models. We derive the joint distribution of the PQMLE and of the empirical residual autocovariances. Then, we deduce the asymptotic distribution of the estimated residual autocovariances and also of a portmanteau test. Finally, we propose the PQMLE for estimating, equation-by-equation (EbE), the conditional mean parameters of a multivariate time series of counts. By using slightly different assumptions from those given for PQMLE, we show the consistency and the asymptotic normality of this estimator for a considerable variety of multivariate count time series models
APA, Harvard, Vancouver, ISO, and other styles
27

Fourtinon, Luc. "3D conformal antennas for radar applications." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0060/document.

Full text
Abstract:
Embarqué sous le radôme du missile, les autodirecteurs existants utilisent une rotation mécanique du plan d’antenne pour balayer le faisceau en direction d’une cible. Les recherches actuelles examinent le remplacement des composantes mécaniques de rotation de l’antenne par un nouveau réseau d’antennes 3D conformes à balayage électronique. Les antennes 3D conformes pourraient offrir des avantages significatifs, tels qu’un balayage plus rapide et une meilleure couverture angulaire mais qui pourraient aussi offrir de nouveaux challenges résultant d’un diagramme de rayonnement plus complexes en 3D qu’en 2D. Le nouvel autodirecteur s’affranchit du système mécanique de rotation ce qui libère de l’espace pour le design d’une nouvelle antenne 3D conforme. Pour tirer le meilleur parti de cet espace, différentes formes de réseaux sont étudiées, ainsi l’impact de la position, de l’orientation et de la conformation des éléments est établi sur les performances de l’antenne, en termes de directivité, ellipticité et de polarisation. Pour faciliter cette étude de réseaux 3D conformes, un programme Matlab a été développé, il permet de générer rapidement le diagramme de rayonnement en polarisation d’un réseau donné dans toutes les directions. L’une des tâches de l’autodirecteur consiste à estimer la position d’une cible donnée afin de corriger la trajectoire du missile. Ainsi, l’impact de la forme du réseau sur l’erreur entre la direction d’arrivée mesurée de l’écho de la cible et sa vraie valeur est analysé. La borne inférieure de Cramer-Rao est utilisée pour calculer l’erreur minimum théorique. Ce modèle suppose que chaque élément est alimenté séparément et permet ainsi d’évaluer le potentiel des réseaux 3D conformes actifs.Finalement, l’estimateur du monopulse en phase est étudié pour des réseaux 3D conformes dont les quadrants n’auraient pas les mêmes caractéristiques. Un nouvel estimateur, plus adapté à des quadrants non identiques, est aussi proposé
Embedded below the radome of a missile, existing RF-seekers use a mechanical rotating antenna to steer the radiating beam in the direction of a target. Latest research is looking at replacing the mechanical antenna components of the RF-seeker with a novel 3D conformal antenna array that can steer the beam electronically. 3D antennas may offer significant advantages, such as faster beam steering and better coverage but, at the same time, introduce new challenges resulting from a much more complex radiation pattern than that of 2D antennas. Thanks to the mechanical system removal, the new RF-seeker has a wider available space for the design of a new 3D conformal antenna. To take best benefits of this space, different array shapes are studied, hence the impact of the position, orientation and conformation of the elements is assessed on the antenna performance in terms of directivity, ellipticity and polarisation. To facilitate this study of 3D conformal arrays, a Matlab program has been developed to compute the polarisation pattern of a given array in all directions. One of the task of the RF-seeker consists in estimating the position of a given target to correct the missile trajectory accordingly. Thus, the impact of the array shape on the error between the measured direction of arrival of the target echo and its true value is addressed. The Cramer-Rao lower bound is used to evaluate the theoretical minimum error. The model assumes that each element receives independently and allows therefore to analyse the potential of active 3D conformal arrays. Finally, the phase monopulse estimator is studied for 3Dconformal arrays whose quadrants do not have the same characteristics. A new estimator more adapted to non-identical quadrants is also proposed
APA, Harvard, Vancouver, ISO, and other styles
28

Perreau, Sylvie. "Application des méthodes de maximum de vraisemblance à l'égalisation autodidacte /." Paris : École nationale supérieure des télécommunications, 1998. http://catalogue.bnf.fr/ark:/12148/cb37007407j.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Berrim, Selma. "Tomoscintigraphie par ouverture codée, reconstruction par le maximum de vraisemblance." Paris 13, 1998. http://www.theses.fr/1998PA132033.

Full text
Abstract:
Le collimateur est necessaire a la formation des images, en tomographie par emission monophotonique. L'idee de base des systemes a ouverture codee est de conserver la bonne resolution spatiale du collimateur a stenope unique. La localisation des sources en profondeur se fait par l'augmentation du nombre de stenopes. L'acquisition des donnees de projections s'effectue alors au moyen d'un masque de codage remplacant le collimateur standard a trous paralleles. L'obtention de coupes tomographiques representant l'objet, necessite un decodage de l'image brute d'acquisition. Les donnees de projections d'un volume radioactive presentent des fluctuations aleatoires obeissant a la distribution de poisson. La reconstruction par le maximum de vraisemblance utilisant l'algorithme em presente un modele fonde sur la distribution de poisson. Cet algorithme iteratif est interessant quant a sa capacite a introduire des phenomenes physiques. L'experimentation du ml-em pour un systeme de codage sous une incidence unique conduit a une resolution laterale de l'ordre de 4 mm dans l'air. L'amelioration de la discrimination en profondeur est significative comparee a la methode de reconstruction par correlation equilibree. L'augmentation du nombre d'incidences en deux projections orthogonales prevoit, pour une etude indicative sur l'image simulee d'une source ponctuelle, une amelioration de la discrimination en profondeur comparee a l'incidence unique.
APA, Harvard, Vancouver, ISO, and other styles
30

KUHN, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité des données manquantes. Nous exhibons un estimateur logspline de cette densité qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers la vraie densité lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications.
APA, Harvard, Vancouver, ISO, and other styles
31

Khelifi, Bruno. "Recherche de sources gamma par une méthode de Maximum de Vraisemblance :." Phd thesis, Université de Caen, 2002. http://tel.archives-ouvertes.fr/tel-00002393.

Full text
Abstract:
L'actuelle génération de détecteurs de rayons gamma au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernovae). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions.
Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars IES 1959+65 et IES 1426+42.8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des gamma par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant absorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IIR et des observations simultanées multi-longueurs d'onde.
Ayant observé des restes de supernovae contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons cherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaisons nous ont amenées à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
APA, Harvard, Vancouver, ISO, and other styles
32

Kuhn, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Paris 11, 2003. https://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité [PI] des données manquantes. Nous exhibons un estimateur logspline de PI qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers pi lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications
This thesis deals with maximum likelihood estimation in inverse problems. In the tree first chapters, we consider statistical models involving missing data in a parametric framework. Chapter 1 presents a version of the EM algorithm (Expectation Maximization), which combines a stochastic approximation with a Monte Carlo Markov Chain method: the missing data are drawn from a well-chosen transition probability. The almost sure convergence of the sequence generated by the algorithm to a local maximum of the likelihood of the observations is proved. Some applications to deconvolution and change-point detection are presented. Chapter 2 deals with the application of the algorithm to nonlinear mixed effects models. Besides the estimation of the parameters, we estimate the likelihood of the model and the Fisher information matrix. We assess the performance of the algorithm, comparing the results obtained with other methods, on examples coming from pharmacocinetics and pharmacodynamics. Chapter 3 presents an application to geophysics. We perform a joint inversion between teleseismic times and velocity and between gravimetric data and density. Our point of view is innovative because we estimate the parameters of the model which were generally fixed arbitrarily. Moreover we take into account a linear relation between slowness and density. Chapter 4 deals with non parametric density estimation in missing data problems. We propose a logspline estimator of the density of the non observed data, which maximizes the observed likelihood in a logspline model. We apply our algorithm in this parametric model. We study the convergence of this estimator to the density of the non observed data, when the size of the logpline model and the number of observations tend to infinity. Some applications illustrate this method
APA, Harvard, Vancouver, ISO, and other styles
33

Cao, Zhansheng. "Comportement d'un échantillon sous conditionnement extrême, maximum de vraisemblance sous échantillonnage pondéré." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00802459.

Full text
Abstract:
Dans le Chapitre 1, nous explorons le comportement joint des variables d'une marche aléatoire (X1, . . . ,Xn) lorsque leur valeur moyenne tend vers l'infini quand n tend vers l'infini. Il est prouvé que toutes ces variables doivent partager la même valeur, ce qui généralise les résultats précédents, dans le cadre de grands dépassements de sommes finies de i.i.d variables aléatoires. Dans le Chapitre 2, nous montrons un théorème de Gibbs conditionnel pour une marche aléatoire (X1, ..,Xn) conditionnée à une déviation extrême. Il est prouvé que lorsque les opérandes ont des queues légères avec une certaine régularité supplémentaire, la distribution asymptotique conditionnelle de X1 peut être approximée par la distribution tiltée en norme de la variation totale, généralisant ainsi le cas classique du LDP. Le troisième Chapitre explore le principe du maximum de vraisemblance dans les modèles paramétriques, dans le contexte du théorème de grandes déviations de Sanov. Le MLE est associé à la minimisation d'un critère spécifique de type divergence, qui se généralise au cas du bootstrap pondéré, où la divergnce est fonction de la distribution des poids. Certaines propriétés de la procédure résultante d'inférence sont présenteés ; l'efficacité de Bahadur de tests est également examinée dans ce contexte.
APA, Harvard, Vancouver, ISO, and other styles
34

Renaux, Alexandre. "Contribution à l'analyse des performances d'estimation en traitement statistique du signal." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00129527.

Full text
Abstract:
Cette thèse porte sur l'étude des performances des estimateurs dans le cadre du traitement du signal et s'attache plus particulièrement à étudier et unifier les bornes minimales d'estimation. Nous caractérisons ainsi les limites des méthodes du maximum de vraisemblance en terme d'erreur quadratique moyenne (EQM).

La difficulté majeure provient du fait que l'EQM de l'estimateur d'un paramètre à support borné se divise en trois régions : la plage asymptotique, souvent caractérisée par un grand nombre d'observations ou un faible niveau de bruit, où l'erreur d'estimation est faible, la plage de décrochement où l'EQM se dégrade rapidement et la zone a priori où les observations se réduisent principalement à la seule contribution du bruit et donc, n'apportent pratiquement plus d'informations sur les paramètres à estimer. Beaucoup de résultats sont disponibles pour la zone asymptotique : distribution des estimées, biais, variance. En revanche, le comportement des estimateur dans les zones de décrochement et a priori a été beaucoup moins étudié. Pourtant ces zones non-asymptotiques constituent au même titre que le biais ou la variance une caractéristique fondamentale d'un estimateur puisque qu'elle délimite la plage acceptable de fonctionnement optimal.

Le but de cette thèse est, dans un premier temps, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et pour un nombre d'observations fini) pour les estimateurs au sens du maximum de vraisemblance dans un contexte traitement d'antenne. Dans un second temps, le but est de donner les limites fondamentales de l'EQM d'un estimateur sur ses trois plages de fonctionnement. Les outils utilisés ici sont les bornes minimales de l'EQM autres que les bornes de Cramér-Rao dont la validité n'est qu'asymptotique.

Les résultats obtenus sont appliqués à l'analyse spectrale et à l'estimation de porteuse dans le contexte des communications numériques et fournissent de surcroît des outils intéressants pour prédire la zone de décrochement d'un récepteur.
APA, Harvard, Vancouver, ISO, and other styles
35

Ahmed, Mohamed Salem. "Contribution à la statistique spatiale et l'analyse de données fonctionnelles." Thesis, Lille 3, 2017. http://www.theses.fr/2017LIL30047/document.

Full text
Abstract:
Ce mémoire de thèse porte sur la statistique inférentielle des données spatiales et/ou fonctionnelles. En effet, nous nous sommes intéressés à l’estimation de paramètres inconnus de certains modèles à partir d’échantillons obtenus par un processus d’échantillonnage aléatoire ou non (stratifié), composés de variables indépendantes ou spatialement dépendantes.La spécificité des méthodes proposées réside dans le fait qu’elles tiennent compte de la nature de l’échantillon étudié (échantillon stratifié ou composé de données spatiales dépendantes).Tout d’abord, nous étudions des données à valeurs dans un espace de dimension infinie ou dites ”données fonctionnelles”. Dans un premier temps, nous étudions les modèles de choix binaires fonctionnels dans un contexte d’échantillonnage par stratification endogène (échantillonnage Cas-Témoin ou échantillonnage basé sur le choix). La spécificité de cette étude réside sur le fait que la méthode proposée prend en considération le schéma d’échantillonnage. Nous décrivons une fonction de vraisemblance conditionnelle sous l’échantillonnage considérée et une stratégie de réduction de dimension afin d’introduire une estimation du modèle par vraisemblance conditionnelle. Nous étudions les propriétés asymptotiques des estimateurs proposées ainsi que leurs applications à des données simulées et réelles. Nous nous sommes ensuite intéressés à un modèle linéaire fonctionnel spatial auto-régressif. La particularité du modèle réside dans la nature fonctionnelle de la variable explicative et la structure de la dépendance spatiale des variables de l’échantillon considéré. La procédure d’estimation que nous proposons consiste à réduire la dimension infinie de la variable explicative fonctionnelle et à maximiser une quasi-vraisemblance associée au modèle. Nous établissons la consistance, la normalité asymptotique et les performances numériques des estimateurs proposés.Dans la deuxième partie du mémoire, nous abordons des problèmes de régression et prédiction de variables dépendantes à valeurs réelles. Nous commençons par généraliser la méthode de k-plus proches voisins (k-nearest neighbors; k-NN) afin de prédire un processus spatial en des sites non-observés, en présence de co-variables spatiaux. La spécificité du prédicteur proposé est qu’il tient compte d’une hétérogénéité au niveau de la co-variable utilisée. Nous établissons la convergence presque complète avec vitesse du prédicteur et donnons des résultats numériques à l’aide de données simulées et environnementales.Nous généralisons ensuite le modèle probit partiellement linéaire pour données indépendantes à des données spatiales. Nous utilisons un processus spatial linéaire pour modéliser les perturbations du processus considéré, permettant ainsi plus de flexibilité et d’englober plusieurs types de dépendances spatiales. Nous proposons une approche d’estimation semi paramétrique basée sur une vraisemblance pondérée et la méthode des moments généralisées et en étudions les propriétés asymptotiques et performances numériques. Une étude sur la détection des facteurs de risque de cancer VADS (voies aéro-digestives supérieures)dans la région Nord de France à l’aide de modèles spatiaux à choix binaire termine notre contribution
This thesis is about statistical inference for spatial and/or functional data. Indeed, weare interested in estimation of unknown parameters of some models from random or nonrandom(stratified) samples composed of independent or spatially dependent variables.The specificity of the proposed methods lies in the fact that they take into considerationthe considered sample nature (stratified or spatial sample).We begin by studying data valued in a space of infinite dimension or so-called ”functionaldata”. First, we study a functional binary choice model explored in a case-controlor choice-based sample design context. The specificity of this study is that the proposedmethod takes into account the sampling scheme. We describe a conditional likelihoodfunction under the sampling distribution and a reduction of dimension strategy to definea feasible conditional maximum likelihood estimator of the model. Asymptotic propertiesof the proposed estimates as well as their application to simulated and real data are given.Secondly, we explore a functional linear autoregressive spatial model whose particularityis on the functional nature of the explanatory variable and the structure of the spatialdependence. The estimation procedure consists of reducing the infinite dimension of thefunctional variable and maximizing a quasi-likelihood function. We establish the consistencyand asymptotic normality of the estimator. The usefulness of the methodology isillustrated via simulations and an application to some real data.In the second part of the thesis, we address some estimation and prediction problemsof real random spatial variables. We start by generalizing the k-nearest neighbors method,namely k-NN, to predict a spatial process at non-observed locations using some covariates.The specificity of the proposed k-NN predictor lies in the fact that it is flexible and allowsa number of heterogeneity in the covariate. We establish the almost complete convergencewith rates of the spatial predictor whose performance is ensured by an application oversimulated and environmental data. In addition, we generalize the partially linear probitmodel of independent data to the spatial case. We use a linear process for disturbancesallowing various spatial dependencies and propose a semiparametric estimation approachbased on weighted likelihood and generalized method of moments methods. We establishthe consistency and asymptotic distribution of the proposed estimators and investigate thefinite sample performance of the estimators on simulated data. We end by an applicationof spatial binary choice models to identify UADT (Upper aerodigestive tract) cancer riskfactors in the north region of France which displays the highest rates of such cancerincidence and mortality of the country
APA, Harvard, Vancouver, ISO, and other styles
36

Ranwez, Vincent. "Méthodes efficaces pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2002. http://tel.archives-ouvertes.fr/tel-00843175.

Full text
Abstract:
La reconstruction de phylogénies moléculaires consiste à retrouver l'arbre évolutif (ou phylogénie) d'un ensemble de séquences homologues. La méthode de reconstruction la plus fiable actuellement, semble être la méthode du maximum de vraisemblance. Les méthodes classiques pour rechercher la phylogénie de vraisemblance maximale deviennent, rapidement, très coûteuses en temps de calcul lorsque le nombre de séquences augmente. Elles ne peuvent donc pas traiter de grandes phylogénies. Actuellement, les deux types de méthodes qui permettent de reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance sont : les méthodes de distances et les méthodes de quadruplets. Toutes deux divisent le problème initial en sous-problèmes contenant peu de séquences. Elles peuvent alors résoudre rapidement (suivant le principe du maximum de vraisemblance) chacun de ces sous-problèmes, puis combiner les solutions obtenues pour proposer une phylogénie de l'ensemble des séquences. Après avoir présenté les principales méthodes de reconstruction phylogenetique, nous décrivons une nouvelle méthode de quadruplets (Weight Optimization) qui possède de bonnes propriétés théoriques et reconstruit des arbres plus fiables que Quartet Puzzling (une méthode de quadruplets très populaire). Nous expliquons ensuite en quoi les méthodes de quadruplets sont mal adaptées pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance, et comment ces méthodes peuvent résoudre efficacement d'autres problèmes. Puis, nous proposons une approche qui combine de manière originale les méthodes de distances et du maximum de vraisemblance. Cette approche que nous appelons TripleML permet d'améliorer la fiabilité de différentes méthodes de distances en remplaçant les distances qu'elles utilisent par des distances qui sont estimées en optimisant localement la vraisemblance de triplets de séquences (ou de groupes de séquences).
APA, Harvard, Vancouver, ISO, and other styles
37

Larzabal, Pascal. "Application du maximum de vraisemblance au traitement d'antenne : radio-goniométrie et poursuite de cibles." Paris 11, 1992. http://www.theses.fr/1992PA112252.

Full text
Abstract:
Les méthodes du maximum de vraisemblance (mv) sont reconnues pour être les plus prometteuses en traitement d'antenne. L'objet de ce travail consiste en l'étude et en la mise en ouvre du mV déterministe et stochastique ainsi que des formes approchées passant par une décomposition propre de la matrice de corrélation. Ces formes approchées, plus robustes, sont quasiment efficaces, comme le montre l'expression analytique de la variance et les simulations de monte Carlo effectuées. Elles nécessitent une optimisation globale multidimensionnelle. Nous proposons pour ce faire un algorithme d'optimisation locale (gauss newton) qui est efficace s'il est correctement initialise. Deux algorithmes globaux sont aussi introduits: le premier est fonde sur des méthodes connexionnistes et le deuxième sur une recherche aléatoire. Pour la détection du nombre de sources, nous proposons une variante originale de la méthode de test du rang de l'espace signal. Pour remédier aux défauts de cette méthode en présence de sources corrélées une méthode de detection-estimation simultanées, récursive sur l'ordre, est introduite. Ces méthodes ont été étendues au cas de sources mobiles. En effet, l'utilisation de la forme analytique de la variance du mV permet une mise a jour récursive des positions estimées qui rend l'algorithme compatible avec un modèle a sources mobiles. Nous avons redeveloppe un formalisme type kalman avec comme originalité, l'estimation adaptative du bruit de modélisation (part imprévisible du mouvement) et de la vitesse moyenne, (part évolution lente du mouvement). Une expérimentation dans la gamme VHF (antenne linéaire et pentagonale a 5 capteurs) et HF (antenne en v a 5 capteurs) vient compléter cette étude et confronter les modèles utilises a la réalité. Nous y proposons notamment un remède a la déformation du front de l'onde electromagnetique
APA, Harvard, Vancouver, ISO, and other styles
38

Bapteste, Éric. "Phylogénie générale des Eucaryotes basée sur l'analyse de multiples marqueurs." Paris 6, 2003. http://www.theses.fr/2003PA066504.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Al-Khalidi, Khaldoun. "Reconstruction tomographique en géométrie conique par la technique du maximum de vraisemblance : optimisation et parallélisation." Besançon, 1996. http://www.theses.fr/1996BESA2009.

Full text
Abstract:
Ce travail s'intègre dans le contexte de l'imagerie isotopique. Il concerne la mise en œuvre sur un réseau de transputers d'une méthode de reconstruction 3D de la distribution des coefficients d'atténuation, à partir de projections obtenues en géométrie conique. La connaissance de ces coefficients permettant l'amélioration de la correction de l'atténuation en tomographie d'émission monophotonique. Nous avons opté pour les méthodes de reconstruction statistiques basées sur le principe de Maximum de Vraisemblance. Afin de calculer l'estimateur de Maximum de Vraisemblance nous nous sommes basés sur l'algorithme d'Espérance et Maximisation (EM). En formulant ce dernier sous une forme gradient, nous avons proposé une méthode d'optimisation de type Maximisation Unidimensionnelle. Nous l'avons implantée sous le nom de l'algorithme EM-MU. Ensuite, nous nous sommes intéressés au caractère mal posé du problème de la reconstruction dans le cas de l'estimateur de Maximum de Vraisemblance. Nous avons proposé une technique de régularisation basée sur une approche bayésienne et nous l'avons implantée sous le nom de l'algorithme EM-MAP. Afin de valider nos travaux, nous avons mis en œuvre un simulateur de transport de photons en transmission, basé sur la méthode de Monte Carlo. Nous avons comparé les algorithmes EM-MU et EM-MAP avec deux algorithmes de reconstruction très connus (ART et Feldkamp). L'algorithme EM-MU a donné les meilleurs résultats sur le plan qualitatif et quantitatif, Ainsi nous avons choisi de la parallèliser. Nous avons proposé une méthode de parallèlisation basée sur la technique maitre-esclave avec une répartition de charges, et nous l'avons implanté sur un réseau constitué de trois transputers. La parallèlisation s'est avérée efficace ce qui montre l'intérêt d'une telle approche pour envisager l'utilisation de l'algorithme EM-MU en routine clinique.
APA, Harvard, Vancouver, ISO, and other styles
40

Vuattoux, Jean-Luc. "Identification de modèles de séries temporelles non-gaussiennes : une approche du type maximum de vraisemblance." Nantes, 1997. http://www.theses.fr/1997NANT2029.

Full text
Abstract:
Dans le cas de séries temporelles non-gaussiennes stochastiques stationnaires, représentées par un modèle générateur linéaire du type auto-régressif à moyenne ajustée (ARMA) excité par une séquence blanche non-gaussienne inconnue, l'analyse spectrale se ramène à l'identification des paramètres du modèle ARMA. Nous étudions dans une première partie, les méthodes d'identification de modèles ARMA fondées sur les statistiques d'ordre supérieur (SOS) à deux. Nous nous intéressons aussi à une méthode fondée sur le principe de la déconvolution par minimum d'entropie. Afin de l'étendre à l'identification de modèles ARMA non-causaux, nous généralisons l'approche du minimum de variance de l'erreur de prédiction en introduisant une représentation non-causale séparant les parties causale et anti-causale du modèle ARMA. La seconde partie consiste en l'étude et l'élaboration de méthodes visant à l'optimalité au sens de la matrice de variance-covariance de l'erreur d'estimation des paramètres. L'optimalité est atteinte, dans le cas général d'un modèle ARMA non-causal et d'une entrée de fonction de densité de probabilité (FDP) non-gaussienne, si l'estimateur du maximum de vraisemblance (MV) est utilisé. Mais la FDP de l'entrée est généralement inconnue. Nous avons donc élaboré un estimateur du MV approché, combinant les SOS et les techniques d'identification robuste. Ceci nécessite l'extension de l'approche de l'erreur de prédiction dans un cas général. Puis, la FDP de l'entrée est modélisée par un mélange de deux gaussiennes de mêmes statistiques jusqu'à l'ordre quatre que la FDP de l'entrée, et minimisant l'information de Fisher parmi toutes les solutions possibles. Les méthodes d'identification présentées et élaborées sont comparées en simulation. Nous proposons une nouvelle mesure de distance entre modèles ARMA non-causaux, la distance bicepstrale, utilisée ensuite pour la comparaison de méthodes d'identification du point de vue des performances de l'estimation.
APA, Harvard, Vancouver, ISO, and other styles
41

Douc, Randal. "Problèmes statistiques pour des modèles à variables latentes : propriétés asymptotiques de l'estimateur du maximum de vraisemblance." Palaiseau, Ecole polytechnique, 2001. http://www.theses.fr/2001EPXXO001.

Full text
Abstract:
Un modèle autorégressif à régime markovien est un processus à temps discret à deux composantes x n, y n évoluant de la façon suivante : x n est une chaine de Markov homogène et y n suit une loi conditionnelle dépendante non seulement de x n mais aussi de y n 1, , y n 8. Le processus x n, usuellement appelé régime n'est pas observé et l'inférence doit être menée à partir du processus observable y n. Ces modèles incluent en particulier les modèles de chaines de Markov cachées utilisés en reconnaissance de la parole, économétrie, neuro-physiologie ou analyse des séries temporelles. Dans ce travail, nous prouvons consistance et normalité asymptotique de l'estimateur de maximum de vraisemblance dans le cas où les variables aléatoires cachées vivent dans un espace compact non nécessairement fini. Nous investissons deux techniques différentes, la première appliquée aux modèles de Markov cachées utilise l'ergodicité géométrique de certaines chaines de Markov étendues, et s'appuie sur une méthode proposée par Legland et Mevel (1997) dans le cas où les x k prennent un nombre fini de valeurs. Bien que cette technique semble adaptée à l'étude des estimateurs récursifs (ou l'estimateur est réévalue à chaque nouvelle observation), sa mise en oeuvre nécessite néanmoins des hypothèses relativement fortes. Une seconde approche que nous avons directement applique aux modèles autorégressifs non-linéaires a régime markovien utilise des approximations par des suites stationnaires et permet de prouver consistance et normalité asymptotique sous des hypothèses plus faibles
APA, Harvard, Vancouver, ISO, and other styles
42

Alcaïs, Alexandre. "De la lèpre au maximum de vraisemblance binomiale : histoire naturelle d'une nouvelle méthode d'analyse de liaison génétique." Paris 11, 2002. http://www.theses.fr/2002PA11T072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Gilbert, Helène. "Multidimensionnalité pour la détection de gènes influençant des caractères quantitatifs : Application à l'espèce porcine." Paris, Institut national d'agronomie de Paris Grignon, 2003. http://www.theses.fr/2003INAP0007.

Full text
Abstract:
Ce travail a pour but de développer des méthodes de détection de locus affectant les caractères quantitatifs, appelés QTL, à partir de l'information disponible sur des caractères corrélés et/ou des positions liées, chez les animaux d'élevage. Les méthodologies ont été dans un premier temps caractérisées pour leurs puissances et leurs précisions d'estimation des paramètres (positions et effets des QTL) à partir de données simulées. Nous avons développé d'une part des méthodes multivariées, extrapolées de techniques décrites pour l'analyse de données issues de croisements entre populations supposées génétiquement fixées, et d'autre part des méthodes synthétiques univariées, développées à l'occasion de ce travail. Ces dernières méthodes permettent de synthétiser l'information due à la présence du (des) QTL déterminant plusieurs caractères dans une unique variable, combinaison linéaire des caractères. Le nombre de paramètres à estimer est ainsi indépendant du nombre de caractères étudiés, permettant de réduire fortement les temps de calcul par rapport aux méthodes multivariées. La stratégie retenue repose sur des techniques d'analyse discriminante. Pour chaque vecteur de positions testé, des groupes de descendants sont créés en fonction de la probabilité que les individus aient reçu l'un ou l'autre haplotype de leur père. Les matrices de (co)variance génétique et résiduelle spécifiques de la présence du (des) QTL peuvent alors être estimées. La transformation linéaire permet de maximiser le rapport de ces deux variabilités. Les méthodes basées sur l'analyse de variables synthétiques permettent en général d'obtenir des résultats équivalents, voire meilleurs, que les stratégies multivariées. Seule l'estimation des effets des QTL et de la corrélation résiduelle entre les caractères reste inaccessible par ces méthodes. Une stratégie itérative basée sur l'analyse de variables synthétiques pour la sélection des caractères et des régions chromosomiques à analyser par les méthodes multivariées est proposée. Par ailleurs, nous avons quantité les apports des méthodologies multidimensionnelles pour la cartographie des QTL par rapport aux méthodes unidimensionnelles. Dans la majorité des cas, la puissance et la précision d'estimation des paramètres sont nettement améliorées. De plus, nous avons pu montrer qu'un QTL pléiotrope peut être discriminé de deux QTL liés, s'ils sont relativement distants. Ces méthodologies ont été appliquées à la détection de QTL déterminant cinq caractères de composition corporelle chez le porc sur le chromosome 7. Deux groupes de QTL déterminant des types de gras différents, le gras interne et le gras externe, ont ainsi été discriminés. Pour chacun de ces groupes, les analyses multiQTL ont permis d'identifier au moins deux régions chromosomiques distinctes déterminant les caractères.
APA, Harvard, Vancouver, ISO, and other styles
44

Ferràs, Font Marc. "Utilisation des coefficients de régression linéaire par maximum de vraisemblance comme paramètres pour la reconnaissance automatique du locuteur." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00616673.

Full text
Abstract:
The goal of this thesis is to find new and efficient features for speaker recognition. We are mostly concerned with the use of the Maximum-Likelihood Linear Regression (MLLR) family of adaptation techniques as features in speaker recognition systems. MLLR transformcoefficients are able to capture speaker cues after adaptation of a speaker-independent model using speech data. The resulting supervectors are high-dimensional and no underlying model guiding its generation is assumed a priori, becoming suitable for SVM for classification. This thesis brings some contributions to the speaker recognition field by proposing new approaches to feature extraction and studying existing ones via experimentation on large corpora: 1. We propose a compact yet efficient system, MLLR-SVM, which tackles the issues of transcript- and language-dependency of the standard MLLR-SVM approach by using single-class Constrained MLLR (CMLLR) adaptation transforms together with Speaker Adaptive Training (SAT) of a Universal Background Model (UBM). 1- When less data samples than dimensions are available. 2- We propose several alternative representations of CMLLR transformcoefficients based on the singular value and symmetric/skew-symmetric decompositions of transform matrices. 3- We develop a novel framework for feature-level inter-session variability compensation based on compensation of CMLLR transform supervectors via Nuisance Attribute Projection (NAP). 4- We perform a comprehensive experimental study of multi-class (C)MLLR-SVM systems alongmultiple axes including front-end, type of transform, type fmodel,model training and number of transforms. 5- We compare CMLLR and MLLR transform matrices based on an analysis of properties of their singular values. 6- We propose the use of lattice-basedMLLR as away to copewith erroneous transcripts in MLLR-SVMsystems using phonemic acoustic models.
APA, Harvard, Vancouver, ISO, and other styles
45

Beau, Noëlle. "Application du maximum de vraisemblance à la comparaison de deux méthodes de dosage biologique : cas des variances inconnues." Paris 11, 1990. http://www.theses.fr/1990PA11P171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Ziadi, Anis. "Particules gaussiennes déterministes en maximum de vraisemblance non-linéaire : application au filtrage optimal des signaux radar et GPS." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/742/.

Full text
Abstract:
Le filtre particulaire "aléatoire", bien connu aujourd'hui, est basé sur une interprétation par processus de branchement du générateur de filtrage non-linéaire. Sa généralité permet d'aborder tout problème d'estimation dynamique sans restriction concernant la nature des équations d'état ou des densités de probabilité. Cette technique procède par simulation numérique aléatoire des flots du système dynamique au moyen de particules de Dirac, corrigées par les observations et adaptées à l'évolution des connaissances a posteriori de l'état. Des évolutions successives de ce procédé ont montré l'intérêt des particules gaussiennes étendues pour la réduction du coût algorithmique et l'amélioration des performances du filtre. D'autre part, la supériorité du branchement/sélection déterministe s'est manifestée dans le cas de bruit source à valeurs discrètes, notamment pour l'estimation au sens du maximum de vraisemblance. Ce mémoire étend l'utilisation des particules déterministes de Gauss, principalement pour le maximum de vraisemblance, au cas général comprenant les bruits de dynamique continus. Il dote la technique particulaire "déterministe" d'une procédure optimisant le maillage particulaire de l'espace des bruits, ainsi que d'une contrainte de "non-recouvrement" des particules étendues assurant l'économie maximale. Une synthèse des principales variantes du filtrage particulaire, permettant d'établir un état des lieux de ces techniques, de leurs différences et points communs, y est proposée sans prétention d'exhaustivité. Concernant l'efficacité applicative, un récepteur particulaire "déterministe" des signaux radar, est proposé pour la détection/poursuite de cibles fortement manœuvrantes sous faible observation. Les performances de ce récepteur sont, d'abord illustrées par des simulations réalistes, puis comparées, sur données réelles issues d'expérimentations militaires, à celles du filtre à particule aléatoires de Dirac. La seconde application concerne le positionnement GPS de récepteur à forte dynamique. .
Particle filter is now a well-known numeric solution for the non-linear estimation problem. Based on a reinterpretation of Stratonovich non-linear filtering equation as the generator of branching process, it provides a general finite-dimensional solution to the non-linear filtering problem. Previous improvement of the method point out, in one hand, the benefit of Gaussian particles for the state space dynamic representation, and in the other one, the economy of the deterministic sampling, especially in the maximum likelihood case. We therefore present here a maximum likelihood deterministic particle filter generalized to the continuous state space case, using extended Gauss particles. This particle filter was completed with optimization steps, such as non-overlapping selection to guarantee optimal use of computational resources. Besides deterministic particle filter description first part of this report presents a "non-exhaustive" survey of non-linear filtering methods and particularly "Random" particles ones. High performances of the proposed filtering method are illustrated through two applications of interest: Radar detection and tracking of maneuvering target: where performances are studied, until real data provided by military experimentations, and compared to "random" particles ones. GPS receiver: where tracking problem is firstly addressed under high dynamic noises. Then acquisition one is solved with similar dynamics constraints by a modified signal processing structure. .
APA, Harvard, Vancouver, ISO, and other styles
47

Etienvre, Anne-Isabelle. "Méthode d'analyse pour la recherche de la double désintégration bêta sans émission de neutrinos dans l'expérience NEMO3 : étude du bruit de fond et premiers résultats." Paris 11, 2003. http://www.theses.fr/2003PA112026.

Full text
Abstract:
Le détecteur NEMO3, installé dans le Laboratoire Souterrain de Modane, a pour but l'étude de la double désintégration bêta sans émission de neutrinos, processus dont l'observation permettrait d'affirmer que le neutrino est une particule massive de Majorana. Ce détecteur est composé de feuilles sources, très fines, centrales, d'émetteur double bêta, représentant un total de 10 kg, d'un détecteur de traces constitué de cellules de dérive fonctionnant en régime Geiger, d'un calorimètre formé de scintillateurs plastiques associés à des photomultiplicateurs, d'une bobine fournissant un champ magnétique de 30 gauss et de deux blindages permettant de réduire les flux de neutrons et de photons. Dans la première partie de cette thèse, je décris les liens unissant certains mécanismes s'inscrivant dans le cadre d'une violation trilinéaire de la R-parité à la double désintégration bêta. La seconde partie, expérimentale, est dédiée à l'étude détaillée du détecteur de traces de l'expérience: après avoir décrit les différents tests de fonctionnement, je présente la détermination des caractéristiques de la reconstruction des traces traversant le détecteur (résolutions transverse et longitudinale, par cellule Geiger et précisions sur la détermination du vertex, reconnaissance de la charge). Une dernière partie correspond à l'analyse des données acquises par l'expérience. Une limite supérieure sur l'activité des sources en 208-Tl, l'une des principales sources de bruit de fond, a ainsi pu être déterminée: elle est inférieure à 68 mBq/kg à 90% de niveau de confiance. Par ailleurs, j'ai mis au point et testé sur les données une méthode: d'analyse du signal de double désintégration bêta sans émission de neutrinos, basée sur un maximum de vraisemblance utilisant toute l'information disponible: cela m'a permis de déterminer une première limite supérieure, très préliminaire, sur la masse effective du neutrino
The NEMO3 detector, installed in the Fréjus Underground Laboratory, is dedicated to the study of neutrinoless double beta decay : the observation of this process would sign the massive and Majorana nature of neutrino. The experiment consists in very thin central source foils (the total mass is equal to 10 kg), a tracking detector made of drift cells operating in Geiger mode, a calorimeter made of plastic scintillators associated to photomultipliers, a coil producing a 30 gauss magnetic field and two shields, dedicated to the reduction of the γ-ray and neutron fluxes. In the first part, I describe the implications of several mechanisms, related to trilinear R-parity violation, on ββ0v. The second part is dedicated to a detailed study of the tracking detector of the experiment : after a description of the different working tests, I present the determination of the characteristics of the tracking reconstruction (transverse and longitudinal resolution, by Geiger cell and precision on vertex determination, charge recognition). A last part corresponds to the analysis of the data taken by the experiment. On the one hand, an upper limit on the 208-Tl activity of the sources has been determined : it is lower than 68 mBq/kg, at 90% of convidence level. On the other hand, I have developed and tested on these data a method in order to analyse the neutrinoless double beta decay signal; this method is based on a maximum of likelihood using all the available information. Using this method, I could determine a first and very preliminary upper limit on the effective mass of the neutrino
APA, Harvard, Vancouver, ISO, and other styles
48

Trevezas, Samis. "Etude de l'estimation du Maximum de Vraisemblance dans des modèles Markoviens, Semi-Markoviens et Semi-Markoviens Cachés avec Applications." Phd thesis, Université de Technologie de Compiègne, 2008. http://tel.archives-ouvertes.fr/tel-00472644.

Full text
Abstract:
Dans ce travail je présente une étude unifiée basée sur l'estimation du maximum de vraisemblance pour des modèles markoviens, semi-markoviens et semi-markoviens cachés. Il s'agit d'une étude théorique des propriétés asymptotiques de l'EMV des modèles mentionnés ainsi que une étude algorithmique. D'abord, nous construisons l'estimateur du maximum de vraisemblance (EMV) de la loi stationnaire et de la variance asymptotique du théorème de la limite centrale (TLC) pour des fonctionnelles additives des chaînes de Markov ergodiques et nous démontrons sa convergence forte et sa normalité asymptotique. Ensuite, nous considérons un modèle semi-markovien non paramétrique. Nous présentons l'EMV exact du noyau semi-markovien qui gouverne l'évolution de la chaîne semi-markovienne (CSM) et démontrons la convergence forte, ainsi que la normalité asymptotique de chaque sous-vecteur fini de cet estimateur en obtenant des formes explicites pour les matrices de covariance asymptotiques. Ceci a été appliqué pour une observation de longue durée d'une seule trajectoire d'une CSM, ainsi que pour une suite des trajectoires i.i.d. d'une CSM censurée à un instant fixe. Nous introduisons un modèle semi-markovien caché (MSMC) général avec dépendance des temps de récurrence en arrière. Nous donnons des propriétés asymptotiques de l'EMV qui correspond à ce modèle. Nous déduisons également des expressions explicites pour les matrices de covariance asymptotiques qui apparaissent dans le TLC pour l'EMV des principales caractéristiques des CSM. Enfin, nous proposons une version améliorée de l'algorithme EM (Estimation-Maximisation) et une version stochastique de cet algorithme (SAEM) afin de trouver l'EMV pour les MSMC non paramétriques. Des exemples numériques sont présentés pour ces deux algorithmes.
APA, Harvard, Vancouver, ISO, and other styles
49

Filstroff, Louis. "Contributions to probabilistic non-negative matrix factorization - Maximum marginal likelihood estimation and Markovian temporal models." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0143.

Full text
Abstract:
La factorisation en matrices non-négatives (NMF, de l’anglais non-negative matrix factorization) est aujourd’hui l’une des techniques de réduction de la dimensionnalité les plus répandues, dont les domaines d’application recouvrent le traitement du signal audio, l’imagerie hyperspectrale, ou encore les systèmes de recommandation. Sous sa forme la plus simple, la NMF a pour but de trouver une approximation d’une matrice des données non-négative (c’est-à-dire à coefficients positifs ou nuls) par le produit de deux matrices non-négatives, appelées les facteurs. L’une de ces matrices peut être interprétée comme un dictionnaire de motifs caractéristiques des données, et l’autre comme les coefficients d’activation de ces motifs. La recherche de cette approximation de rang faible s’effectue généralement en optimisant une mesure de similarité entre la matrice des données et son approximation. Il s’avère que pour de nombreux choix de mesures de similarité, ce problème est équivalent à l’estimation jointe des facteurs au sens du maximum de vraisemblance sous un certain modèle probabiliste décrivant les données. Cela nous amène à considérer un paradigme alternatif pour la NMF, dans lequel les taches d’apprentissage se portent sur des modèles probabilistes dont la densité d’observation est paramétrisée par le produit des facteurs non-négatifs. Ce cadre général, que nous appelons NMF probabiliste, inclut de nombreux modèles à variables latentes bien connus de la littérature, tels que certains modèles pour des données de compte. Dans cette thèse, nous nous intéressons à des modèles de NMF probabilistes particuliers pour lesquels on suppose une distribution a priori pour les coefficients d’activation, mais pas pour le dictionnaire, qui reste un paramètre déterministe. L'objectif est alors de maximiser la vraisemblance marginale de ces modèles semi-bayésiens, c’est-à-dire la vraisemblance jointe intégrée par rapport aux coefficients d’activation. Cela revient à n’apprendre que le dictionnaire, les coefficients d’activation pouvant être inférés dans un second temps si nécessaire. Nous entreprenons d’approfondir l’étude de ce processus d’estimation. En particulier, deux scénarios sont envisagées. Dans le premier, nous supposons l’indépendance des coefficients d’activation par échantillon. Des résultats expérimentaux antérieurs ont montré que les dictionnaires appris via cette approche avaient tendance à régulariser de manière automatique le nombre de composantes ; une propriété avantageuse qui n’avait pas été expliquée alors. Dans le second, nous levons cette hypothèse habituelle, et considérons des structures de Markov, introduisant ainsi de la corrélation au sein du modèle, en vue d’analyser des séries temporelles
Non-negative matrix factorization (NMF) has become a popular dimensionality reductiontechnique, and has found applications in many different fields, such as audio signal processing,hyperspectral imaging, or recommender systems. In its simplest form, NMF aims at finding anapproximation of a non-negative data matrix (i.e., with non-negative entries) as the product of twonon-negative matrices, called the factors. One of these two matrices can be interpreted as adictionary of characteristic patterns of the data, and the other one as activation coefficients ofthese patterns. This low-rank approximation is traditionally retrieved by optimizing a measure of fitbetween the data matrix and its approximation. As it turns out, for many choices of measures of fit,the problem can be shown to be equivalent to the joint maximum likelihood estimation of thefactors under a certain statistical model describing the data. This leads us to an alternativeparadigm for NMF, where the learning task revolves around probabilistic models whoseobservation density is parametrized by the product of non-negative factors. This general framework, coined probabilistic NMF, encompasses many well-known latent variable models ofthe literature, such as models for count data. In this thesis, we consider specific probabilistic NMFmodels in which a prior distribution is assumed on the activation coefficients, but the dictionary remains a deterministic variable. The objective is then to maximize the marginal likelihood in thesesemi-Bayesian NMF models, i.e., the integrated joint likelihood over the activation coefficients.This amounts to learning the dictionary only; the activation coefficients may be inferred in asecond step if necessary. We proceed to study in greater depth the properties of this estimation process. In particular, two scenarios are considered. In the first one, we assume the independence of the activation coefficients sample-wise. Previous experimental work showed that dictionarieslearned with this approach exhibited a tendency to automatically regularize the number of components, a favorable property which was left unexplained. In the second one, we lift thisstandard assumption, and consider instead Markov structures to add statistical correlation to themodel, in order to better analyze temporal data
APA, Harvard, Vancouver, ISO, and other styles
50

Keller, Jean-Yves. "Contribution a la validation de données des systèmes statiques et dynamiques." Nancy 1, 1991. http://www.theses.fr/1991NAN10201.

Full text
Abstract:
Ce mémoire est consacré à la validation de données des systèmes statiques et dynamiques. La première partie sur l'équilibrage de bilans des systèmes statiques issus de lois de conservation de la matière et de l'énergie. Nous proposons d'analyser l'observabilité et la redondance de ces systèmes en utilisant les cycles du réseau. Nous développons ensuite un estimateur optimal, au sens du maximum de vraisemblance, de la variance des erreurs de mesures. Une unification des techniques de détection de défauts accidentels est présentée ainsi qu'un algorithme d'estimation de l'état des systèmes statiques linéaires en présence de défauts multiples. Le dernier chapitre de la thèse présente une extension de ces techniques à l'équilibrage de bilans dynamiques. L'estimation de la variance des bruits de mesures est étudiée. La transposition du problème de l'estimation de l'état des systèmes singuliers en problème d'équilibrage de bilans permet l'obtention d'un algorithme de filtrage généralisant le filtre de Kalman. L'analyse de la séquence d'innovation de ce filtre permet le traitement des défauts accidentels. Une application de cet algorithme est proposée dans le cadre des systèmes décrits par des lois de conservation dynamiques. Le filtrage robuste des mesures d'entrées-sorties est étudié pour terminer
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography