To see the other types of publications on this topic, follow the link: Estimation de la régression.

Dissertations / Theses on the topic 'Estimation de la régression'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Estimation de la régression.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Simard, Joanie. "Méthodes de régression robuste." Mémoire, Université de Sherbrooke, 2018. http://hdl.handle.net/11143/12002.

Full text
Abstract:
Dans le monde d’aujourd’hui, il est très fréquent de vouloir modéliser la relation entre deux ou plusieurs variables. Toutefois, plusieurs expériences sont laissées à l’abandon à cause de la présence systématique de données aberrantes. Ce mémoire portera sur les estimateurs robustes permettant de modéliser des séries de données contenant des valeurs aberrantes, nous aidant ainsi à tirer un maximum d’informations de ces expériences. Dans un premier temps, nous présenterons des estimateurs robustes qui nécessitent l’imposition d’un modèle paramétrique. Ensuite, nous traiterons de l’introduction des copules à ces estimateurs robustes. Finalement, nous présenterons des simulations tirées d’une expérience réelle qui consistait à modéliser le vrai poids d’un porc selon le poids mesuré par une balance, développée au centre de recherche et développement de Sherbrooke, dans l’optique d’améliorer les techniques d’alimentation de précision.
APA, Harvard, Vancouver, ISO, and other styles
2

Gendre, Xavier. "Estimation par sélection de modèle en régression hétéroscédastique." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00397608.

Full text
Abstract:
Cette thèse s'inscrit dans les domaines de la statistique non-asymptotique et de la théorie statistique de la sélection de modèle. Son objet est la construction de procédures d'estimation de paramètres en régression hétéroscédastique. Ce cadre reçoit un intérêt croissant depuis plusieurs années dans de nombreux champs d'application. Les résultats présentés reposent principalement sur des inégalités de concentration et sont illustrés par des applications à des données simulées.

La première partie de cette thèse consiste dans l'étude du problème d'estimation de la moyenne et de la variance d'un vecteur gaussien à coordonnées indépendantes. Nous proposons une méthode de choix de modèle basée sur un critère de vraisemblance pénalisé. Nous validons théoriquement cette approche du point de vue non-asymptotique en prouvant des majorations de type oracle du risque de Kullback de nos estimateurs et des vitesses de convergence uniforme sur les boules de Hölder.

Un second problème que nous abordons est l'estimation de la fonction de régression dans un cadre hétéroscédastique à dépendances connues. Nous développons des procédures de sélection de modèle tant sous des hypothèses gaussiennes que sous des conditions de moment. Des inégalités oracles non-asymptotiques sont données pour nos estimateurs ainsi que des propriétés d'adaptativité. Nous appliquons en particulier ces résultats à l'estimation d'une composante dans un modèle de régression additif.
APA, Harvard, Vancouver, ISO, and other styles
3

Bouatou, Mohamed. "Estimation non linéaire par ondelettes : régression et survie." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004921.

Full text
Abstract:
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
APA, Harvard, Vancouver, ISO, and other styles
4

Gaïffas, Stéphane. "Régression non-paramétrique et information spatialement inhomogène." Paris 7, 2005. https://tel.archives-ouvertes.fr/tel-00011261.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Gaiffas, Stéphane. "Régression non-paramétrique et information spatialement inhomogène." Phd thesis, Université Paris-Diderot - Paris VII, 2005. http://tel.archives-ouvertes.fr/tel-00011261.

Full text
Abstract:
Nous étudions l'estimation non-paramétrique d'un signal à partir de
données bruitées spatialement inhomogènes (données dont la quantité
varie sur le domaine d'estimation). Le prototype d'étude est le modèle
de régression avec design aléatoire. Notre objectif est de comprendre
les conséquences du caractère inhomogène des données sur le problème
d'estimation dans le cadre d'étude minimax. Nous adoptons deux points
de vue : local et global. Du point de vue local, nous nous intéressons
à l'estimation de la régression en un point avec peu ou beaucoup de
données. En traduisant cette propriété par différentes hypothèses sur
le comportement local de la densité du design, nous obtenons toute une
gamme de nouvelles vitesses minimax ponctuelles, comprenant des
vitesses très lentes et des vitesses très rapides. Puis, nous
construisons une procédure adaptative en la régularité de la
régression, et nous montrons qu'elle converge avec la vitesse minimax
à laquelle s'ajoute un coût minimal pour l'adaptation locale. Du point
de vue global, nous nous intéressons à l'estimation de la régression
en perte uniforme. Nous proposons des estimateurs qui convergent avec
des vitesses dépendantes de l'espace, lesquelles rendent compte du
caractère inhomogène de l'information dans le modèle. Nous montrons
l'optimalité spatiale de ces vitesses, qui consiste en un renforcement
de la borne inférieure minimax classique pour la perte uniforme. Nous
construisons notamment un estimateur asymptotiquement exact sur une
boule de Hölder de régularité quelconque, ainsi qu'une bande de
confiance dont la largeur s'adapte à la quantité locale de données.
APA, Harvard, Vancouver, ISO, and other styles
6

Cao, Yun. "Inégalités d'Oracle pour l'Estimation de la Régression." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00341752.

Full text
Abstract:
Dans cette thèse, on s'intéresse à l'estimation des fonctions de régression par polynômes et par splines dans le cadre des statistiques non-paramétriques. L'objectif est d'estimer la fonction cible f, à partir des observations Y=f+ϵ, où ϵ est un bruit gaussien. En appuyant sur la méthode d'estimation du risque sans biais, l'idée consiste à obtenir des inégalités d'oracle pour des familles d'estimateurs par polynômes et par splines. Etant donnée une famille d'estimateurs M, une telle inégalité permet de comparer, sans aucune hypothèse sur la fonction cible f, les performances de l'estimateur f ̂^* à l'estimateur d'oracle f ̂_or. Le point essentiel de notre approche consiste à sélectionner, à l'aide des données, un paramètre d'estimation adapté : lorsque on considère le problème de l'estimation par projection, ce paramètre est le degré du polynôme ; dans le cas de l'estimation par splines, ce paramètre correspond à un paramètre de lissage. Ainsi, on en déduit des bornes supérieures non-asymptotiques pour les risques quadratiques de notre adaptation.
Afin d'obtenir des inégalités d'oracle, on applique l'inégalité de Doob pour le processus de Wiener pour l'estimation par polynômes ; dans le cas de l'estimation par splines, on introduit le processus ordonné en généralisant le processus de Wiener.
APA, Harvard, Vancouver, ISO, and other styles
7

Blondin, David. "Lois limites uniformes et estimation non-paramétrique de la régression." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00011943.

Full text
Abstract:
Nous utilisons la théorie moderne des processus empiriques indicés par des classes de fonctions afin d'établir la vitesse exacte de convergence presque sûre d'une large classe d'estimateurs par la méthode du noyau de la fonction de régression dont les estimateurs par lissage polynomial local. Ces résultats prennent la forme de lois limites uniformes du logarithme dans le prolongement des travaux de Deheuvels et Mason (2004) et permettent la construction de bornes de confiance asymptotiquement optimales. La démonstration s'appuie principalement sur une inégalité exponentielle pour la déviation par rapport à l'espérance de la norme du supremum du processus empirique indexé par des classes de fonctions à nombre de recouvrement uniformément polynomial. Nous présentons également une loi limite uniforme du logarithme dans un cadre semi-paramétrique concernant l'estimateur du maximum de vraisemblance local lorsque la loi conditionnelle est paramétrée par une fonction.
APA, Harvard, Vancouver, ISO, and other styles
8

Delsol, Laurent. "Régression sur variable fonctionnelle : estimation, tests de structure et applications." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00449806.

Full text
Abstract:
Au cours des dernières années, la branche de la statistique consacrée à l'étude de variables fonctionnelles a connu un réel essor tant en terme de développements théoriques que de diversification des domaines d'application. Nous nous intéressons plus particulièrement dans ce mémoire à des modèles de régression dans lesquels la variable réponse est réelle tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Les résultats que nous énonçons sont liés aux propriétés asymptotiques de l'estimateur à noyau généralisé au cas d'une variable explicative fonctionnelle. Nous supposons pour commencer que l'échantillon que nous étudions est constitué de variables α-mélangeantes et que le modèle de régression est de nature nonparamétrique. Nous établissons la normalité asymptotique de notre estimateur et donnons l'expression explicite des termes asymptotiquement dominants du biais et de la variance. Une conséquence directe de ce résultat est la construction d'intervalles de confiance asymptotiques ponctuels dont nous étudions les propriétés aux travers de simulations et que nous appliquons sur des données liées à l'étude du courant marin El Niño. On établit également à partir du résultat de normalité asymptotique et d'un résultat d'uniforme intégrabilité l'expression explicite des termes asymptotiquement dominants des moments centrés et des erreurs Lp de notre estimateur. Nous considérons ensuite le problème des tests de structure en régression sur variable fonctionnelle et supposons maintenant que l'échantillon est composé de variables indépendantes. Nous construisons une statistique de test basée sur la comparaison de l'estimateur à noyau et d'un estimateur plus particulier dépendant de l'hypothèse nulle à tester. Nous obtenons la normalité asymptotique de notre statistique de test sous l'hypothèse nulle ainsi que sa divergence sous l'alternative. Les conditions générales sous lesquelles notre résultat est établi permettent l'utilisation de notre statistique pour construire des tests de structure innovants permettant de tester si l'opérateur de régression est de forme linéaire, à indice simple, . . . Différentes procédures de rééchantillonnage sont proposées et comparées au travers de diverses simulations. Nos méthodes sont enfin appliquées dans le cadre de tests de non effet à deux jeux de données spectrométriques.
APA, Harvard, Vancouver, ISO, and other styles
9

Dia, Galaye. "Statistiques d'ordre dans les processus ponctuels : estimation de la régression." Paris 6, 1986. http://www.theses.fr/1986PA066257.

Full text
Abstract:
Etude d'une superposition de processus ponctuels independants et equidistribues sur r::(+). Etude de l'estimateur de la regression definie sur un pave borne de r (s >ou= 1). Etude de l'estimateur de la regression definie sur r::(+). Etude de l'enveloppe convexe des points d'une superposition de processus ponctuels sur r::(+)**(2). Etude de l'estimateur de la regression definie sur r::(+)**(2). Blocs equilibres d'une suite aleatoire de variables statistiques.
APA, Harvard, Vancouver, ISO, and other styles
10

Portier, François. "Réduction de la dimension en régression." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00871049.

Full text
Abstract:
Dans cette thèse, nous étudions le problème de réduction de la dimension dans le cadre du modèle de régression suivant Y=g(B X,e), où X est un vecteur de dimension p, Y appartient à R, la fonction g est inconnue et le bruit e est indépendant de X. Nous nous intéressons à l'estimation de la matrice B, de taille dxp où d est plus petit que p, (dont la connaissance permet d'obtenir de bonnes vitesses de convergence pour l'estimation de g). Ce problème est traité en utilisant deux approches distinctes. La première, appelée régression inverse nécessite la condition de linéarité sur X. La seconde, appelée semi-paramétrique ne requiert pas une telle condition mais seulement que X possède une densité lisse. Dans le cadre de la régression inverse, nous étudions deux familles de méthodes respectivement basées sur E[X f(Y)] et E[XX^T f(Y)]. Pour chacune de ces familles, nous obtenons les conditions sur f permettant une estimation exhaustive de B, aussi nous calculons la fonction f optimale par minimisation de la variance asymptotique. Dans le cadre de l'approche semi-paramétrique, nous proposons une méthode permettant l'estimation du gradient de la fonction de régression. Sous des hypothèses semi-paramétriques classiques, nous montrons la normalité asymptotique de notre estimateur et l'exhaustivité de l'estimation de B. Quel que soit l'approche considérée, une question fondamentale est soulevée : comment choisir la dimension de B ? Pour cela, nous proposons une méthode d'estimation du rang d'une matrice par test d'hypothèse bootstrap.
APA, Harvard, Vancouver, ISO, and other styles
11

Brua, Jean-Yves. "Estimation non paramétrique pour des modèles de diffusion et de régression." Phd thesis, Université Louis Pasteur - Strasbourg I, 2008. http://tel.archives-ouvertes.fr/tel-00338286.

Full text
Abstract:
Nous considérons le problème de l'estimation d'une fonction inconnue en un point fixe à l'aide de données régies par des modèles de régression ou de diffusion. Pour définir le risque associé à l'emploi d'un estimateur et ainsi mesurer la qualité de celui-ci, nous utilisons la fonction de perte liée à l'erreur absolue. Le travail de cette thèse suit l'approche minimax dont l'objectif est de trouver une borne inférieure asymptotique du risque minimax puis de construire un estimateur, dit asymptotiquement efficace, dont le risque maximal atteint asymptotiquement cette borne.
Pour un modèle de régression non paramétrique et hétéroscédastique, où l'écart-type du bruit dépend à la fois du régresseur et de la fonction de régression supposée appartenir à une classe höldérienne faible de régularité connue, nous montrons qu'un estimateur à noyau est asymptotiquement efficace. Lorsque la régularité de la fonction de régression est inconnue, nous obtenons la vitesse de convergence minimax adaptative des estimateurs sur une famille de classes höldériennes. Enfin, pour un modèle de diffusion où la dérive appartient à un voisinage höldérien faible centré en une fonction lipschitzienne, nous présentons la construction d'un estimateur à noyau asymptotiquement efficace.
APA, Harvard, Vancouver, ISO, and other styles
12

Baraud, Yannick. "Sélection de modèles et estimation adaptative dans différents cadres de régression." Paris 11, 1998. http://www.theses.fr/1998PA112002.

Full text
Abstract:
Cette these se consacre a l'estimation non parametrique de fonctions de regression. Plus precisement, on observe les couples (x#i, y#i) i = 1,,n contraints par la relation y#i = s(x#i) + #i. Les variables x#i sont des vecteurs de r#k, les #i des erreurs centrees supposees de meme loi et s la fonction dite de regression qu'il s'agit d'estimer. Nous etudions en particulier le modele autoregressif d'ordre k pour lequel x#i = #t(u#i,, u#i##k#+#1) et y#i = u#i#+#1. Etant donnee une collection d'espaces lineaires de dimension finie (modeles), notre strategie consiste a donner un critere de choix de modeles qui n'est fonction que des observations, et pour lequel l'estimateur des moindres carres sur le modele selectionne admet un risque quadratique proche du risque minimum sur la collection. Contrairement au cadre parametrique classique, en autorisant le nombre et la dimension des modeles a dependre de n, nous construisons ainsi des estimateurs ayant la propriete d'etre simultanement minimax sur la classe des boules de certains espaces de besov sous des conditions minimales d'integrabilite des erreurs. Sous l'hypothese a priori que la fonction s est additive, nous proposons des estimateurs additifs dont les vitesses de convergence minimax sont analogues a celles obtenues lorsque k = 1.
APA, Harvard, Vancouver, ISO, and other styles
13

Attouch, Mohammed Kadi. "Estimation robuste de la fonction de régression pour des variables fonctionnelles." Littoral, 2009. http://www.theses.fr/2009DUNK0227.

Full text
Abstract:
La régression robuste est une analyse de régression possédant la capacité d'être relativement insensible aux larges déviations dues à certaines observations aberrantes. Dans ce cadre, on se propose dans cette thèse d'étudier l'estimation robuste de la fonction de régression, dans le cas où les observations sont à la fois indépendantes, fortement mélangeantes et la co-variable est fonctionnelle. Dans un premier temps, on considère une suite d'observations indépendantes identiquement distribuées. Dans ce contexte, nous établissons la normalité asymptotique d'une famille d'estimateurs robuste de pondération basée sur la méthode du noyau. A titre illustratif, notre résultat est appliqué à la discrimination des courbes, à la prévision des séries temporelles, et à la construction d'un intervalle de confiance. Dans un second temps, nous supposons que les observations sont fortement mélangeantes, et nous établissons la vitesse de convergence presque complète ponctuelle et uniforme de cette famille d'estimateurs ainsi que la normalité asymptotique. Notons, que les axes structurels du sujet, à savoir la "dimensionnalité" et la corrélation des observations, la "dimensionnalité" et la robustesse du modèle, sont bien exploités dans cette étude. De plus, la propriété de la concentration de la mesure de probabilité de la variable fonctionnelle dans des petites boules est utilisée, cette mesure de concentration permet sous certaines hypothèses de proposer une solution originale au problème du fléau de la dimension et ainsi généraliser les résultats déjà obtenus dans le cadre multi varié. Pour illustrer l'extension et l'apport de notre travail, nous explicitons dans des exemples comment nos résultats peuvent être appliqués aux problèmes non standard de la statistique non-paramétrique tel que la prévision de série temporelles fonctionnelles. Nos méthodes sont appliquées à des données réelles telles que l'économie et l'astronomie
The robust regression is an analysis of regression with capacity to be relatively insensitive to the large deviations due to some outliers observations. Within this framework, one proposes in this thesis studied the robust estimate of the function of regression, if the observations are at the same time independent, strongly mixing and the covariate is functional. Initially, on considers a succession of identically distributed independent observations. In this context, we establish the asymptotic normality of a robust family of estimators based on the kernel method. With title illustrative, our result is applied to the discrimination of the curves, the forecast time series, and to the construction of a confidence interval. In the second time, we suppose that the observations are strongly mixing, and we establish the rate of specific almost complete convergence and uniform of this family of estimators as well as asymptotic normality. Let us note, that the axes structural of the subject, namely “dimensionality” and the correlation of the observations, “dimensionality” and the robustness of the model, are well exploited in this study. Moreover, the property of the concentration of the measure of probability of the functional variable in small balls is used, this measure of concentration allows under some assumptions to propose an original solution to the problem of the curse of dimensionality and thus to generalize the results already obtaines in the multivariate framework. To illustrate the extension and the contribution of our work, we show in some examples how our results can be applied to the nonstandard problems of the non-parametric statistics such as the forecast of functional time series. Our methods are applied to real data such as the economy and astronomy
APA, Harvard, Vancouver, ISO, and other styles
14

Camlong-Viot, Christine. "Modèle additif de régression sous des conditions de mélange." Toulouse 3, 2000. http://www.theses.fr/2000TOU30168.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Serot, Isabelle. "Temps local et estimation de régression dans les processus à temps continu." Paris 6, 2002. http://www.theses.fr/2002PA066335.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Fragneau, Christopher. "Estimation dans le modèle de régression monotone single index en grande dimension." Thesis, Paris 10, 2020. http://www.theses.fr/2020PA100069.

Full text
Abstract:
Cette thèse s’inscrit dans le modèle de régression monotone single-index selon lequel une variable réelle Y est liée à un vecteur réel X de taille d, par la relation E[Y|X] = f(aTX) p.s., où la fonction monotone réelle f et aT, la transposée du vecteur a de taille d, sont inconnus. Ce modèle est réputé en économie, médecine et biostatistiques où la monotonie de f est naturelle. Lorsque a est dans S, la sphère unité de dimension d, ma finalité est l’estimation de (a,f) fondée sur n observations de (X,Y) dans le cadre de la grande dimension, où d dépend de n et peut tendre vers l’infini avec n. Le premier Chapitre présente la théorie de l’estimation monotone, de la grande dimension et le modèle de régression single-index. Le second chapitre étudie les minimiseurs des critères population des moindres carrés et du maximum de vraisemblance sur des classes K de couples (b,g) où b est dans un sous-ensemble de S et g est monotone. Cette étude est requise pour la convergence des estimateurs contraints sur K, qui fait l'objet du troisième chapitre. Dans le cadre où d dépend de n et la loi de X est bornée ou sous-Gaussienne, j’établis la vitesse de convergence des estimateurs de f(aT·), a et f dans lecas où (a,f) ∈K, ainsi que la consistance des estimateurs de f(aT·) dans le cas contraire. Le quatrième chapitre propose une méthode d’estimation de (a,f) lorsque X est un vecteur Gaussien. Elle consiste àse placer dans un modèle linéaire mal spécifié, et à estimer son vecteur des paramètres grâce à la méthode du de-sparcified Lasso de Zhang et Zhang (2014). Je prouve que l’estimateur résultant divisé par sa norme Euclidienne est Gaussien et converge vers a, à vitesse paramétrique. Je propose des estimateurs de f(aT·) et f ainsi que leurs vitesses de convergence
The framework of this thesis is the monotone single-index model which assumes that a real variable Y is linked to a d dimensional real vector X through the relationship E[Y|X] = f(aTX) a.s., where the real monotonic function f and aT, the transposed vector of a are unknown. This model is well-known in economics, medecine and biostatistics where the monotonicity of f appears naturally. Given n replications of (X,Y) and assuming that a belongs to S, the d unit dimensional sphere, my main aim is to estimate (a,f) in the high dimensional context, where d is allowed to depend on n and to grow to infinity with n. First Chapter introduces the theory of monotone estimation, the high-dimensional context, and the single-index model. Second Chapter studies the minimizers of least-squares and maximum likelihood population criteria over classes K of couples (b,g) where b belongs to a subset of S and g is monotonic. My results are are needed for constrained estimators convergence purposes over K, the aim of the Third Chapter. In a setting where d depends on n and the distribution of X is eitherbounded or sub-Gaussian, I establish the rates of convergence of the estimators of f(aT·), a and f in case where (a,f) ∈ K, as well as the consistency of estimators of f(aT·), otherwise. Fourth Chapter furnishes an estimation method of (a,f) when X is assumed to be a Gaussian vector. This method fits a mispecified linear model, and estimates its parameter vector thanks to the de-sparcified Lasso method of Zhang and Zhang (2014). I show that the resulting estimator divided by its Euclidean norm is Gaussian and converges to a, at parametric rate. I provide estimators of f(aT·) and f, and I establish their rates of convergence
APA, Harvard, Vancouver, ISO, and other styles
17

Slaoui, Yousri. "Application des méthodes d'approximations stochastiques à l'estimation de la densité et de la régression." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2006. http://tel.archives-ouvertes.fr/tel-00131964.

Full text
Abstract:
L'objectif de cette thèse est d'appliquer les méthodes d'approximations stochastiques à l'estimation de la densité et de la régression. Dans le premier chapitre, nous construisons un algorithme stochastique à pas simple qui définit toute une famille d'estimateurs récursifs à noyau d'une densité de probabilité. Nous étudions les différentes propriétés de cet algorithme. En particulier, nous identifions deux classes d'estimateurs; la première correspond à un choix de pas qui permet d'obtenir un risque minimal, la seconde une variance minimale. Dans le deuxième chapitre, nous nous intéressons à l'estimateur proposé par Révész (1973, 1977) pour estimer une fonction de régression r:x-> E[Y|X=x]. Son estimateur r_n, construit à l'aide d'un algorithme stochastique à pas simple, a un gros inconvénient: les hypothèses sur la densité marginale de X nécessaires pour établir la vitesse de convergence de r_n sont beaucoup plus fortes que celles habituellement requises pour étudier le comportement asymptotique d'un estimateur d'une fonction de régression. Nous montrons comment l'application du principe de moyennisation des algorithmes stochastiques permet, tout d'abord en généralisant la définition de l'estimateur de Révész, puis en moyennisant cet estimateur généralisé, de construire un estimateur récursif br_n qui possède de bonnes propriétés asymptotiques. Dans le troisième chapitre, nous appliquons à nouveau les méthodes d'approximation stochastique à l'estimation d'une fonction de régression. Mais cette fois, plutôt que d'utiliser des algorithmes stochastiques à pas simple, nous montrons comment les algorithmes stochastiques à pas doubles permettent de construire toute une classe d'estimateurs récursifs d'une fonction de régression, et nous étudions les propriétés asymptotiques de ces estimateurs. Cette approche est beaucoup plus simple que celle du deuxième chapitre: les estimateurs construits à l'aide des algorithmes à pas doubles n'ont pas besoin d'être moyennisés pour avoir les bonnes propriétés asymptotiques.
APA, Harvard, Vancouver, ISO, and other styles
18

Sidi, Zakari Ibrahim. "Sélection de variables et régression sur les quantiles." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10081/document.

Full text
Abstract:
Ce travail est une contribution à la sélection de modèles statistiques et plus précisément à la sélection de variables dans le cadre de régression linéaire sur les quantiles pénalisée lorsque la dimension est grande. On se focalise sur deux points lors de la procédure de sélection : la stabilité de sélection et la prise en compte de variables présentant un effet de groupe. Dans une première contribution, on propose une transition des moindres carrés pénalisés vers la régression sur les quantiles (QR). Une approche de type bootstrap fondée sur la fréquence de sélection de chaque variable est proposée pour la construction de modèles linéaires (LM). Dans la majorité des cas, l’approche QR fournit plus de coefficients significatifs. Une deuxième contribution consiste à adapter certains algorithmes de la famille « Random » LASSO (Least Absolute Solution and Shrinkage Operator) au cadre de la QR et à proposer des méthodes de stabilité de sélection. Des exemples provenant de la sécurité alimentaire illustrent les résultats obtenus. Dans le cadre de la QR pénalisée en grande dimension, on établit la propriété d’effet groupement sous des conditions plus faibles ainsi que les propriétés oracles. Deux exemples de données réelles et simulées illustrent les chemins de régularisation des algorithmes proposés. La dernière contribution traite la sélection de variables pour les modèles linéaires généralisés (GLM) via la vraisemblance nonconcave pénalisée. On propose un algorithme pour maximiser la vraisemblance pénalisée pour une large classe de fonctions de pénalité non convexes. La propriété de convergence de l’algorithme ainsi que la propriété oracle de l’estimateur obtenu après une itération ont été établies. Des simulations ainsi qu’une application sur données réelles sont également présentées
This work is a contribution to the selection of statistical models and more specifically in the selection of variables in penalized linear quantile regression when the dimension is high. It focuses on two points in the selection process: the stability of selection and the inclusion of variables by grouping effect. As a first contribution, we propose a transition from the penalized least squares regression to quantiles regression (QR). A bootstrap approach based on frequency of selection of each variable is proposed for the construction of linear models (LM). In most cases, the QR approach provides more significant coefficients. A second contribution is to adapt some algorithms of "Random" LASSO (Least Absolute Shrinkage and Solution Operator) family in connection with the QR and to propose methods of selection stability. Examples from food security illustrate the obtained results. As part of the penalized QR in high dimension, the grouping effect property is established under weak conditions and the oracle ones. Two examples of real and simulated data illustrate the regularization paths of the proposed algorithms. The last contribution deals with variable selection for generalized linear models (GLM) using the nonconcave penalized likelihood. We propose an algorithm to maximize the penalized likelihood for a broad class of non-convex penalty functions. The convergence property of the algorithm and the oracle one of the estimator obtained after an iteration have been established. Simulations and an application to real data are also presented
APA, Harvard, Vancouver, ISO, and other styles
19

Hedli-Griche, Sonia. "Estimation de l'opérateur de régression pour des données fonctionnelles et des erreurs corrélées." Université Pierre Mendès France (Grenoble), 2008. http://www.theses.fr/2008GRE21009.

Full text
Abstract:
Dans les recherches que nous présentons dans ce mémoire, nous étudions le problème de la modélisation non paramétrique lorsque les données statistiques sont des courbes. Plus précisément, nous nous intéressons à des problèmes de prévision à partir d'une variable explicative à valeurs dans un espace de dimension éventuellement infinie. Récemment, des travaux ont été réalisés sur l'estimation fonctionnelle opérationnelle sous des conditions d'indépendance des données fonctionnelles. Dans cette thèse, nous nous sommes affranchi de cette hypothèse en considérant que les données fonctionnelles sont dépendantes et que le processus d'erreur est stationnaire (à courte ou à longue mémoire). Nous avons étudié et estimé l'opérateur de régression sur plusieurs facettes: quand les données fonctionnelles (dépendantes) sont déterministes ou aléatoires, quand le processus d'erreur est à courte ou longue mémoire, la normalité asymptotique quand le processus d'erreur est négativement associé, le choix local/global de la largeur de fenêtre, l'étude de la pertinence de nos résultats théoriques sur des données simulées puis sur des données réelles
In the research work that we present in this thesis, we study the problem of nonparametric modelization when the statistical data are represented by curves. More precisely, we are interested in the problems of prediction from an explanatory random variable that takes values in some, eventually, infinite dimensional space. Recently, some work has been realised in the functional operatoriel estimation under the independence assumptions of the functional data. In this thesis, we consider that the functional data are dependent and that the error process is stationary (with short or long memory). We have studied and estimated the regression operator under different set-ups: when the functional data (dependent) are deterministic or random, when the error process is a short or long memory, the asymptotic normality when the error process is negatively associated, the local/global choice of the bandwidth, the study of the relevancy of our theoretical results to simulated data and then to real data
APA, Harvard, Vancouver, ISO, and other styles
20

Yao, Anne-Françoise. "Un modèle semi-paramétrique pour variables fonctionnelles : la régression inverse fonctionnelle." Toulouse 3, 2001. http://www.theses.fr/2001TOU30122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Saracco, Jérôme. "Contributions à la régression inverse par tranchage : sliced inverse regression (S.I.R.)." Toulouse 3, 1996. http://www.theses.fr/1996TOU30185.

Full text
Abstract:
La regression inverse par tranchage (sliced inverse regression (s. I. R. )) est une methode de regression semiparametrique reposant sur un argument geometrique. Au contraire des autres methodes de regression semiparametrique, elle ne requiert que des temps de calcul informatique tres courts. Dans cette these, apres un panorama de l'etat actuel des travaux sur s. I. R. , nous envisageons deux aspects de cette methode, ainsi qu'une application a l'estimation simplifiee d'un modele de selection. (1) nous developpons une theorie asymptotique basee sur un decoupage non aleatoire en tranches et portant sur la loi asymptotique de la partie parametrique du modele. (2) une extension semiparametrique du modele de selection tobit peut s'interpreter geometriquement dans le cadre de s. I. R. Exploitant cette observation, nous introduisons un estimateur simplifie pour un tel modele, et nous etudions sa convergence en probabilite et en loi. Des simulations, y compris lorsque certaines hypotheses theoriques ne sont pas respectees par les donnees, confirment le bon comportement de notre estimateur. (3) pour le cas d'echantillons de petite taille, l'estimation par tranchage se revele sensible au choix des tranches. Nous proposons deux methodes alternatives a un tranchage particulier fixe par l'utilisateur, l'une est basee sur un argument nonparametrique, et l'autre est basee sur un lissage de plusieurs decoupages en tranches. Nous etablissons diverses proprietes asymptotiques de ces methodes. Nous les comparons aux methodes s. I. R. Existantes par simulations sur des echantillons de 25 et 50 observations. Les methodes que nous proposons se revelent sensiblement meilleures que les methodes anterieures. Nous avons programme l'ensemble des methodes s. I. R. En splus. Nous fournissons une illustration et un descriptif de l'implementation informatique que nous avons realisee, les differentes procedures et fonctions sont disponibles par ftp
APA, Harvard, Vancouver, ISO, and other styles
22

Diack, Cheikh Ahmed Tidiane. "Test de convexité pour une fonction de régression." Toulouse 3, 1997. http://www.theses.fr/1997TOU30165.

Full text
Abstract:
Le cadre de cette these est la construction de tests de convexite pour une fonction de regression dans un modele non-parametrique. Dans un premier temps, nous rappellons quelques proprietes geometriques sur les cones convexes polyhedriques, suivies de generalites sur les tests d'hypotheses lineaires sur la moyenne d'un vecteur gaussien, et sur les splines. Nous definissons par la suite deux tests (de convexite et non-convexite) bases sur des estimateurs splines cubiques de la regression. Nous etudions leurs proprietes asymptotiques. Nous etablissons notamment la convergence des tests, etudions le comportement local pour le test de non-convexite et montrons qu'il est robuste a la non-normalite. Dans la partie qui suit, nous nous inspirons respectivement de yatchew et schlee, pour construire deux autres tests de convexite dans le cadre de notre modele et la aussi, nous etablissons de nouveaux resultats de convergence. Pour terminer, nous faisons une etude comparative des differents tests, une etude basee sur des simulations et sur un exemple de donnees reelles.
APA, Harvard, Vancouver, ISO, and other styles
23

Cherfi, Mohamed. "Estimation par minimum de Ø-divergences." Paris 6, 2010. http://www.theses.fr/2010PA066389.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur les problèmes d’estimation par minimum de -divergence. Dans un premier temps, nous considérons le problème d’estimation pour des modèles paramétriques dans le cas de données censurées. Les méthodes proposées sont basées sur la représentation duale des divergences entre mesures. Nous introduisons de nouveaux critères de sélection de modèles basés sur les divergences qui englobent le critère d’Akaike. Enfin, nous proposons aussi des méthodes d’estimation dans les modèles de régression non-linéaire semi-paramétriques.
APA, Harvard, Vancouver, ISO, and other styles
24

Hamrouni, Zouhir. "Inférence statistique par lissage linéaire local pour une fonction de régression présentant des dicontinuités." Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004840.

Full text
Abstract:
Nous nous intéressons dans cette thèse à l'estimation, dans un cadre non paramétrique, d'unis fonction de régression présentant des discontinuités et, plus précisément aux problèmes de dé tection de ruptures, d'estimation des paramètres de rupture (nombre, localisations, ainplitudesj et de segmentation de la fonction de régression (reconstitution de la fonction). La méthode utilisée est basée sur les propriétés du processsus de saut estimé, y(t), défini en tout i comme lt. Différence entre un estimateur à droite et un estimateur à gauche, ces estimateurs étant obtenus régression linéaire locale. - Dans un premier temps, nous considérons la situation d'une seule discontinuité et étudions les propriétés de l'estimateur de l'amplitude de la discontinuité lorsque la localisation est connue. Nous donnons l'expression de l'erreur quadratique moyenne asymptotique et montrons la convergence et la normalité asymptotique de l'estimateur. Lorsque la localisation r n'est pas connue, nous construisons un estimateur de r à l'aide du processus de déviation locale associé à 7(t) et montrons que cet estimateur converge avec une vitesse en n,-r ou arbitrairement proche de r-r selon le noyau utilisé. Nous proposons ensuite trois tests d'existence d'une rupture : un test strictement local, un test local et un test global, tous trois définis en terme d'une statistique construite à (aide du processus de saut estimé. Concernant le problème d'estimation du nombre de ruptures nous élaborons une procédure permettant à la fois d'estimer le nombre y de ruptures et les localisations rr. . . . Ry. Nous montrons la convergence presque sûre de ces estimateurs et donnons aussi des résultats sur les vitesses de convergence. Enfin nous proposons une méthode de reconstitution d'une fonction de régression présentant des discontinuités basée sur la segmentation des observations. Nous montrons qu'en utilisant la procédure d'estimation du nombre de ruptures et des localisations développée auparavant, nous obtenons un estimateur de la fonction de régression qui a la même vitesse de convergence qu'en (absence de ruptures. Des expérimentations numériques sont fournies pour chacun des problèmes étudiés de manière à mettre en évidence les propriétés des procédures étudiées et leur sensibilité aux divers paramètres
APA, Harvard, Vancouver, ISO, and other styles
25

Colliez, Johan. "Estimation robuste du mouvement dans les séquences d'images basée sur la régression par vecteurs supports." Littoral, 2009. http://www.theses.fr/2009DUNK0231.

Full text
Abstract:
L’une des tâches principales de la vision dynamique par ordinateur consiste à extraire l’information pertinente provenant d’une séquence d’images en utilisant la théorie de la régression et d’ajustement du modèle. Toutefois, la présence de bruit et de points aberrants « outliers » a pour effet d’altérer la tâche d’estimation de la structure du modèle sous-jacent. D’où la nécessité d’employer des estimateurs robustes face aux erreurs inhérentes aux images de scènes naturelles. Dans ce travail, nous proposons un nouvel estimateur robuste basé sur les machines à vecteurs supports. Cet estimateur est une version pondérée de la régression par vecteurs supports. Il assigne une pénalisation hétérogène aux observations selon leur appartenance à la classe « inliers » ou à la classe « outliers ». Des pénalisations « hards » et « softs » ont été considérées et une approche itérative a été appliquée afin d’extraire la structure dominante dans l’ensemble des données. Les nombreux tests simulés indique que l’estimateur robuste par vecteurs supports proposé possède un point de cassure supérieur à 50% améliorant ainsi nettement les performances de la régression par vecteurs supports standard. De plus, il permet d’extraire la structure dominante dans l’ensemble des données avec une bonne résistance face aux structures résiduelles. L’approche de régression robuste a été appliquée à l’estimation du mouvement dans une séquence d’images par flot optique aussi bien que par mise en correspondance
One of the main tasks in computer vision is to extract the relevant information from an images sequence by using the regression and model adjustment theory. However, the presence of noise and ouliers has the effect of altering the task of estimating the structure of the underlying model. Hence, the need of using robust estimators against the errors inherent to natural scenes images. In this work, we propose a new robust estimator based on support vectors machines. This estimator is a weighted version of regression by support vectors. It assigns a heterogeneous penality to observations according that they belong to inliers or outliers classes. Hard and soft penalisations were considered and an iterative approach was applied to extract the dominant structure in the data set. The many simulated sets indicate that the proposed robust estimator by support vectors has a breakdown point above 50% imroving significantly the performance of the standard regression by support vector. Moreover, it permits to extract the dominant structure in the data set with a high resistance to residual structures. The robust regression approach was applied to estimate the movement in images sequence by optic flow as well as by images matching
APA, Harvard, Vancouver, ISO, and other styles
26

Vimond, Myriam. "Inférence statistique par des transformées de Fourier pour des modèles de régression semi-paramétriques." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00185102.

Full text
Abstract:
Dans cette thèse, nous étudions des modèles semi-paramétriques dits de forme invariante. Ces modèles consistent en l'observation d'un nombre fixés de fonctions de régression identiques à un opérateur de déformation paramétriques près. Ce type de modèles trouve des applications dans les problèmes d'alignement de signaux continus (images 2D, rythmes biologiques, ...) ou discrets (electroencéphalogramme, ...). Pour différents groupes de déformations, nous proposons des M-estimateurs pour les paramètres caractérisant les opérateurs associés aux fonctions de régression. Ces estimateurs minimisent ou maximisent des fonctions de contraste, construites à partir de la moyenne synchronisée des transformées de Fourier des données. De plus, pour l'un des modèles étudiés, nous prouvons l'efficacité semi-paramétrique de cet estimateur ainsi défini, et nous proposons un test d'adéquation du modèle de forme invariante construit à partir d'une des fonctions de contraste.
APA, Harvard, Vancouver, ISO, and other styles
27

Taupin, Marie-Luce. "Estimation semi-paramétrique pour le modèle de régression non linéaire avec erreurs sur les variables." Paris 11, 1998. http://www.theses.fr/1998PA112004.

Full text
Abstract:
Dans un modele de regression non lineaire avec erreurs sur les variables, on suppose les variables explicatives sont des variables aleatoires reelles independantes, de densite inconnue, qui sont observees a une erreur additive independantes et gaussienne pres. La fonction de regression est connue a une parametre fini-dimensionnel pres. L'objectif est d'estimer ce parametre dans ce modele semi-parametrique. Nous procedons en deux etapes. Le chapitre 2 est consacree a l'estimation de fonctionnelles lineaires integrales d'une densite dans le modele de convolution. En particulier nous etablissons une borne inferieure du risque quadratique minimax pour l'estimation d'une densite en un point sur la classe des densites obtenues par convolution avec la densite gaussienne standard. Dans le chapitre 3, en utilisant les resultats precedents, nous proposons un critere des moindres carres modifie, base sur l'estimation d'une esperance conditionnelle dependant de la densite inconnue des variables explicatives. Nous montrons que l'estimateur obtenu par minimisation du critere ainsi construit est consistant et que sa vitesse de convergence est d'autant plus rapide que la fonction de regression admet de fortes proprietes de regularite (par rapport aux variables explicatives), et qu'elle est generalement plus lente que la vitesse parametrique n#1#/#2. Neanmoins elle est d'ordre (log n)#r/n pour un certain nombre de fonctions de regressions admettant un prolongement analytique sur le plan complexe.
APA, Harvard, Vancouver, ISO, and other styles
28

Viallon, Vivian. "Processus empiriques, estimation non paramétrique et données censurées." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00119260.

Full text
Abstract:
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.
APA, Harvard, Vancouver, ISO, and other styles
29

Pan, Jingjing. "Estimation des temps de retard et localisation de sources avec des systèmes Radar." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4016/document.

Full text
Abstract:
La localisation de sources (en champ lointain ou en champ proche) et l'estimation des temps de retard ont de nombreuses applications pratiques. Pour localiser une source en champ lointain à partir d'un réseau de capteur, seule la direction d'arrivée (DDA) de la source est nécessaire. Quand les sources se situent dans une situation de champ proche, le front d'onde du signal est sphérique et deux paramètres sont nécessaires pour localiser les sources : la direction d'arrivée et la distance entre la source et le réseau de capteurs. Dans cette thèse, on se focalise sur la localisation de sources (en champ lointain et en champ proche) ainsi sur l'estimation des temps de retard dans le contexte où les signaux sont cohérents, mélangés et avec un faible nombre de réalisation. Tout d'abord, nous proposons de combiner la théorie de la méthode SVR (Support vector regression qui est une méthode de régression à base d'apprentissage supervisée) avec la théorie de la prédiction linéaire avant-arrière. La méthode proposée, appelée FBLP-SVR, est développée pour deux applications : la localisation de sources en champ lointain et l'estimation des temps de retard des échos radar en champ lointain. La méthode développée est évaluée par des simulations et des expérimentations. Nous proposons également une méthode de localisation de sources en champ proche dans le contexte où les signaux sont cohérents et mélangés. La méthode proposée est basée sur une technique de focalisation, de moyennage en sous-bande et sur une méthode à sous-espaces pour l'estimation des DDAs. Ensuite, les distances entre les sources et le réseau de capteur sont estimées avec la méthode du maximum de vraisemblance
Source localization (in far-field or in nearfield) and time-delay estimation have many practical applications. To locate a far-field source from a sensor array, only the direction of arrival (DOA) of the source is necessary. When the sources are in a nearfield situation, the wavefront of the signal is spherical and two parameters are needed to locate the sources: the direction of arrival and the distance between the source and the sensors. In this thesis, we focus on the localization of sources (both in far-field and nearfield) as well as the estimation of time-delay in the context where the signals are coherent, overlapped and with a small number of snapshots. First, we propose to combine the theory of the SVR method (support vector regression, which is a supervised learning-based regression method) with the theory of forward-backward linear prediction (FBLP). The proposed method, called FBLP-SVR, is developed for two applications: far-field source localization and time-delay estimation by using ground penetrating radar. The proposed method is evaluated by simulations and experiments. We also propose a near-field source localization method in the context where the signals are coherent and overlapped. The proposed method is based on a focusing technique, a spatial smoothing preprocessing, and a subspace method in the estimation of DOA. Then, the distances between the sources and sensors are estimated with the maximum likelihood method
APA, Harvard, Vancouver, ISO, and other styles
30

Celisse, Alain. "Sélection de modèle par validation-croisée en estimation de la densité, régression et détection de ruptures." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00346320.

Full text
Abstract:
L'objet de cette thèse est l'étude d'un certain type d'algorithmes de rééchantillonnage regroupés sous le nom de validation-croisée, et plus particulièrement parmi eux, du leave-p-out. Très utilisés en pratique, ces algorithmes sont encore mal compris d'un point de vue théorique, notamment sur un plan non-asymptotique. Notre analyse du leave-p-out s'effectue dans les cadres de l'estimation de densité et de la régression. Son objectif est de mieux comprendre la validation-croisée en fonction du cardinal $p$ de l'ensemble test dont elle dépend. D'un point de vue général, la validation-croisée est destinée à estimer le risque d'un estimateur. Dans notre cas, le leave-$p$-out n'est habituellement pas applicable en pratique, à cause d'une trop grande complexité algorithmique. Pourtant, nous parvenons à obtenir des formules closes (parfaitement calculables) de l'estimateur leave-p-out du risque, pour une large gamme d'estimateurs très employés. Nous envisageons le problème de la sélection de modèle par validation-croisée sous deux aspects. L'un repose sur l'estimation optimale du risque en termes d'un compromis biais-variance, ce qui donne lieu à une procédure d'estimation de densité basée sur un choix de $p$ entièrement fondé sur les données. Une application naturelle au problème des tests multiples est envisagée. L'autre aspect est lié à l'interprétation de l'estimateur validation-croisée comme critère pénalisé. Sur le plan théorique, la qualité de la procédure leave-$p$-out est garantie par des inégalités oracle ainsi qu'un résultat d'adaptativité dans le cadre de l'estimation de densité. Le problème de la détection de ruptures est également abordé au travers d'une vaste étude de simulations, basée sur des considérations théoriques. Sur cette base, nous proposons une procédure entièrement tournée vers le rééchantillonnage, permettant de traiter le cas difficile de données hétéroscédastiques avec une complexité algorithmique raisonnable.
APA, Harvard, Vancouver, ISO, and other styles
31

Bouquiaux, Christel. "Semiparametric estimation for extreme values." Doctoral thesis, Universite Libre de Bruxelles, 2005. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210910.

Full text
Abstract:
Nous appliquons la théorie asymptotique des expériences statistiques à des problèmes liés aux valeurs extrêmes. Quatre modèles semi-paramétriques sont envisagés. Tout d'abord le modèle d'échantillonnage de fonction de répartition de type Pareto. L'index de Pareto est le paramètre d'intérêt tandis que la fonction à variation lente, qui intervient dans la décomposition de la fonction de survie, joue le rôle de nuisance. Nous considérons ensuite des observations i.i.d. de fonction de répartition de type Weibull. Le troisième modèle étudié est un modèle de régression. On considère des couples d'observations $(Y_i,X_i)$ indépendants, les v.a. $X_i$ sont i.i.d. de loi connue et on suppose que la fonction de répartition de la loi de $Y$ conditionnellement à $X$ est de type Pareto, avec une fonction à variation lente et un index $gamma$ qui dépendent de $X$. On fait l'hypothèse que la fonction $gamma$ a une forme quelconque mais connue, qui dépend d'un paramètre $\
Doctorat en sciences, Orientation statistique
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
32

Charlier, Isabelle. "Conditional quantile estimation through optimal quantization." Thesis, Universite Libre de Bruxelles, 2015. http://www.theses.fr/2015BORD0274/document.

Full text
Abstract:
Les applications les plus courantes des méthodes non paramétriques concernent l’estimation d’une fonction de régression (i.e. de l’espérance conditionnelle). Cependant, il est souvent intéressant de modéliser les quantiles conditionnels, en particulier lorsque la moyenne conditionnelle ne permet pas de représenter convenablement l’impact des covariables sur la variable dépendante. De plus, ils permettent d’obtenir des graphiques plus compréhensibles de la distribution conditionnelle de la variable dépendante que ceux obtenus avec la moyenne conditionnelle. À l’origine, la « quantification » était utilisée en ingénierie du signal et de l’information. Elle permet de discrétiser un signal continu en un nombre fini de quantifieurs. En mathématique, le problème de la quantification optimale consiste à trouver la meilleure approximation d’une distribution continue d’une variable aléatoire par une loi discrète avec un nombre fixé de quantifieurs. Initialement utilisée pour des signaux univariés, la méthode a été étendue au cadre multivarié et est devenue un outil pour résoudre certains problèmes en probabilités numériques. Le but de cette thèse est d’appliquer la quantification optimale en norme Lp à l’estimation des quantiles conditionnels. Différents cas sont abordés : covariable uni- ou multidimensionnelle, variable dépendante uni- ou multivariée. La convergence des estimateurs proposés est étudiée d’un point de vue théorique. Ces estimateurs ont été implémentés et un package R, nommé QuantifQuantile, a été développé. Leur comportement numérique est évalué sur des simulations et des données réelles
One of the most common applications of nonparametric techniques has been the estimation of a regression function (i.e. a conditional mean). However it is often of interest to model conditional quantiles, particularly when it is felt that the conditional mean is not representative of the impact of the covariates on the dependent variable. Moreover, the quantile regression function provides a much more comprehensive picture of the conditional distribution of a dependent variable than the conditional mean function. Originally, the “quantization” was used in signal and information theories since the fifties. Quantization was devoted to the discretization of a continuous signal by a finite number of “quantizers”. In mathematics, the problem of optimal quantization is to find the best approximation of the continuous distribution of a random variable by a discrete law with a fixed number of charged points. Firstly used for a one-dimensional signal, the method has then been developed in the multi-dimensional case and extensively used as a tool to solve problems arising in numerical probability. The goal of this thesis is to study how to apply optimal quantization in Lp-norm to conditional quantile estimation. Various cases are studied: one-dimensional or multidimensional covariate, univariate or multivariate dependent variable. The convergence of the proposed estimators is studied from a theoretical point of view. The proposed estimators were implemented and a R package, called QuantifQuantile, was developed. Numerical behavior of the estimators is evaluated through simulation studies and real data applications
APA, Harvard, Vancouver, ISO, and other styles
33

Durot, Cécile. "Asymptotique fine pour l'estimateur isotonique en régression et méthodes de jackknife : applications à la comparaison de courbes de croissance." Paris 11, 1997. http://www.theses.fr/1997PA112007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Dalalyan, Arnak. "Contribution à la statistique des diffusions. Estimation semiparamétrique et efficacité au second ordre.Agrégation et réduction de dimension pour le modèle de régression." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00192080.

Full text
Abstract:
Ce texte constitue une synthèse de mes travaux de recherche menés depuis 2000 en statistique mathématique. Ces travaux s'articulent autour de 4 thèmes: la statistique non paramétrique pour les processus de diffusion, efficacité au second ordre pour l'estimation semiparamétrique, agrégation par des poids exponentiels et réduction de dimension pour la régression non paramétrique.
Le premier chapitre contient une description générale des résultats obtenus en les replaçant dans un contexte historique et en présentant les motivations qui nous ont animées pour étudier ces problèmes. J'y décris également de façon informelle les idées clés des démonstrations.

Au second chapitre, je présente les définitions principales nécessaires pour énoncer de façon rigoureuse les résultats les plus importants. Ce chapitre contient également une discussion plus formelle permettant de mettre en lumière certains aspects théoriques et pratiques de nos résultats.
APA, Harvard, Vancouver, ISO, and other styles
35

Usseglio-Carleve, Antoine. "Estimation de mesures de risque pour des distributions elliptiques conditionnées." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1094/document.

Full text
Abstract:
Cette thèse s'intéresse à l'estimation de certaines mesures de risque d'une variable aléatoire réelle Y en présence d'une covariable X. Pour cela, on va considérer que le vecteur (X,Y) suit une loi elliptique. Dans un premier temps, on va s'intéresser aux quantiles de Y sachant X=x. On va alors tester d'abord un modèle de régression quantile assez répandu dans la littérature, pour lequel on obtient des résultats théoriques que l'on discutera. Face aux limites d'un tel modèle, en particulier pour des niveaux de quantile dits extrêmes, on proposera une nouvelle approche plus adaptée. Des résultats asymptotiques sont donnés, appuyés par une étude numérique puis par un exemple sur des données réelles. Dans un second chapitre, on s'intéressera à une autre mesure de risque appelée expectile. La structure du chapitre est sensiblement la même que celle du précédent, à savoir le test d'un modèle de régression inadapté aux expectiles extrêmes, pour lesquels on propose une approche méthodologique puis statistique. De plus, en mettant en évidence le lien entre les quantiles et expectiles extrêmes, on s'aperçoit que d'autres mesures de risque extrêmes sont étroitement liées aux quantiles extrêmes. On se concentrera sur deux familles appelées Lp-quantiles et mesures d'Haezendonck-Goovaerts, pour lesquelles on propose des estimateurs extrêmes. Une étude numérique est également fournie. Enfin, le dernier chapitre propose quelques pistes pour traiter le cas où la taille de la covariable X est grande. En constatant que nos estimateurs définis précédemment étaient moins performants dans ce cas, on s'inspire alors de quelques méthodes d'estimation en grande dimension pour proposer d'autres estimateurs. Une étude numérique permet d'avoir un aperçu de leurs performances
This PhD thesis focuses on the estimation of some risk measures for a real random variable Y with a covariate vector X. For that purpose, we will consider that the random vector (X,Y) is elliptically distributed. In a first time, we will deal with the quantiles of Y given X=x. We thus firstly investigate a quantile regression model, widespread in the litterature, for which we get theoretical results that we discuss. Indeed, such a model has some limitations, especially when the quantile level is said extreme. Therefore, we propose another more adapted approach. Asymptotic results are given, illustrated by a simulation study and a real data example.In a second chapter, we focus on another risk measure called expectile. The structure of the chapter is essentially the same as that of the previous one. Indeed, we first use a regression model that is not adapted to extreme expectiles, for which a methodological and statistical approach is proposed. Furthermore, highlighting the link between extreme quantiles and expectiles, we realize that other extreme risk measures are closely related to extreme quantiles. We will focus on two families called Lp-quantiles and Haezendonck-Goovaerts risk measures, for which we propose extreme estimators. A simulation study is also provided. Finally, the last chapter is devoted to the case where the size of the covariate vector X is tall. By noticing that our previous estimators perform poorly in this case, we rely on some high dimensional estimation methods to propose other estimators. A simulation study gives a visual overview of their performances
APA, Harvard, Vancouver, ISO, and other styles
36

Chambaz, Antoine. "Segmentation spatiale et sélection de modèle : théorie et applications statistiques." Paris 11, 2003. http://www.theses.fr/2003PA112012.

Full text
Abstract:
Cette thèse trouve sa dynamique dans l'élaboration d'une méthode originale de raffinement de localisation du trafic de téléphonie mobile en zone urbaine pour France Télécom R&D, ainsi que dans l'étude de thèmes théoriques soulevés lors de notre exploration. Notre approche est de nature statistique. Il apparaît que les thèmes centraux de cette thèse sont la segmentation spatiale et la sélection de modèle. Nous introduisons dans un premier temps les données sur lesquelles nous avons fondé notre approche du problème, que nous expliquons à leur lumière. Nous motivons le choix d'un modèle de régression hétéroscédastique. Nous présentons ensuite une démarche non paramétrique par arbres de régression de type CART et ses extensions par ré-échantillonnage Bagging et Boosting dans un cadre de régression homoscédastique. Nous proposons une adaptation de ces techniques au cas hétéroscédastique. Une analyse originale de l'importance des variables y est as~ociée. L'application commentée de notre méthode à divers jeux de données de trafic constitue notre réponse finale au problème initial. Le travail appliqué évoqué plus tôt motive l'étude de la consistance d'une famille d'estimateurs de l'ordre et de la segmentation d'un modèle segmenté. Nous nous consacrons aussi, dans un cadre général de sélection de modèle dans un emboîtement, à l'estimation de l'ordre d'un modèle et aux propriétés de consistance, ainsi qu'aux vitesses de sur- ou sous-estimation. Une approche fonctionnelle, i. E. Une approche pour laquelle les événements d'intérêt sont exprimés en termes d'événements sur la mesure empirique, permet d'unifier et de généraliser une large gamme de résultats antérieurs. Les preuves font appel à une variété de techniques: arguments classiques de minimisation de contraste, concentration, inégalités maximales pour des variables dépendantes, lemme de Stein, pénalisation, Prin- cipes de Grandes et Moyennes Déviations pour la mesure empirique, tour à la Hu ber
We tacke in this thesis the elaboration of an original method that provides refinement of the localization of the mobIle telecommunication traffic in urban area for France Télécom R&D. This work involves both practical and theoretical developments. Our point of view is of statistical nature. The major themes are spatial segmentation and model selection. We first introduce the various datasets from which our approach stems. They cast some light on the original problem. We motivate the choice of an heteroscedastic regression model. We then present a practical nonparametric regression method based on CART regression trees and its Bagging and Boosting extensions by resampling. The latter classical methods are designed for ho- moscedastic models. We propose an adaptation to heteroscedastic ODes, including an original analysis of variable importance. We apply the method to various traffic datasets. The final results are commented. The above practical work motivates the theoretical study of the consistency of a family of estimators of the order of a segmented model and its associated segmentation. We also cope, in a general framework of model select ion in a nested family of models, with the estimation of the order of a model. We are particularly concerned with consistency properties and rates of und er- or overestimation. We tackle the problem at stake with a linear functional approach, i. E. An approach where the events of interest are described as events concerning the empirical measute. This allows to derive general results that gather and enhance earlier ODes. A large range of techniques are involved : classical arguments of M -estimation, concentration, max- imal inequalities for dependent variables, Stein's lemma, penalization, Large and Moderate Deviations Principles for the empirical measure, à la Huber trick
APA, Harvard, Vancouver, ISO, and other styles
37

Venditti, Véronique. "Aspects du principe de maximum d'entropie en modélisation statistique." Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10108.

Full text
Abstract:
Cette thèse présente certains aspects du principe de maximum d'entropie (PME) en tant que principe de modélisation statistique. Nous proposons une définition de ce principe basée sur une notion de l'entropie totalement justifiée en dehors de toute approche subjective, et dont le mécanisme soit facilement abordable et compréhensible. Cette présentation s'articule autour de l'utilisation de ce principe d'un point de vue théorique et d'une application à des données médicales. Il ne s'agit pas dans cette approche de la modélisation statistique de choisir directement la structure statistique que l'on pense la mieux correspondre au phénomène aléatoire étudié. En fait, l'information que l'on possède sur celui-ci est traduite au niveau de la loi des variables qui le représentent. Pour formaliser cette connaissance, on utilise l'association entre des fonctions de ces variables (observables) et les niveaux de leurs espérances (niveaux de contraintes). L'approche proposée du PME par le théorème de concentration, et les démonstrations des formes des lois qui en sont issues, fournissent une présentation homogène de ce principe. Nous précisons de plus les liens existant entre différentes lectures des modèles paramètres de structure exponentielle et leur relecture en tant que modèle de maximum d'entropie. Ainsi, en choisissant d'utiliser des niveaux de contraintes empiriques dans la recherche des équations permettant d'estimer les paramètres des lois obtenues par PME, nous montrons que le mode de calcul alors imposé se trouve être la méthode de maximum de vraisemblance. D'autre part, la présentation d'exemples de relecture de modèles de discrimination illustre bien l'intérêt didactique du PME (en particulier pour la procédure de régression logistique). Enfin, l'utilisation du PME pour la recherche d'un modèle paramètré, sur la base d'une loi empirique ne correspondant visiblement à aucune loi théorique usuelle, illustre le mécanisme d'application du PME.
APA, Harvard, Vancouver, ISO, and other styles
38

Ezzahar, Abdessamad. "Estimation et détection d'un signal contaminé par un bruit autorégressif." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339831.

Full text
Abstract:
Nous considérons un modèle signal plus bruit particulier ou le signal est une combinaison linéaire de suites déterministes données et est contamine par un bruit additif autoregressif d'ordre 1 stationnaire. Nous étudions d'abord des problèmes d'estimation partielle. On analyse les propriétés asymptotiques d'estimateurs de maximum de vraisemblance ou de moindres carres pour les paramétrés du bruit lorsque le signal est complètement connu ou pour les paramètres du signal lorsque l'un des paramètres du bruit est connu. Puis nous examinons le probleme de l'estimation simultanée des paramètres du signal et du bruit. On montre l'existence et l'unicité de l'estimateur de maximum de vraisemblance dont on étudie le comportement asymptotique. De même on considère une methode d'estimation fondée sur une première étape de moindres carres pour l'estimation des paramétrés du signal, et une procédure de maximum de vraisemblance approche. On construit ensuite des tests pour la détection du signal a partir des méthodes d'estimation envisagées précédemment. Les risques associes a ces tests sont analyses de manière précise. Enfin une étude expérimentale par simulation des performances des diverses méthodes est menée
APA, Harvard, Vancouver, ISO, and other styles
39

Martinez, Lopez Carlos Manuel. "Application de la régression en composantes principales au traitement des données acoustiques multifréquence : estimation des abondances du zooplancton." Aix-Marseille 2, 1992. http://www.theses.fr/1992AIX22104.

Full text
Abstract:
L'evaluation quantitative et qualitative de la biomasse planctonique constitue un des objectifs principaux des recherches oceanographiques actuelles sur les flux de matiere. Cette biomasse peut etre estimee, a grande echelle, par des methodes de calcul adaptees au traitement des donnees acoustiques. Une application de la methode de regression en composantes principales (rcp) pour l'estimation des abondances du zooplancton detecte par acoustique multi-frequence est presentee dans ce memoire. Cette methode presente l'avantage de ne pas necessiter de connaitre la reponse de retrodiffusion acoustique de chaque classe de particules. Les performances de la methode ont ete, d'une part, etudiees sur des donnees simulees, en tenant compte du rapport signal/bruit des donnees acoustiques et du type de modele de retrodiffusion individuelle, puis, d'autre part, comparees a celles de l'algorithme des moindres carres avec contrainte de positivite. Les modeles de calibration rcp donnent de bonnes estimations des abondances du zooplancton, et presentent de meilleures performances que la methode nnls, pour toutes les conditions d'analyses. La methode a ete ensuite appliquee a des donnees reelles, provenant d'une population constituee par plusieurs groupes zoologiques. Les resultats montrent que la methode rcp donne de bonnes estimations pour la plupapart des groupes, qu'ils soient definis selon un critere biologique ou par leur taille. L'addition de variables non acoustiques, correlees avec la distribution spatiale des organismes, a la matrice des donnees acoustiques, ameliore les estimations des abondances
APA, Harvard, Vancouver, ISO, and other styles
40

Bouhadjera, Feriel. "Estimation non paramétrique de la fonction de régression pour des données censurées : méthodes locale linéaire et erreur relative." Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0561.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à développer des méthodes robustes et efficaces dans l’estimation non paramétrique de la fonction de régression. Le modèle considéré ici est le modèle censuré aléatoirement à droite qui est le plus utilisé dans différents domaines pratiques. Dans un premier temps, nous proposons un nouvel estimateur de la fonction de régression en utilisant la méthode linéaire locale. Nous étudions sa convergence uniforme presque sûre avec vitesse. Enfin, nous comparons ses performances avec celles de l’estimateur de la régression à noyau classique à l’aide de simulations. Dans un second temps, nous considérons l’estimateur de la fonction de régression par erreur relative (RER en anglais), basé sur la minimisation de l’erreur quadratique relative moyenne. Ainsi, nous établissons la convergence uniforme presque sûre (sur un compact) avec vitesse de l’estimateur défini pour des observations indépendantes et identiquement distribuées. En outre, nous prouvons sa normalité asymptotique en explicitant le terme de variance. Enfin, nous conduisons une étude de simulations pour confirmer nos résultats théoriques et nous appliquons notre estimateur sur des données réelles. Par la suite, nous étudions la convergence uniforme presque sûre (sur un compact) avec vitesse de l’estimateur RER pour des observations soumises à une structure de dépendance du type α-mélange. Une étude de simulation montre le bon comportement de l’estimateur étudié. Des prévisions sur données générées sont réalisées pour illustrer la robustesse de notre estimateur. Enfin, nous établissons la normalité asymptotique de l’estimateur RER pour des observations α-mélangeantes où nous construisons des intervalles de confiance afin de réaliser une étude de simulations qui valide nos résultats. Pour conclure, le fil conducteur de cette modeste contribution, hormis l’analyse des données censurées est la proposition de deux méthodes de prévision alternative à la régression classique. La première approche corrige les effets de bord crée par les estimateurs à noyaux classiques et réduit le biais. Tandis que la seconde est plus robuste et moins affectée par la présence de valeurs aberrantes dans l’échantillon
In this thesis, we are interested in developing robust and efficient methods in the nonparametric estimation of the regression function. The model considered here is the right-hand randomly censored model which is the most used in different practical fields. First, we propose a new estimator of the regression function by the local linear method. We study its almost uniform convergence with rate. We improve the order of the bias term. Finally, we compare its performance with that of the classical kernel regression estimator using simulations. In the second step, we consider the regression function estimator, based on theminimization of the mean relative square error (called : relative regression estimator). We establish the uniform almost sure consistency with rate of the estimator defined for independent and identically distributed observations. We prove its asymptotic normality and give the explicit expression of the variance term. We conduct a simulation study to confirm our theoretical results. Finally, we have applied our estimator on real data. Then, we study the almost sure uniform convergence (on a compact set) with rate of the relative regression estimator for observations that are subject to a dependency structure of α-mixing type. A simulation study shows the good behaviour of the studied estimator. Predictions on generated data are carried out to illustrate the robustness of our estimator. Finally, we establish the asymptotic normality of the relative regression function estimator for α-mixing data. We construct the confidence intervals and perform a simulation study to validate our theoretical results. In addition to the analysis of the censored data, the common thread of this modest contribution is the proposal of two alternative prediction methods to classical regression. The first approach corrects the border effects created by classical kernel estimators and reduces the bias term. While the second is more robust and less affected by the presence of outliers in the sample
APA, Harvard, Vancouver, ISO, and other styles
41

Slaoui, Yousri. "Application des méthodes d'approximation stochastique à l'estimation de la densité et de la régression." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0025.

Full text
Abstract:
L'objectif de cette thèse est d'appliquer les méthodes d'approximation stochastique à l'estimation de la densité et de la régression. Dans le premier chapitre, nous construisons un algorithme stochastique à pas simple qui définit toute une classe d'estimateurs récursifs à noyau d'une densité de probabilité. Nous étudions les différentes propriétés. De cet algorithme. Nous montrons en particulier que les deux estimateurs récursifs à noyau déjà connus correspondent à deux éléments bien particuliers de la classe d'estimateurs définis par notre algorithme stochastique: l'estimateur récursif introduit par Wolwerton et Wagner (1969) correspond à un choix de pas de l'algorithme qui permet d'obtenir un risque quadratique minimal, tandis que celui introduit par Duflo (1997) correspond à un choix de pas qui permet d'obtenir une variance minimale. Dans le deuxième chapitre, nous nous intéressons à l'estimateur proposé par Révész (1973, 1977) pour estimer une fonction de régression r : x f-t lE [YIX = x]. Son estimateur rn, construit à l'a,ide d'un algorithme stochastique à pas simple, a un gros inconvénient : les hypothèses sur la densité marginale de X nécessaires pour établir la vitesse de convergence de rn sont beaucoup plus fortes que celles habituellement requises pour étudier le comportement asymptotique d'un estimateur d'une fonction de régression. Nous montrons comment l'application du principe de moyennisation des algorithmes stochastiques permet, tout d'abord en généralisant la définition de l'estimateur de Révész, puis en moyennisant cet estimateur généralisé, de construire un estimateur récursif rn qui possède de bonnes propriétés asymptotiques. Dans le troisième chapitre, nous appliquons à nouveau les méthodes d'approximation stochastique à l'estimation d'une fonction de régression. Mais cette fois, plutôt que d'utiliser des algorithmes stochastiques à pas simple, nous montrons comment les algorithmes stochastiques à pas doubles permettent de construire toute une classe d'estimateurs récursifs d'une fonction de régression, et nous étudions les propriétés asymptotiques de ces estimateurs. Cette approche est beaucoup plus simple que celle du deuxième chapitre: les estimateurs construits à l'aide des algorithmes à pas doubles n'ont pas besoin d'être moyennisés pour avoir les bonnes propriétés asymptotiques
The objective of this thesis is to apply the stochastic approximation methods to the estimation of a density and of a regression function. Ln the first chapter, we build up a stochastic algorithm with single stepsize, which defines a whole class of recursive kernel estimators of a probability density. We study the properties of this algorithm. We show that the two recursive kernel estimators already known correspond to two particular elements of the class of estimators defined by our stochastic algorithm : the recursive estimator introduced by Wolwerton and Wagner (1969) corresponds to a choice of stepsize of the algorithm which allows to minimize the mean squared error, while the one introduced by Duflo (1997) corresponds to a choice of stepsize which minimizes the variance. Ln the second chapter, we consider the estimator proposed by Révész (1973, 1977) to estimate a regression function r : x f---t lE [YIX = x]. His estimator rn, built up by using a single-time-scale stochastic algorithm, has a big disadvantage : the assumptions on the marginal density of X necessary to establish the convergence rate of r n are much stronger than those usually required to study the asymptotic behavior of an estimator of a regression function. We show how the application of the averaging principle of stochastic algorithms allows, by first generalizing the definition of the estimator of Révész and then by averaging this generalized estimator, to build up a recursive estimator fn which has good asymptotic properties. Ln the third chapter, we still apply stochastic approximation methods to estimate a regression function. But this time, rather than to use single¬time-scale stochastic algorithm, we show how the two-time-scale stochastic algorithms allow to build up a whole class of recursive estimators of a regression function, and we study the asymptotic properties of these estimators. This approach is much easier than the one of the second chapter : the estimators built up using the two-time-scale algorithms do not need to be averaged to have good asymptotic properties
APA, Harvard, Vancouver, ISO, and other styles
42

Sauvé, Marie. "Sélection de modèles en régression non gaussienne : applications à la sélection de variables et aux tests de survie accélérés." Paris 11, 2006. http://www.theses.fr/2006PA112201.

Full text
Abstract:
Cette thèse traite de la sélection de modèles en régression non gaussienne. Notre but est d’obtenir des informations sur une fonction s dont on n’observe qu’un certain nombre de valeurs perturbées par des bruits non nécessairement gaussiens. Dans un premier temps, nous considérons des modèles de fonctions constantes par morceaux associés à une collection de partitions de l’ensemble de définition de s. Nous déterminons un critère des moindres carrés pénalisés qui permet de sélectionner une partition dont l’estimateur associé (de type regressogramme) vérifie une inégalité de type oracle. La sélection d’un modèle de fonctions constantes par morceaux ne conduit pas en général à une bonne estimation de s, mais permet notamment de détecter les ruptures de s. Nous proposons aussi une méthode non linéaire de sélection de variables qui repose sur l’application de plusieurs procédures CART et sur la sélection d’un modèle de fonctions constantes par morceaux. Dans un deuxième temps, nous considérons des modèles de fonctions polynomiales par morceaux, dont les qualités d’approximation sont meilleures. L’objectif est d’estimer s par un polynôme par morceaux dont le degré peut varier d’un morceau à l’autre. Nous déterminons un critère pénalisé qui sélectionne une partition et une série de degrés dont l’estimateur polynomial par morceaux associé vérifie une inégalité de type oracle. Nous appliquons aussi ce résultat pour déterminer les ruptures d’une fonction affine par morceaux. Ce dernier travail est motivé par la détermination d’un intervalle de stress convenable pour les tests de survie accélérés
This thesis deals with model selection in non Gaussian regression. Our aim is to get informations on a function s given only some values perturbed by noises non necessarily Gaussian. In a first part, we consider histogram models (i. E. Classes of piecewise constant functions) associated with a collection of partitions of the set on which s is defined. We determine a penalized least squares criterion which selects a partition whose associated estimator satisfies an oracle inequality. Selecting a histogram model does not always lead to an accurate estimation of s, but allows for example to detect the change-points of s. In order to perform variable selection, we also propose a non linear method which relies on the use of CART and on histogram model selection. In a second part, we consider piecewise polynomial models, whose approximation properties are better. We aim at estimating s with a piecewise polynomial whose degree can vary from region to region. We determine a penalized criterion which selects a partition and a series of degrees whose associated piecewise polynomial estimator satisfies an oracle inequality. We also apply this result to detect the change-points of a piecewise affine function. The aim of this last work is to provide an adequate stress interval for Accelerating Life Test
APA, Harvard, Vancouver, ISO, and other styles
43

Brunel, Victor Emmanuel. "Non parametric estimation of convex bodies and convex polytopes." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066146/document.

Full text
Abstract:
Dans ce travail, nous nous intéressons à l'estimation d'ensembles convexes dans l'espace Euclidien $\R^d$, en nous penchant sur deux modèles. Dans le premier modèle, nous avons à notre disposition un échantillon de $n$ points aléatoires, indépendants et de même loi, uniforme sur un ensemble convexe inconnu. Le second modèle est un modèle additif de régression, avec bruit sous-gaussien, et dont la fonction de régression est l'indicatrice d'Euler d'un ensemble convexe ici aussi inconnu. Dans le premier modèle, notre objectif est de construire un estimateur du support de la densité des observations, qui soit optimal au sens minimax. Dans le second modèle, l'objectif est double. Il s'agit de construire un estimateur du support de la fonction de régression, ainsi que de décider si le support en question est non vide, c'est-à-dire si la fonction de régression est effectivement non nulle, ou si le signal observé n'est que du bruit. Dans ces deux modèles, nous nous intéressons plus particulièrement au cas où l'ensemble inconnu est un polytope convexe, dont le nombre de sommets est connu. Si ce nombre est inconnu, nous montrons qu'une procédure adaptative permet de construire un estimateur atteignant la même vitesse asymptotique que dans le cas précédent. Enfin, nous démontrons que ce même estimateur pallie à l'erreur de spécification du modèle, consistant à penser à tort que l'ensemble convexe inconnu est un polytope. Nous démontrons une inégalité de déviation pour le volume de l'enveloppe convexe des observations dans le premier modèle. Nous montrons aussi que cette inégalité implique des bornes optimales sur les moments du volume manquant de cette enveloppe convexe, ainsi que sur les moments du nombre de ses sommets. Enfin, dans le cas unidimensionnel, pour le second modèle, nous donnons la taille asymptotique minimale que doit faire l'ensemble inconnu afin de pouvoir être détecté, et nous proposons une règle de décision, permettant un test consistant du caractère non vide de cet ensemble
In this thesis, we are interested in statistical inference on convex bodies in the Euclidean space $\R^d$. Two models are investigated. The first one consists of the observation of $n$ independent random points, with common uniform distribution on an unknown convex body. The second one is a regression model, with additive subgaussian noise, where the regression function is the indicator function of an unknown convex body. In the first model, our goal is to estimate the unknown support of the common uniform density of the observed points. In the second model, we aim either to estimate the support of the regression function, or to detect whether this support is nonempty, i.e., the regression function is nonzero. In both models, we investigate the cases when the unknown set is a convex polytope, and when we know the number of vertices. If this number is not known, we propose an adaptive method which allows us to obtain a statistical procedure performing asymptotically as well as in the case of perfect knowledge of that number. In addition, this procedure allows misspecification, i.e., provides an estimator of the unknown set, which is optimal in a minimax sense, even if the unknown set is not polytopal, in the contrary to what may have been thought. We prove a universal deviation inequality for the volume of the convex hull of the observations in the first model. We show that this inequality allows one to derive tight bounds on the moments of the missing volume of this convex hull, as well as on the moments of the number of its vertices. In the one-dimensional case, in the second model, we compute the asymptotic minimal size of the unknown set so that it can be detected by some statistical procedure, and we propose a decision rule which allows consistent testing of whether of that set is empty
APA, Harvard, Vancouver, ISO, and other styles
44

Le, Thi Xuan Mai. "Estimation semi-paramétrique et application à l’évaluation de la biomasse d'anchois." Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0006/document.

Full text
Abstract:
Notre étude est motivée par un problème d'évaluation de la biomasse, c'est à dire de la densité des œufs d'anchois à l'instant de ponte dans le golfe de Biscay-Gascogne. Les données sont les densités, c'est à dire les poids d' œufs d'anchois par unité de surface dans le golfe, collectées lors de la campagne d'échantillonnage de 1994. Le problème consiste à estimer la densité des œufs d'anchois au moment de leur ponte et le taux de mortalité. Jusqu'à présent, ce problème a été résolu en ajustant les données précédentes à un modèle classique de mortalité exponentielle. Notre analyse montre que ce modèle n'est pas adapté aux données à cause de la grande variation spatial de la densité d'œufs au moment de ponte. Or pour les données considérées, les densités A(tj,kj) des œufs au moment de ponte diffèrent de façon aléatoire selon les zones géographiques de kj ponte. Nous proposons de modéliser les A(tj,kj) comme un échantillon issu d'une variable aléatoire d'espérance a0 et ayant une densité de probabilité fA, ce qui conduit au modèle de mortalité étendue (EEM) suivant : Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) Le problème que nous avons à étudier alors est d'estimer les paramètres du modèle et la densité fA. Nous résolvons ce problème en deux étapes; nous commençons par estimer les paramètres par des techniques de régression, puis nous estimons la densité fA en combinant l'estimation non-paramétrique de densité, avec l'estimation du paramètre z0 et avec éventuellement une déconvolution de densités. Les résultats des études en simulations que nous réalisons corroborent les résultats théorique de la consistance
The motivation of this study is to evaluate the anchovy biomass, that is estimate the egg densities at the spawning time and the mortality rate. The data are the anchovy egg densities that are the egg weights by area unit, collected in the Gascogne bay. The problem we are faced is to estimate from these data the egg densities at the spawning time. Until now, this is done by using the classical exponential mortality model. However, such model is inadequate for the data under consideration because of the great spatial variability of the egg densities at the spawning time. They are samples of generated by a r.v whose mathematical expectation is a0 and the probability density function is fA. Therefore, we propose an extended exponential mortality model Y (tj,kj) = A (tj,kj) e-z0tj +e(tj,kj) where A(tj,kj) and e(tj,kj) are i.i.d, with the random variables A and e being assumed to be independent. Then the problem consists in estimating the mortality rate and the probability density of the random variable . We solve this semiparametric estimation problem in two steps. First, we estimate the mortality rate by fitting an exponential mortality model to averaged data. Second, we estimate the density fA by combining nonparametric estimation method with deconvolution technique and estimate the parameter z0. Theoretical results of consistence of these estimates are corroborated by simulation studies
APA, Harvard, Vancouver, ISO, and other styles
45

Maatouk, Hassan. "Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0791/document.

Full text
Abstract:
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée
This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities
APA, Harvard, Vancouver, ISO, and other styles
46

Sabbah, Camille. "Contribution à l'étude des M-estimateurs polynômes locaux." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00509898.

Full text
Abstract:
L'objet de cette thèse est d'établir des résultats asymptotiques pour l'estimateur du quantile conditionnel par la méthode des polynômes locaux ainsi qu'à la généralisation de ces résultats pour les M-estimateurs. Nous étudions ces estimateurs et plus particulièrement leur représentation de Bahadur et leur biais. Nous donnons en outre un résultat sur les intervalles de confiance uniformes construits à partir de cette représentation pour le quantile conditionnel et ses dérivées.
APA, Harvard, Vancouver, ISO, and other styles
47

Nguyen, ThiMongNgoc. "Estimation récursive pour des modèles semi-paramétriques." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14107/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Crambes, Christophe. "Modèles de régression linéaire pour variables explicatives fonctionnelles." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00134003.

Full text
Abstract:
L'analyse des données fonctionnelles constitue une branche de la statistique dont le développement s'est fortement intensifié ces dernières années. Dans cette thèse, on s'intéresse à des problèmes de régression fonctionnelle pour lesquels il s'agit d'expliquer les variations d'une variable d'intérêt réelle à partir d'une variable explicative fonctionnelle, c'est-à-dire à valeur dans un espace de dimension éventuellement infinie. On considère plus précisément des modèles de régression linéaire. Deux types d'estimation sont proposés: l'estimation de quantiles conditionnels et l'estimation de la moyenne conditionnelle (cette dernière étant considérée dans le cas où la variable explicative est non bruitée, puis lorsque celle-ci est soumise à des erreurs de mesure). Dans chaque cas, des estimateurs basés sur les fonctions splines sont proposés, solutions de problèmes de minimisation pénalisés, la pénalisation intervenant pour contourner le problème lié au fait que la variable explicative est à valeurs dans un espace de dimension infinie. Finalement, on s'intéresse aux aspects pratique de cette étude, au moyen de simulations, puis sur un jeu de données réelles concernant la prévision de pics de pollution à l'ozone à Toulouse.
APA, Harvard, Vancouver, ISO, and other styles
49

Pchelintsev, Evgeny. "Estimation paramétrique améliorée pour des modèles régressifs observés sous un bruit avec sauts." Rouen, 2012. http://www.theses.fr/2012ROUES041.

Full text
Abstract:
Cette thèse est consacrée à l'estimation paramétrique des paramètres inconnus des modèles régressifs en temps discret et continu qui sont conditionnellement gaussiens par rapport au processus de bruit non observé. Sur la base d'observations de ces modèles, nous développons des méthodes améliorées par rapport aux estimateurs des moindres carrés classiques pour l'estimation de ces paramètres. Pour les modèles de régression avec les bruits de Lévy et d'Ornstein -- Uhlenbeck, nous obtenons des formules explicites pour le gain minimal dans la précision en moyenne quadratique lors de l'utilisation des estimateurs de shrinkage au lieu des estimateur des moindres carrés. Pour des modèles continus, sont construits les estimateurs améliorés des paramètres en se basant sur données discrètes. Pour un modèle avec le bruit et avec des sauts, nous montrons une minimaxité asymptotique des estimateurs des moindres carrés et des estimateurs de shrinkage proposés au sens du risque robuste. Nous avons aussi effectué une simulation numérique des estimateurs proposés
This thesis is devoted to parametric estimation for discret and continuous time regression models which are conditionally Gaussian with respect to a non-observable process. We consider the problem of estimating the unknown parameter using data governed by regression models. We develop improved methods for parameter estimation of regression models compared to least squares estimates. For regression models with Levy noise and Ornstein -- Uhlenbeck noise, we obtain explicit formulas for the minimal gain in mean square accuracy when using shrinkage estimates instead of the least squares estimates. For continuous models, are built improved estimates of the parameters on discrete data. For the model with noise and with jumps, we establish the asymptotic minimaxity of the least squares estimates and of the proposed shrinkage estimates in the sense of robust risk. We also carry on a simulation study of the proposed estimation procedures
APA, Harvard, Vancouver, ISO, and other styles
50

Dabo-Niang, Sophie. "Sur l'estimation fonctionnelle en dimension infinie : application aux diffusions." Paris 6, 2002. http://www.theses.fr/2002PA066273.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography