To see the other types of publications on this topic, follow the link: Bootstrap (Statistique).

Dissertations / Theses on the topic 'Bootstrap (Statistique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Bootstrap (Statistique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Chauvet, Guillaume Carbon Michel. "Méthodes de Bootstrap en population finie." Rennes : Université Rennes 2, 2008. http://tel.archives-ouvertes.fr/tel-00267689/fr.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bertail, Patrice. "La méthode du Bootstrap : quelques applications et résultats théoriques." Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090023.

Full text
Abstract:
Un chapitre introductif, guide de lecture plus que revue exhaustive, fait le point sur la littérature sur le Bootstrap. Nous nous intéressons ensuite à quelques applications du Bootstrap dans des modèles dynamiques et à ses propriétés théoriques dans le cadre des fonctionnelles différentiables. Adaptant la procédure de ré-échantillonnage des résidus à un problème de test, nous étudions le Bootstrap du test de racine unité et du test de Durbin-Watson. Nous montrons la validité asymptotique de la méthode et analysons ses performances à distances finies par simulations. Par ailleurs nous étudions les propriétés du Bootstrap de fonctionnelles statistiques régulières admettant une limite gaussienne ou non. Nous montrons comment adapter la méthode lorsque la fonctionnelle n'est pas continuement différentiable et n'admet pas une limite gaussienne. Nous donnons des conditions pour que le Bootstrap fournisse des intervalles de confiance corrects au second ordre de façon automatique. Enfin le cadre des plans de ré-échantillonnage échangeables permet de valider l'utilisation d'une forme très générale de Bootstrap dans l'étude de fonctionnelle Fréchet différentiable en un point, pour une métrique indexée par une classe de fonction. Nous construisons un intervalle de confiance correct au second ordre grâce à l'utilisation de deux types de Bootstrap et l'inversion d'un développement d'Edgeworth
APA, Harvard, Vancouver, ISO, and other styles
3

Chauvet, Guillaume. "Méthodes de Bootstrap en population finie." Phd thesis, Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00267689.

Full text
Abstract:
Cette thèse est consacrée aux méthodes de Bootstrap pour unepopulation ?nie. Le premier chapitre introduit quelques rappels sur l'échantillonnage et propose une présentation synthétique des principales méthodes d'estimation de précision. Le chapitre 2 rappelle les méthodes de Bootstrap proposées pour un sondage aléatoire simple et introduit deux nouvelles mé thodes. Le chapitre 3 donne un nouvel algorithme de Bootstrap, consistant pour l'estimation de variance d'un estimateur par substitution dans le cas d'un tirage à forte entropie. Dans le chapitre 4, nous introduisons la notion d'échantillonnage équilibré et proposons un algorithme rapide. Nous montrons que l'algorithme de Bootstrap proposé est également consistant pour l'estimation de variance d'un tirage équilibré à entropie maximale. Le cas d'un échantillonnage complexe et celui d'un redressement est traité au chapitre 5. Une application au Nouveau Recensement de la population est donnée dans le chapitre 6.
APA, Harvard, Vancouver, ISO, and other styles
4

Zabalza-Mezghani, Isabelle. "Analyse statistique et planification d'expérience en ingénierie de réservoir." Pau, 2000. http://www.theses.fr/2000PAUU3009.

Full text
Abstract:
La première partie de cette thèse a pour but la prévision de réponses en production simulées, lorsqu'elles sont influencées par des paramètres contrôlables ou non-contrôlables. La spécificité de notre travail réside dans l'étude d'un paramètre non-contrôlable : le germe géostatistique, qui induit un contexte hétéroscédastique. De ce fait, le recours à une modélisation de la moyenne et de la variance de la réponse s'est avéré essentiel lors de la prédiction. Nous avons proposé deux intervalles de prédiction, l'un faisant appel au reéhantillonnage bootstrap, l'autre non, qui ont fourni d'excellentes prédictions. Un autre objectif de cette première partie était l'utilisation des gradients de la réponse pour améliorer la prédiction. Grâce à une méthode de prédiction bayésienne traitant conjointement réponse et gradients, nous avons mis en évidence l'apport significatif des gradients. Dans la seconde partie de la thèse, consacrée au calage des données dynamiques, l'originalité de notre approche réside dans le recours aux plans d'expérience. Ce problème de calibration d'un modèle de simulation en fonction des données dynamiques revient en fait à minimiser une fonction objectif. Le comportement non-linéaire de la fonction objectif ne pouvant être approché par un polynome, nous avons proposé de coupler la méthode simplex, qui permet de localiser un domaine sur lequel une approximation polynomiale est fondée, à la méthode des plans d'expérience qui permet de construire un modèle analytique de la fonction objectif. Une minimisation de ce modèle fournit alors les valeurs des paramètres qui restituent les données dynamiques. Cette méthodologie met en évidence l'intérêt des plans d'expérience pour le calage, en particulier lorsque les méthodes d'optimisation sont inadaptées du fait d'une non-différentiabilité, comme lors de la mise à jour des modèles géostatistiques discrets. Diverses applications à des cas de gisement illustrent d'ailleurs l'efficacité des méthodes proposées.
APA, Harvard, Vancouver, ISO, and other styles
5

Clémençon, Stéphan. "Résumé des Travaux en Statistique et Applications des Statistiques." Habilitation à diriger des recherches, Université de Nanterre - Paris X, 2006. http://tel.archives-ouvertes.fr/tel-00138299.

Full text
Abstract:
Ce rapport présente brièvement l'essentiel de mon activité de recherche depuis ma thèse de doctorat [53], laquelle visait principalement à étendre l'utilisation des progrès récents de l'Analyse Harmonique Algorithmique pour l'estimation non paramétrique adaptative dans le cadre d'observations i.i.d. (tels que l'analyse par ondelettes) à l'estimation statistique pour des données markoviennes. Ainsi qu'il est éxpliqué dans [123], des résultats relatifs aux propriétés de concentration de la mesure (i.e. des inégalités de probabilité et de moments sur certaines classes fonctionnelles, adaptées à l'approximation non linéaire) sont indispensables pour exploiter ces outils d'analyse dans un cadre probabiliste et obtenir des procédures d'estimation statistique dont les vitesses de convergence surpassent celles de méthodes antérieures. Dans [53] (voir également [54], [55] et [56]), une méthode d'analyse fondée sur le renouvellement, la méthode dite 'régénérative' (voir [185]), consistant à diviser les trajectoires d'une chaîne de Markov Harris récurrente en segments asymptotiquement i.i.d., a été largement utilisée pour établir les résultats probabilistes requis, le comportement à long terme des processus markoviens étant régi par des processus de renouvellement (définissant de façon aléatoire les segments de la trajectoire). Une fois l'estimateur construit, il importe alors de pouvoir quantifier l'incertitude inhérente à l'estimation fournie (mesurée par des quantiles spécifiques, la variance ou certaines fonctionnelles appropriées de la distribution de la statistique considérée). A cet égard et au delà de l'extrême simplicité de sa mise en oeuvre (puisqu'il s'agit simplement d'eectuer des tirages i.i.d. dans l'échantillon de départ et recalculer la statistique sur le nouvel échantillon, l'échantillon bootstrap), le bootstrap possède des avantages théoriques majeurs sur l'approximation asymptotique gaussienne (la distribution bootstrap approche automatiquement la structure du second ordre dans le développement d'Edegworth de la distribution de la statistique). Il m'est apparu naturel de considérer le problème de l'extension de la procédure traditionnelle de bootstrap aux données markoviennes. Au travers des travaux réalisés en collaboration avec Patrice Bertail, la méthode régénérative s'est avérée non seulement être un outil d'analyse puissant pour établir des théorèmes limites ou des inégalités, mais aussi pouvoir fournir des méthodes pratiques pour l'estimation statistique: la généralisation du bootstrap proposée consiste à ré-échantillonner un nombre aléatoire de segments de données régénératifs (ou d'approximations de ces derniers) de manière à imiter la structure de renouvellement sous-jacente aux données. Cette approche s'est révélée également pertinente pour de nombreux autres problèmes statistiques. Ainsi la première partie du rapport vise essentiellement à présenter le principe des méthodes statistiques fondées sur le renouvellement pour des chaînes de Markov Harris. La seconde partie du rapport est consacrée à la construction et à l'étude de méthodes statistiques pour apprendre à ordonner des objets, et non plus seulement à les classer (i.e. leur aecter un label), dans un cadre supervisé. Ce problème difficile est d'une importance cruciale dans de nombreux domaines d' application, allant de l'élaboration d'indicateurs pour le diagnostic médical à la recherche d'information (moteurs de recherche) et pose d'ambitieuses questions théoriques et algorithmiques, lesquelles ne sont pas encore résolues de manière satisfaisante. Une approche envisageable consiste à se ramener à la classification de paires d'observations, ainsi que le suggère un critère largement utilisé dans les applications mentionnées ci-dessus (le critère AUC) pour évaluer la pertinence d'un ordre. Dans un travail mené en collaboration avec Gabor Lugosi et Nicolas Vayatis, plusieurs résultats ont été obtenus dans cette direction, requérant l'étude de U-processus: l'aspect novateur du problème résidant dans le fait que l'estimateur naturel du risque a ici la forme d'une U-statistique. Toutefois, dans de nombreuses applications telles que la recherche d'information, seul l'ordre relatif aux objets les plus pertinents importe véritablement et la recherche de critères correspondant à de tels problèmes (dits d'ordre localisé) et d'algorithmes permettant de construire des règles pour obtenir des 'rangements' optimaux à l'égard de ces derniers constitue un enjeu crucial dans ce domaine. Plusieurs développements en ce sens ont été réalisés dans une série de travaux (se poursuivant encore actuellement) en collaboration avec Nicolas Vayatis. Enfin, la troisième partie du rapport reflète mon intérêt pour les applications des concepts probabilistes et des méthodes statistiques. Du fait de ma formation initiale, j'ai été naturellement conduit à considérer tout d'abord des applications en finance. Et bien que les approches historiques ne suscitent généralement pas d'engouement dans ce domaine, j'ai pu me convaincre progressivement du rôle important que pouvaient jouer les méthodes statistiques non paramétriques pour analyser les données massives (de très grande dimension et de caractère 'haute fréquence') disponibles en finance afin de détecter des structures cachées et en tirer partie pour l'évaluation du risque de marché ou la gestion de portefeuille par exemple. Ce point de vue est illustré par la brève présentation des travaux menés en ce sens en collaboration avec Skander Slim dans cette troisième partie. Ces dernières années, j'ai eu l'opportunité de pouvoir rencontrer des mathématiciens appliqués et des scientifiques travaillant dans d'autres domaines, pouvant également bénéficier des avancées de la modélisation probabiliste et des méthodes statistiques. J'ai pu ainsi aborder des applications relatives à la toxicologie, plus précisément au problème de l'évaluation des risque de contamination par voie alimentaire, lors de mon année de délégation auprès de l'Institut National de la Recherche Agronomique au sein de l'unité Metarisk, unité pluridisciplinaire entièrement consacrée à l'analyse du risque alimentaire. J'ai pu par exemple utiliser mes compétences dans le domaine de la modélisation maarkovienne afin de proposer un modèle stochastique décrivant l'évolution temporelle de la quantité de contaminant présente dans l'organisme (de manère à prendre en compte à la fois le phénomène d'accumulation du aux ingestions successives et la pharmacocinétique propre au contaminant régissant le processus d'élimination) et des méthodes d'inférence statistique adéquates lors de travaux en collaboration avec Patrice Bertail et Jessica Tressou. Cette direction de recherche se poursuit actuellement et l'on peut espérer qu'elle permette à terme de fonder des recommandations dans le domaine de la santé publique. Par ailleurs, j'ai la chance de pouvoir travailler actuellement avec Hector de Arazoza, Bertran Auvert, Patrice Bertail, Rachid Lounes et Viet-Chi Tran sur la modélisation stochastique de l'épidémie du virus VIH à partir des données épidémiologiques recensées sur la population de Cuba, lesquelles constituent l'une des bases de données les mieux renseignées sur l'évolution d'une épidémie de ce type. Et bien que ce projet vise essentiellement à obtenir un modèle numérique (permettant d'effectuer des prévisions quant à l'incidence de l'épidémie à court terme, de manière à pouvoir planifier la fabrication de la quantité d'anti-rétroviraux nécéssaire par exemple), il nous a conduit à aborder des questions théoriques ambitieuses, allant de l'existence d'une mesure quasi-stationnaire décrivant l'évolution à long terme de l'épidémie aux problèmes relatifs au caractère incomplet des données épidémiologiques disponibles. Il m'est malheureusement impossible d'évoquer ces questions ici sans risquer de les dénaturer, la présentation des problèmes mathématiques rencontrés dans ce projet mériterait à elle seule un rapport entier.
APA, Harvard, Vancouver, ISO, and other styles
6

Kersaudy, Pierric. "Modélisation statistique de l'exposition humaine aux ondes radiofréquences." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1120/document.

Full text
Abstract:
L'objectif de cette thèse est de traiter la problématique de la caractérisation et du traitement de la variabilité de l'exposition humaine aux ondes radio à travers l'utilisation de la dosimétrie numérique. En effet, si les progrès dans le domaine du calcul hautes performances ont contribué à significativement réduire les temps de simulation pour l'évaluation de l'exposition humaine, ce calcul du débit d'absorption spécifique reste un processus coûteux en temps. Avec la grande variabilité des usages, cette contrainte fait que la prise en compte de l'influence de paramètres d'entrée aléatoires sur l'exposition ne peut se faire par des méthodes classiques telles que les simulations de Monte Carlo. Nous proposons dans ces travaux deux approches pour répondre à cette problématique. La première s'appuie sur l'utilisation et l'hybridation de méthodes de construction de modèles de substitution afin d'étudier l'influence globale des paramètres d'entrée. La deuxième vise à l'évaluation efficace et parcimonieuse des quantiles à 95% des distributions de sortie et s'appuie sur le développement d'une méthode de planification d'expériences adaptative et orientée couplée à la construction de modèles de substitution. Les méthodes proposées dans ce manuscrit sont comparées et testées sur des exemples analytiques et ensuite appliquées à des problèmes concrets issus de la dosimétrie numérique
The purpose of this thesis is to deal with the problem of the management and the characterization of the variability of the human exposure to radio frequency waves through the use of the numerical dosimetry. As a matter of fact, if the recent advances in the high performance computing domain led to reduce significantly the simulation duration for the evaluation of the human exposure, this computation of the specific absorption rate remains a time-consuming process. With the variability of the usage, this constraint does not allow the analysis of the influence of random input parameters on the exposure to be achieved with classical approaches such as Monte Carlo simulations. In this work, two approaches are proposed to address this problem. The first one is based on the use and the hybridization of construction methods of surrogate models in order to study the global influence of the input parameters. The second one aims at assessing efficiently the 95th-percentiles of the output distributions in a parcimonous way. It is based on the development of an adaptive and oriented methodology of design of experiments combined with the construction of surrogate models. In this manuscript, the proposed methods are compared and tested on analytical examples and then applicated to full-scale problems from the numerical dosimetry
APA, Harvard, Vancouver, ISO, and other styles
7

Richardot, Philippe. "Differents outils pour la discrimination entre deux groupes." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Ben, Ishak Anis. "Sélection de variables par les machines à vecteurs supports pour la discrimination binaire et multiclasse en grande dimension." Aix-Marseille 2, 2007. http://www.theses.fr/2007AIX22067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Flachaire, Emmanuel. "Les méthodes du bootstrap et l'inférence robuste à l'hétéroscédasticité." Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX24010.

Full text
Abstract:
La qualité de l'analyse économétrique dépend en tout état de cause de la fiabilité des statistiques de tests employées. L'interprétation nécessite de connaître les distributions de probabilité de celles-ci. Malheureusement, dans la pratique ces lois sont la plupart du temps inconnues, à moins de faire des hypothèses fortes et difficilement vérifiables. On utilise plutôt des approximations, dont la précision est déterminante. Si on dispose de suffisamment d'observations, la loi donnée par les développements asymptotiques à l'ordre dominant est souvent une bonne approximation. Mais s'il y a trop peu de données, les tests peuvent être faussés. Les méthodes du bootstrap permettent d'obtenir en général une meilleure approximation de la vraie loi de la statistique. Ces méthodes utilisent souvent la puissance de calculs des ordinateurs. Elles remplacent des hypothèses contraignantes par des millions d'opérations arithmétiques. Dans cette thèse, nous étudions les performances numériques des méthodes du bootstrap dans le cadre des modèles de régression hétéroscédastiques. Il existe deux méthodes appropriées : le bootstrap par paires et le wild bootstrap. Les résultats expérimentaux montrent que la fiabilité des tests est améliorée, sans toutefois qu'elle devienne satisfaisante dans certains cas. Nous en proposons alors des versions améliorées. Grâce à ces dernières, nous montrons que les tests sont fiables, même pour des échantillons de petite taille.
APA, Harvard, Vancouver, ISO, and other styles
10

Ciolek, Gabriela. "Bootstrap and uniform bounds for Harris Markov chains." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT024.

Full text
Abstract:
Cette thèse se concentre sur certaines extensions de la théorie des processus empiriques lorsque les données sont Markoviennes. Plus spécifiquement, nous nous concentrons sur plusieurs développements de la théorie du bootstrap, de la robustesse et de l’apprentissage statistique dans un cadre Markovien Harris récurrent positif. Notre approche repose sur la méthode de régénération qui s’appuie sur la décomposition d’une trajectoire de la chaîne de Markov atomique régénérative en blocs d’observations indépendantes et identiquement distribuées (i.i.d.). Les blocs de régénération correspondent à des segments de la trajectoire entre des instants aléatoires de visites dans un ensemble bien choisi (l’atome) formant une séquence de renouvellement. Dans la premiére partie de la thèse nous proposons un théorème fonctionnel de la limite centrale de type bootstrap pour des chaînes de Markov Harris récurrentes, d’abord dans le cas de classes de fonctions uniformément bornées puis dans un cadre non borné. Ensuite, nous utilisons les résultats susmentionnés pour obtenir unthéorème de la limite centrale pour des fonctionnelles Fréchet différentiables dans un cadre Markovien. Motivés par diverses applications, nous discutons la manière d’étendre certains concepts de robustesse à partir du cadre i.i.d. à un cas Markovien. En particulier, nous considérons le cas où les données sont des processus Markoviens déterministes par morceaux. Puis, nous proposons des procédures d’échantillonnage résiduel et wild bootstrap pour les processus périodiquement autorégressifs et établissons leur validité. Dans la deuxième partie de la thèse, nous établissons des versions maximales d’inégalités de concentration de type Bernstein, Hoeffding et des inégalités de moments polynomiales en fonction des nombres de couverture et des moments des temps de retour et des blocs. Enfin, nous utilisons ces inégalités sur les queues de distributions pour calculer des bornes de généralisation pour une estimation d’ensemble de volumes minimum pour les chaînes de Markov régénératives
This thesis concentrates on some extensions of empirical processes theory when the data are Markovian. More specifically, we focus on some developments of bootstrap, robustness and statistical learning theory in a Harris recurrent framework. Our approach relies on the regenerative methods that boil down to division of sample paths of the regenerative Markov chain under study into independent and identically distributed (i.i.d.) blocks of observations. These regeneration blocks correspond to path segments between random times of visits to a well-chosen set (the atom) forming a renewal sequence. In the first part of the thesis we derive uniform bootstrap central limit theorems for Harris recurrent Markov chains over uniformly bounded classes of functions. We show that the result can be generalized also to the unbounded case. We use the aforementioned results to obtain uniform bootstrap central limit theorems for Fr´echet differentiable functionals of Harris Markov chains. Propelledby vast applications, we discuss how to extend some concepts of robustness from the i.i.d. framework to a Markovian setting. In particular, we consider the case when the data are Piecewise-determinic Markov processes. Next, we propose the residual and wild bootstrap procedures for periodically autoregressive processes and show their consistency. In the second part of the thesis we establish maximal versions of Bernstein, Hoeffding and polynomial tail type concentration inequalities. We obtain the inequalities as a function of covering numbers and moments of time returns and blocks. Finally, we use those tail inequalities toderive generalization bounds for minimum volume set estimation for regenerative Markov chains
APA, Harvard, Vancouver, ISO, and other styles
11

Liquet, Benoit. "Sélection de modèles semi-paramétriques." Bordeaux 2, 2002. http://www.theses.fr/2002BOR20958.

Full text
Abstract:
Cette thèse développe des méthodes de sélection de modèles pour l'application en Bio-stastistique. Dans la première partie, nous proposons une méthode et un programme de correction du niveau de signification d'un test lorsque plusieurs codages d'une variable explicative sont essayés. La deuxième partie de la thèse est consacrée au développement d'un critère d'information général permettant de sélectionner un estimateur parmi une famille d'estimateurs semi-paramétriques. Le critère que nous proposons est basé sur l'estimation par bootstrap de l'information de Kullback-Leibler. Enfin, la troisième partie présente un critère de sélection en présence des données incomplètes. Ce critère, construit sur l'espérance de la log-vraisemblance observée, permet en particulier de sélectionner le paramètre de lissage dans l'estimation lisse de la fonction de risque et de choisir entre des modèles stratifiés et des modèles à risques proportionnels.
APA, Harvard, Vancouver, ISO, and other styles
12

Lapenta, Elia. "Three Essays in Hypothesis Testing." Thesis, Toulouse 1, 2020. http://www.theses.fr/2020TOU10053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Ciolek, Gabriela. "Bootstrap and uniform bounds for Harris Markov chains." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT024/document.

Full text
Abstract:
Cette thèse se concentre sur certaines extensions de la théorie des processus empiriques lorsque les données sont Markoviennes. Plus spécifiquement, nous nous concentrons sur plusieurs développements de la théorie du bootstrap, de la robustesse et de l’apprentissage statistique dans un cadre Markovien Harris récurrent positif. Notre approche repose sur la méthode de régénération qui s’appuie sur la décomposition d’une trajectoire de la chaîne de Markov atomique régénérative en blocs d’observations indépendantes et identiquement distribuées (i.i.d.). Les blocs de régénération correspondent à des segments de la trajectoire entre des instants aléatoires de visites dans un ensemble bien choisi (l’atome) formant une séquence de renouvellement. Dans la premiére partie de la thèse nous proposons un théorème fonctionnel de la limite centrale de type bootstrap pour des chaînes de Markov Harris récurrentes, d’abord dans le cas de classes de fonctions uniformément bornées puis dans un cadre non borné. Ensuite, nous utilisons les résultats susmentionnés pour obtenir unthéorème de la limite centrale pour des fonctionnelles Fréchet différentiables dans un cadre Markovien. Motivés par diverses applications, nous discutons la manière d’étendre certains concepts de robustesse à partir du cadre i.i.d. à un cas Markovien. En particulier, nous considérons le cas où les données sont des processus Markoviens déterministes par morceaux. Puis, nous proposons des procédures d’échantillonnage résiduel et wild bootstrap pour les processus périodiquement autorégressifs et établissons leur validité. Dans la deuxième partie de la thèse, nous établissons des versions maximales d’inégalités de concentration de type Bernstein, Hoeffding et des inégalités de moments polynomiales en fonction des nombres de couverture et des moments des temps de retour et des blocs. Enfin, nous utilisons ces inégalités sur les queues de distributions pour calculer des bornes de généralisation pour une estimation d’ensemble de volumes minimum pour les chaînes de Markov régénératives
This thesis concentrates on some extensions of empirical processes theory when the data are Markovian. More specifically, we focus on some developments of bootstrap, robustness and statistical learning theory in a Harris recurrent framework. Our approach relies on the regenerative methods that boil down to division of sample paths of the regenerative Markov chain under study into independent and identically distributed (i.i.d.) blocks of observations. These regeneration blocks correspond to path segments between random times of visits to a well-chosen set (the atom) forming a renewal sequence. In the first part of the thesis we derive uniform bootstrap central limit theorems for Harris recurrent Markov chains over uniformly bounded classes of functions. We show that the result can be generalized also to the unbounded case. We use the aforementioned results to obtain uniform bootstrap central limit theorems for Fr´echet differentiable functionals of Harris Markov chains. Propelledby vast applications, we discuss how to extend some concepts of robustness from the i.i.d. framework to a Markovian setting. In particular, we consider the case when the data are Piecewise-determinic Markov processes. Next, we propose the residual and wild bootstrap procedures for periodically autoregressive processes and show their consistency. In the second part of the thesis we establish maximal versions of Bernstein, Hoeffding and polynomial tail type concentration inequalities. We obtain the inequalities as a function of covering numbers and moments of time returns and blocks. Finally, we use those tail inequalities toderive generalization bounds for minimum volume set estimation for regenerative Markov chains
APA, Harvard, Vancouver, ISO, and other styles
14

Fahmi, Ahmed. "Contribution à une théorie de l'investissement immatériel : le cas de la gestion de la qualité totale." Dijon, 1999. http://www.theses.fr/1999DIJOE013.

Full text
Abstract:
La recherche a pour objet la gestion de la qualité totale (GQT) dans l'entreprise. Son objectif est d'élaborer un modèle explicatif de la GQT et, à travers lui, d'appréhender le rôle de l'investissement immatériel dans la formation de la valeur économique. Deux questions en définissent la conception: quels sont les facteurs qui expliquent l'adoption de la GQT, en tant que mode d'organisation interne et quelles sont les caractéristiques organisationnelles de la GQT qui assurent sa contribution à la création de la valeur. La thèse s'appuie sur une démarche hypothético-déductive, avec l'élaboration d'un modèle explicatif et l'application d'une méthode de validation des énoncés. Au plan théorique, elle s'inscrit dans le cadre des théories contractuelles des organisations. Le modèle élaboré permet d'énoncer 12 hypothèses, dont 9 relatives aux facteurs explicatifs de l'adoption de la GQT et 3 touchant aux déterminants de son efficacité. Au plan empirique, la recherche utilise, à titre d'illustration, l'étude de cas et, au titre de la validation, les méthodes de corrélation canonique et du bootstrap, appliquées à un échantillon de 171 entreprises de plus de 500 salariés.
APA, Harvard, Vancouver, ISO, and other styles
15

Jouini, Jamel. "Approche économétrique des modèles avec changements structurels : quelques contributions." Aix-Marseille 2, 2004. http://www.theses.fr/2004AIX24012.

Full text
Abstract:
Cette thèse porte sur l'étude empirique des ruptures structurelles pouvant affecter des séries économiques et financières. Nous nous sommes limités, dans un premier temps, à définir les modèles à changement de régimes et à rappeler les principaux résultats disponibles dans la littérature économétrique et statistique. Ensuite, nous avons présenté ce que nous pensons être la contribution originale de notre manuscrit à l'état de l'art. En effet, nous avons d'abord commencé par une discussion détaillée des ruptures structurelles en adoptant des approches paramétrique et non paramétrique. Alors que la première approche aborde le problème d'instabilité dans le domaine temporel en découvrant les dates de rupture existant dans les séries, l'approche non paramétrique basée sur la théorie du spectre évolutif de Priestley, relâchant l'hypothèse classique de stationnarité, possède la particularité de fournir simultanément les caractéristiques de l'instabilité dans les domaines temporel et fréquentiel en localisant les fréquences instables et les dates à partir desquelles ont eu lieu ces instabilités. Le fait que l'inférence basée sur la théorie de distribution asymptotique puisse ne pas être fiable à distance finie nous a motivé pour proposer des procédures alternatives, dans le cadre du bootstrap, permettant de surmonter efficacement ces problèmes. Le document s'est achevé sur une étude traitant un nouveau thème puisqu'il s'agit d'examiner simultanément les changements structurels et la mémoire longue. Le but est de modéliser les séries à l'aide d'un modèle pouvant rendre compte des deux concepts à la fois, et ce pour déterminer l'effet de l'un sur l'autre
This thesis explores the empirical evidence of the instability by uncovering structural breaks in economic and financial time series. In a first time, we were defined the structural change models and reviewed the most important results available in the econometric and statistical literature. Then, we were presented the main contributions of the thesis. Indeed, we were first proposed a detailed discussion of structural breaks in time series models based on parametric and nonparametric approaches. While the first approach broaches the instability problem in the time domain by uncovering structural breaks in time series, the nonparametric approach based on the Priestley evolutionary spectra, generalizing the usual definition of spectra for stationary processes, provides simultaneously the instability characteristics in the time and frequency domains by locating the unstable frequencies and the associated dates. We were proposed the use of bootstrap in connection of testing for structural breaks. The motivation for this lies in the fact that the asymptotic distribution theory of many of the break tests presented in the literature may not always be particularly useful in small-sample situations. The bootstrap turns out to be a very useful tool in that it allows surmounting efficiently these problems. The thesis was finally taken up a problem that has received plenty of attention in the recent time series literature: the relationship between structural breaks and long memory. The goal is to model the series with a process that takes into account the two concepts at the same time to investigate the effect of one on the other
APA, Harvard, Vancouver, ISO, and other styles
16

Diop, Aba. "Inférence statistique dans le modèle de régression logistique avec fraction immune." Phd thesis, Université de La Rochelle, 2012. http://tel.archives-ouvertes.fr/tel-00829844.

Full text
Abstract:
Les modèles linéaires généralisés sont une généralisation des modèles de régression linéaire, et sont très utilisés dans le domaine du vivant. Le modèle de régression logistique, l'un des modèles de cette classe, très souvent utilisé dans les études biomédicales demeure le modèle de régression le plus approprié quand il s'agit de modéliser une variable discrète de nature binaire. Dans cette thèse, nous nous intéressons au problème de l'inférence statistique dans le modèle de régression logistique, en présence d'individus immunes dans la population d'étude.Dans un premier temps, nous considérons le problème de l'estimation dans le modèle de régression logistique en présence d'individus immunes, qui entre dans le cadre des modèles de régression à excès de zéros (ou zéro-inflatés). Un individu est dit immune s'il n'est pas exposé à l'événement d'intérêt. Le statut d'immunité est inconnu sauf si l'événement d'intérêt a été observé. Nous développons une méthode d'estimation par maximum de vraisemblance en proposant une modélisation conjointe de l'immunité et des risques d'infection. Nous établissons d'abord l'identifiabilité du modèle proposé. Puis, nous montrons l'existence de l'estimateur du maximum de vraisemblance des paramètres de ce modèle. Nous montrons ensuite,la consistance de cet estimateur, et nous établissons sa normalité asymptotique. Enfin, nous étudions, au moyen de simulations, leur comportement sur des échantillons de taille finie.Dans un deuxième temps, nous nous intéressons à la construction de bandes de confiance simultanées pour la probabilité d'infection, dans le modèle de régression logistique avec fraction immune. Nous proposons trois méthodes de constructions de bandes de confiance pour la fonction de régression. La première méthode (méthodede Scheffé) utilise la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance, et une approximation par une loi du khi deux pour approcher le quantile nécessaire à la construction des bandes. La deuxième méthode utilise également la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance et est basée sur une égalité classique de (Landau & Sheep 1970). La troisième méthode (méthode bootstrap) repose sur des simulations, pour estimer le quantile approprié de la loi du supremum d'un processus gaussien. Enfin, nous évaluons, au moyen de simulations, leurs propriétés sur des échantillons de taille finie.Enfin, nous appliquons les résultats de modélisation à des données réelles surla dengue. Il s'agit d'une maladie vectorielle tropicale à transmission strictement inter-humaine. Les résultats montrent que les probabilités d'infection estimées à partir de notre approche de modélisation sont plus élevées que celles obtenues à partir d'un modèle de régression logistique standard qui ne tient pas compte d'une possible immunité. En particulier, les estimations fournies par notre approche suggèrent que le sous-poids constitue un facteur de risque majeur de l'infection par la dengue, indépendamment de l'âge.
APA, Harvard, Vancouver, ISO, and other styles
17

Carcreff, Joëlle. "La qualité de l'information comptable rapportée par les banques de données : étude du cas français." Lille 2, 2001. http://www.theses.fr/2001LIL20014.

Full text
Abstract:
Un courant de littérature sur la question de la qualité de l'information des entreprises fournie par des bases de données réputées aux U. S. A. , montre que de nombreuses variables boursières, financières ou comptables sont biaisées à la hausse ou à la baisse selon le fichier américain utilisé. Dans ce cadre de recherche, notre objectif est de voir si l'information comptable rapportée par 3 banques de données présentes en France, est également touchée par ce qui est appelé le biais "base de données". Il est ensuite de voir qu'elles en sont les conséquences dans les résultats empiriques obtenus en recherche comptable appliquée au cas français. Dans un premier temps, nous montrons que de nombreux postes des états financiers sont significativement différents entre les 3 fichiers. Trois principales sources de disparité sont décelées mais il ne ressort pas que le phénomène des erreurs est significatif. .
A current of literature about the quality of the firms'information provided by famous databases in the U. S. A. , shows that many financial or accounting variables are biased depending upon the file used. Within this framework of research, our objective is to see if the accounting information included in 3 databases present in France, is also concerned with what is called the "database" bias. The question is then to see what are the consequences of this bias in the empirical results obtained in accounting research applied to the French case. Firstable, we evidence that many items of the financial statements are significantly different between the 3 files involved. Three major sources of discrepancy are detected but the phenomenon of the errors is not significant. .
APA, Harvard, Vancouver, ISO, and other styles
18

Juan, Sandrine. "Les modélisations économétriques d'estimation de coût dans l'industrie automobile : l'apport des techniques de bootstrap." Dijon, 1999. http://www.theses.fr/1999DIJOE023.

Full text
Abstract:
La recherche porte sur l'apport des modélisations économétriques dans l'évaluation des coûts industriels, appliquée au secteur automobile. Les premiers travaux consistent en une revue de la littérature sur l'analyse des coûts des entreprises industrielles. Celle-ci conduit à s'intéresser, d'une part à la notion de périmètre des coûts et d'autre part, à étudier les différentes familles de méthodes d'évaluation des coûts : méthodes analogiques, analytiques et paramétriques. Au sein de cette dernière, notre thèse porte plus particulièrement sur les méthodes économétriques, utilisées dans les phases avant-projet de la conception d'un véhicule. La mise en oeuvre des méthodes économétriques d'estimation de coût soulève des problèmes de validité des tests statistiques (notamment de la normalité des erreurs du modèle de régression), liés à la spécificité des modèles de coûts industriels. En effet, d'une part, la distribution des erreurs est inconnue et d'autre part, les échantillons sont de taille limitée. Ceci ne permet donc pas de valider asymptotiquement l'hypothèse de distribution normale des erreurs. En conséquence, la symétrie des intervalles de prédiction standard, résultant de cette hypothèse, ne se justifie pas a priori pour nos cas d'étude. Pour remédier à ces problèmes, la voie d'investigation privilégiée dans la recherche consiste à appliquer les méthodes de "bootstrap" sur les modèles de régression. Ces dernières permettent alors, grâce à une meilleure retranscription de l'information contenue dans l'échantillon initial, d'obtenir des intervalles de prédiction de coût pour un nouveau produit, plus fiables que ceux obtenus par la théorie asymptotique. La mise en oeuvre de ces techniques a donné lieu à deux développements (un algorithme de tri modifie et une régression par pseudo-inverse) qui ont permis une amélioration notable des temps de calcul. Ceux-ci sont illustrés par trois applications, sur différentes pièces et fonctions automobiles.
APA, Harvard, Vancouver, ISO, and other styles
19

Maiz, Sofiane. "Estimation et détection de signaux cyclostationnaires par les méthodes de ré-échantillonnage statistique : applications à l'analyse des signaux biomécaniques." Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET4020/document.

Full text
Abstract:
Dans le cadre de l’analyse de signaux mécaniques ou biomécaniques les outils d’aide à la décision reposent sur des hypothèses statistiques fortes: loi de probabilité normale, stationnarité des variables, variables centrées, variables indépendantes,…Or ces hypothèses sont parfois non vérifiées et engendrent des décisions erronées. Ce travail a pour objectif de proposer des méthodes qui font abstractions de certaines hypothèses et notamment de la stationnarité et de la gaussiannité des variables aléatoires. Dans cette thèse, nous avons revisité certaines méthodes de ré échantillonnages statistiques et de bootstrap et développé d’autres en incluant la cyclostationnarité des signaux. Ensuite, nous avons appliqué ces méthodes pour l’analyse de signaux biomécaniques provenant de coureurs expérimentés et d’une population de personnes âgées. Les résultats obtenus ont permis de mettre en évidence des changements significatifs dans le contenu fréquentiel du second ordre des signaux étudiés. Ces changements ont été des indicateurs très pertinents pour la description et la caractérisation de la fatigue d’un coureur professionnel, d’une part, et pour la compréhension du mécanisme complexe de la marche à pied simple et avec tâche cognitive chez les personnes âgées d’autre part
In mechanical and biomechanical signal analysis field, the decision support tools are based on strong statistical assumptions such as: normality, stationarity of variables, independence... However, these assumptions are very often unverified, consequently, wrong decisions could be taken. This work aims to propose new methods that make abstractions of such assumptions, including the stationarity and gaussianity of variables. In this thesis, we revisited some statistical resampling methods and developed new bootstrap approaches with including the cyclostationary nature of signals. Next, we applied these methods to the analysis of biomechanical signals from experienced runners and a population of elderly people. The obtained results allowed us to demonstrate significant changes in the second order frequency content of the signals under study. These changes were very relevant indicators for the description and characterization of the fatigue of a high level professional runner. Moreover, these changes helped us to understand the mechanism of normal walking and under a cognitive task condition (double task walking) in elderly
APA, Harvard, Vancouver, ISO, and other styles
20

Thai, Hoai Thu. "Développement de modèles mécanistiques et évaluation de l'incertitude des paramètres par bootstrap : application aux médicaments anti-angiogéniques." Paris 7, 2013. http://www.theses.fr/2013PA077025.

Full text
Abstract:
L'angiogenèse, la croissance de nouveaux vaisseaux sanguins à partir de vaisseaux préexistants, est médiée notamment par le facteur de croissance vasculaire endothélial (VEGF), cible thérapeutique de nouveaux médicaments anti-angiogéniques comme l'aflibercept (Zaltrap R). Du fait de la liaison avec le VEGF, les propriétés pharmacocinétique (PK)/pharmacodynamique (PD) de ce nouveau médicament deviennent plus complexes. Dans cette thèse, nous avons étudié le mécanisme d'action de l'aflibercept en développant des modèles PK/PD de population. Nous avons tout d'abord construit un modèle PK conjoint de l'aflibercept libre et lié chez les volontaires sains. Nous avons par la suite appliqué avec succès ce modèle aux données chez les patients atteints de cancer, étudié également l'influence de facteurs physiopathologiques sur leur PK et évalué le choix de dose thérapeutique par simulation. Un modèle PD caractérisant l'effet de l'aflibercept sur la croissance tumorale a été ensuite construit chez les patients atteints du cancer colorectal métastatique. Nous avons également étudié par simulation l'apport de l'approche bootstrap dans les modèles non linéaires à effets mixtes (MNLEM) sur l'estimation des incertitudes des paramètres. Ainsi, nous avons montré que le bootstrap fournit de meilleures estimations de l'incertitude des paramètres dans les MNLEM avec une forte non linéarité par rapport à l'approche asymptotique. Le bootstrap par paires fonctionne aussi bien que le bootstrap des effets aléatoires et des résidus. Cependant, ils peuvent être confrontés à des problèmes pratiques, par exemple des protocoles déséquilibrés où la stratification pourrait être insuffisante
Angiogenesis, the development of new blood vessels from pre-existing vasculator, is particularly mediated by vascular endothelial growth factor (VEGF), a therapeutic target of new anti-angiogenic drugs such as aflibercept (Zaltrap®). Because of the binding to VEGF, the pharmacokinetic (PK)/pharmacodynamic (PD) properties of this new drug become more complex. In this thesis, we have studied the mechanism of action of aflibercept by building population PK/PD models. We firstly developed the joint PK model of free and bound aflibercept in healthy subjects. We then applied this model to data in cancer patients, assessed the influence of physiopathologie factors on their PK and evaluated the choice of therapeutic dose by simulation. A PD model characterizing the effect of aflibercept on tumor growth was then built for patients with metastatic colorectal cancer. We also studied by simulation the contribution of bootstrap approach in nonlinear mixed-effects models (NLMEM) in estimating uncertainty of parameters. We have shown that the bootstraps only provide better estimates of uncertainty in NLMEM with high nonlinearity compared to the asymptotic method. The case bootstrap performs as well as the nonparametric bootstrap of both random effects and residuals. However, they may face practical problems, e. G skewed distributions in parameter estimates and unbalanced designs where stratification may be insufficient
APA, Harvard, Vancouver, ISO, and other styles
21

Cavaignac, Laurent. "Les Fonctions distance en théorie de la production : applications en incertitude et aux tests non paramétriques." Perpignan, 2007. http://www.theses.fr/2007PERP0779.

Full text
Abstract:
Cette recherche, centrée sur la théorie de la production, se base sur l'hypothèse fondamentale qu'il existe des inefficacités potentielles des unitésde production. Elle s'appuie principalement sur les fonctions distance qui constituent aujourd'hui une famille d'instruments de mesure de l'inefficacité largement mises en œuvre en microéconomie de la production. Cette thèse est principalement composée de trois parties. Son premier apport concerne la production dans un contexte d'incertitude sur le niveau des outputs. Nous démontrons en particulier qu'il est possible de construire un modèle simple de production qui prend en compte les phénomènes aléatoires continus qui peuvent affecter la production. Nous établissons ensuite plusieurs décompositions des mesures d'efficacité allocative. La seconde partie de cette recherche est consacrée aux propriétés des mesures d'efficacité. Nous établissons une liste de propriétés requises pour les mesures d'efficacité d'inspiration directionnelle avant de définir ensuite de nouvelles mesures pour répondre à ces critères. Nous développons ensuite une généralisation des mesures radiales. Enfin, la dernière partie est centrée sur l'utilisation des fonctions distance pour les tests non paramétriques de forme des technologies. A partir du test de Primont et Primont-1994, nous montrons qu’il est possible de réaliser des tests d'homothétie et de translation homothétie qui permettent d'aboutir à une conclusion statistique en utilisant la technique de bootstrap décrite par Simar et Wilson-1999. Grâce à cette méthode, nous définissons et mettons également en oeuvre un test non paramétrique de congestion en inputs que nous appliquons au secteur du transport aérien
This research focuses on production theory. It is based on the fundamental assumption that production units are potentially inefficient. It deals with distance functions which are widely used efficiency measurement tools in production microeconomics. This thesis is three fold. Its first part considers a world where the output level is uncertain for the producer even though the input quantities are known. In this context, we define a model with continuous random output variables. We also derive different decompositions of the allocative efficiency measures in this output contigent framework. The second part analyses the properties of technical efficiency measures. We list the required properties for directional efficiency measures and analyze whether the usual directional measures or some new ones exhibit these properties. We conclude this part by defining a measure that generalizes most of the known radial efficiency measures. The last chapters focus on production technologies nonparametric tests. We use and improve the Primont and Primont-1994 test to show how homotheticity and translation homotheticity tests can be performed using Simar and Wilson – 1999 bootstrap technique. We finally describe a new input congestion test and illustrate this result with an application to the air transport sector
APA, Harvard, Vancouver, ISO, and other styles
22

Saiu, Luca. "GNU epsilon : an extensible programming language." Paris 13, 2012. http://scbd-sto.univ-paris13.fr/intranet/edgalilee_th_2012_saiu.pdf.

Full text
Abstract:
Le réductionnisme est une technique réaliste de conception et implantation de vrais langages de programmation, et conduit à des solutions plus faciles à étendre, expérimenter et analyser. Nous spécifions formellement et implantons un langage de programmation extensible, basé sur un langage-noyau minimaliste impératif du premier ordre, équipé de mécanismes d’abstraction forts et avec des possibilités de réflexion et auto-modification. Le langage peut être étendu à des niveaux très hauts : en utilisant des macros à la Lisp et des transformations de code à code réécrivant les expressions étendues en expressions-noyau, nous définissons les clôtures et les continuations de première classe au dessus du noyau. Les programmes qui ne s’auto-modifient pas peuvent être analysés formellement, grâce à la simplicité de la sémantique. Nous développons formellement un exemple d’analyse statique et nous prouvons une propriété de soundness par apport à la sémantique dynamique. Nous développons un ramasse-miettes parallèle qui convient aux machines multi-cœurs, pour permettre l’exécution efficace de programmes parallèles
Reductionism is a viable strategy for designing and implementing practical programming languages, leading to solutions which are easier to extend, experiment with and formally analyze. We formally specify and implement an extensible programming language, based on a minimalistic first-order imperative core language plus strong abstraction mechanisms, reflection and self-modification features. The language can be extended to very high levels: by using Lisp-style macros and code-to-code transforms which automatically rewrite high-level expressions into core forms, we define closures and first-class continuations on top of the core. Non-self-modifying programs can be analyzed and formally reasoned upon, thanks to the language simple semantics. We formally develop a static analysis and prove a soundness property with respect to the dynamic semantics. We develop a parallel garbage collector suitable to multi-core machines to permit efficient execution of parallel programs
APA, Harvard, Vancouver, ISO, and other styles
23

Walschaerts, Marie. "La santé reproductive de l'homme : méthodologie et statistique." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1470/.

Full text
Abstract:
La santé reproductive de l'homme est un indicateur de la santé générale de celui-ci. Elle est également intimement liée aux expositions de l'environnement et du milieu de vie. Aujourd'hui, on observe une baisse séculaire de la qualité du sperme et une augmentation des pathologies et malformations de l'appareil reproducteur masculin. L'objectif de ce travail est d'étudier la santé reproductive de l'homme d'un point de vue épidémiologique et par le biais de différents outils statistiques. Nous nous sommes intéressés à l'incidence et aux facteurs de risque du cancer du testicule. Ensuite, nous avons étudié le parcours thérapeutique d'une population d'hommes ayant consulté pour infécondité masculine en analysant la relation entre leurs paramètres du sperme et leurs investigations andrologiques, ainsi que l'issue de leur projet parental. Enfin, l'événement naissance a été analysé en tenant compte de son délai de réalisation en utilisant des modèles de durées de vie incluant la censure à droite : modèles de Cox et arbres de survie. En y associant des techniques de sélection stable de variables (stepwise, pénalisation de type L1, bootstrap) les performances prédictives de ces méthodes ainsi que leur capacité à fournir aux cliniciens un modèle facilement interprétable ont été comparées. Dans le sud de la France, l'incidence du cancer du testicule a doublé au cours des 20 dernières années. L'effet cohorte de naissance, c'est-à-dire l'effet générationnel, suggère un effet délétère des expositions environnementales sur la santé reproductive de l'homme. Toutefois, aucune exposition du milieu de vie de l'homme durant sa vie adulte ne semble être un facteur de risque potentiel de survenue du cancer du testicule, suggérant l'hypothèse d'une exposition à des perturbateurs endocriniens in utero. Actuellement, la responsabilité de l'homme dans des difficultés à concevoir représente 50% des causes d'infertilité. La prise en charge de l'homme est donc essentielle. Dans notre cohorte de couples consultant pour des problèmes d'infertilité, un examen andrologique anormal est observé chez 85% des partenaires masculins. Une relation significative est observée entre l'examen de sperme et l'examen andrologique, suggérant la nécessité de pratiquer des investigations cliniques afin d'identifier les causes d'infertilité masculine. Finalement, un couple sur deux réussit à avoir un enfant. Et l'âge des hommes de plus de 35 ans apparaît comme un facteur de risque majeur, ce qui devrait encourager les couples à entamer leur projet parental le plus tôt possible. En prenant en compte la composante temporelle dans l'issue reproductive de ces couples inféconds, les modèles de durée de vie obtenus sont très souvent instables du fait du grand nombre de covariables. Nous avons intégré des techniques de rééchantillonnage à des approches de sélection de variables. Bien que l'approche Random Survival Forests soit la meilleure en qualité de prévision, ses résultats ne sont pas facilement interprétables. Concernant les autres méthodes, les résultats diffèrent selon la taille de l'échantillon. L'algorithme stepwise intégré au modèle de Cox ne converge pas si le nombre d'événements est trop faible. L'approche qui consiste à choisir la meilleure division en bootstrappant l'échantillon à chaque noeud lors de la construction d'un arbre de survie ne paraît pas avoir une meilleure capacité prédictive qu'un simple arbre de survie quand l'échantillon est suffisamment grand. Finalement, le modèle de Cox avec une sélection de variables par pénalisation de type L1 donne un bon compromis entre facilité d'interprétation et prévision dans le cas de petits échantillons
Male reproductive health is an indicator of his overall health. It is also closely linked to environmental exposures and living habits. Nowadays, surveillance of male fertility shows a secular decline in sperm quality and increased disease and malformations of the male reproductive tract. The objective of this work is to study the male reproductive health in an epidemiologic aspect and through various statistical tools. Initially, we were interested in the pathology of testicular cancer, its incidence and its risk factors. Then, we studied the population of men consulting for male infertility, their andrological examination, their therapeutic care and their parenthood project. Finally, the birth event was analyzed through survival models: the Cox model and the survival trees. We compared different methods of stable selection variables (the stepwise bootstrapped and the bootstrap penalisation L1 method based on Cox model, and the bootstrap node-level stabilization method and random survival forests) in order to obtain a final model easy to interpret and which improve prediction. In South of France, the incidence of testicular cancer doubled over the past 20 years. The birth cohort effect, i. E. The generational effect, suggests a hypothesis of a deleterious effect of environmental exposure on male reproductive health. However, the living environment of man during his adult life does not seem to be a potential risk factor for testicular cancer, suggesting hypothesis of exposure to endocrine disruptors in utero. The responsibility of man for difficulties in conceiving represents 50% of cases of infertility, making the management of male infertility essential. In our cohort, 85% of male partners presented an abnormal clinical examination (either a medical history or the presence of an anomaly in andrological examination). Finally, one in two couples who consulted for male infertility successfully had a child. The age of men over 35 appears to be a major risk factor, which should encourage couples to start their parenthood project earlier. Taking into account the survival time in the reproductive outcome of these infertile couples, the inclusion of large numbers of covariates gives models often unstable. We associated the bootstrap method to variables selection approaches. Although the method of Random Survival Forests is the best in the prediction performance, the results are not easily interpretable. Results are different according to the size of the sample. Based on the Cox model, the stepwise algorithm is inappropriate when the number of events is too small. The bootstrap node-level stabilization method does not seem better in prediction performance than a simple survival tree (difficulty to prune the tree). Finally, the Cox model based on selection variables with the penalisation L1 method seems a good compromise between interpretation and prediction
APA, Harvard, Vancouver, ISO, and other styles
24

Abellan, Alexandre. "Construction de fonctions objectifs et modélisation a priori de l’apport de mesures en géosciences : une approche statistique." Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2009/ABELLAN_Alexandre_2009.pdf.

Full text
Abstract:
La caractérisation de réservoir ainsi que la quantification des incertitudes sont des enjeux majeurs en ingénierie de réservoir. L’une des difficultés vient de l’impossibilité pratique de disposer d’une description exhaustive des roches souterraines, ce qui impose une analyse probabiliste du réservoir. Dans un premier temps, il est donc indispensable de déterminer un cadre théorique et un cadre pratique permettant d’estimer au mieux les paramètres du modèle tout en fournissant des outils de calcul efficaces. Dans un second temps, l’intégration de données observées dynamiquement ou calage d’historique se fait au moyen d’une fonction objectif qui mesure l’écart entre les données de production simulées par le modèle numérique de réservoir et les données réelles mesurées sur le terrain. Sa minimisation aboutit à l’estimation des paramètres du modèle sans pour autant être en accord avec la géologie présente. Pour éviter toute inconsistance, on intègre avant l’étude, toute l’information a priori disponible, dans la fonction objectif. Le cadre bayésien retenu permet de définir cette nouvelle fonction objectif de façon naturelle. Dans un troisième temps, l’introduction de la notion d’entropie en probabilité et de la divergence de Kullback-Leibler permettent de donner un sens précis à la notion d’information contenue dans les mesures. Ainsi, l’étude des variations par rapport au nombre d’observations permet de quantifier le gain d’information sur la caractérisation du réservoir. Des tests ont été effectués dans le cadre du krigeage, de l’interprétation des essais de puits et de l’écoulement diphasique montrant la pertinence de l’approche
Due to the increasing costs of investments involved in oil industry, reservoir characterization and uncertainty quantification are now major issues in oil and gas reservoir engineering. As it is impossible to get an exhaustive knowledge of the reservoir, a probabilistic description is now adopted. This description relies on a smaller number of parameters that need to be estimated using the data. In a second step, the model is history matched in order to be consistent with the observed dynamic data (e. G. Pressure at the well, fluid flow rates). This is done by minimizing an objective function that quantifies the discrepancy between the simulated and real data. Geological data is integrated when building the prior model. The bayesian framework allows to perform these tasks in a natural way. In a next step, using entropic considerations, we introduce the so called Kullback Leibler divergences that allows to quantify the "information content" of any potential measurements, relative to the considered model. A tractable algebraic expression is worked out when considering Gaussian models and data depending linearly on the model. Explicit tests were carried out in the case of kriging, well test interpretation and two phase flow context. The notion of data redundancy was also explored and quantified. The developed technique could help to design optimal data acquisition schemes
APA, Harvard, Vancouver, ISO, and other styles
25

Berry, Vincent. "Méthodes et algorithmes pour reconstruire les arbres de l'Evolution." Montpellier 2, 1997. http://www.theses.fr/1997MON20246.

Full text
Abstract:
Nous proposons des methodes pour retrouver l'histoire evolutive des especes. Cette histoire est representee sous la forme d'un arbre dont les differentes aretes (branches) designent les differents groupes d'especes. Nous nous attachons plus particulierement ici a proposer une estimation robuste de cet arbre, i. E. , a ne proposer que des aretes fiables, quitte a ne retrouver qu'une partie de l'histoire des especes. Les methodes que nous proposons se divisent en deux categories : les methodes descendantes partent d'une topologie complete de laquelle elles enlevent les aretes non sures ; les methodes ascendantes inferent d'emblee une phylogenie ne contenant que des aretes jugees fiables. Les methodes descendantes que nous proposons reposent sur la technique du bootstrap (un procede de reechantillonnage). Les methodes ascendantes que nous proposons reposent sur un principe d'optimisation combinatoire lie aux quadruplets d'especes : on infere d'abord des phylogenies sur quatre especes, qu'on cherche ensuite a combiner en une phylogenie sur l'ensemble des especes, de facon a optimiser un certain critere. Diverses simulations montrent que les methodes ascendantes et descendantes que nous proposons obtiennent de meilleurs resultats que les methodes habituellement utilisees pour reconstruire l'arbre d'evolution des especes.
APA, Harvard, Vancouver, ISO, and other styles
26

Makany, Roger Armand. "Techniques de validation en statistiques : application à l'analyse en composantes principales et à la régression." Paris 11, 1985. http://www.theses.fr/1985PA112222.

Full text
Abstract:
Dans cette thèse, la validation des résultats est envisagée sous l’angle de leur stabilité. En analyse en composantes principales, l’étude porte sur la stabilité des valeurs propres et des sous-espaces propres. S’agissant de la régression, l’attention est centrée autour de la stabilité des coefficients de régression. Au-delà des critères de stabilité proposés, on présente le logiciel mis au point pour le traitement des données
In this work, the results validation is being studied according to the stability proceeding from these results. The present study is based upon the stability of latent roots and subspaces in principal component analysis. As regards regression, the author has focused on the stability of the regression coefficients. Beyond the stability criteria put forward, there has been included a display of the software designed for data processing
APA, Harvard, Vancouver, ISO, and other styles
27

Marhaba, Bassel. "Restauration d'images Satellitaires par des techniques de filtrage statistique non linéaire." Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0502/document.

Full text
Abstract:
Le traitement des images satellitaires est considéré comme l'un des domaines les plus intéressants dans les domaines de traitement d'images numériques. Les images satellitaires peuvent être dégradées pour plusieurs raisons, notamment les mouvements des satellites, les conditions météorologiques, la dispersion et d'autres facteurs. Plusieurs méthodes d'amélioration et de restauration des images satellitaires ont été étudiées et développées dans la littérature. Les travaux présentés dans cette thèse se concentrent sur la restauration des images satellitaires par des techniques de filtrage statistique non linéaire. Dans un premier temps, nous avons proposé une nouvelle méthode pour restaurer les images satellitaires en combinant les techniques de restauration aveugle et non aveugle. La raison de cette combinaison est d'exploiter les avantages de chaque technique utilisée. Dans un deuxième temps, de nouveaux algorithmes statistiques de restauration d'images basés sur les filtres non linéaires et l'estimation non paramétrique de densité multivariée ont été proposés. L'estimation non paramétrique de la densité à postériori est utilisée dans l'étape de ré-échantillonnage du filtre Bayésien bootstrap pour résoudre le problème de la perte de diversité dans le système de particules. Enfin, nous avons introduit une nouvelle méthode de la combinaison hybride pour la restauration des images basée sur la transformée en ondelettes discrète (TOD) et les algorithmes proposés à l'étape deux, et nos avons prouvé que les performances de la méthode combinée sont meilleures que les performances de l'approche TOD pour la réduction du bruit dans les images satellitaires dégradées
Satellite image processing is considered one of the more interesting areas in the fields of digital image processing. Satellite images are subject to be degraded due to several reasons, satellite movements, weather, scattering, and other factors. Several methods for satellite image enhancement and restoration have been studied and developed in the literature. The work presented in this thesis, is focused on satellite image restoration by nonlinear statistical filtering techniques. At the first step, we proposed a novel method to restore satellite images using a combination between blind and non-blind restoration techniques. The reason for this combination is to exploit the advantages of each technique used. In the second step, novel statistical image restoration algorithms based on nonlinear filters and the nonparametric multivariate density estimation have been proposed. The nonparametric multivariate density estimation of posterior density is used in the resampling step of the Bayesian bootstrap filter to resolve the problem of loss of diversity among the particles. Finally, we have introduced a new hybrid combination method for image restoration based on the discrete wavelet transform (DWT) and the proposed algorithms in step two, and, we have proved that the performance of the combined method is better than the performance of the DWT approach in the reduction of noise in degraded satellite images
APA, Harvard, Vancouver, ISO, and other styles
28

Hemery, Carine. "Prospectives à long terme de la consommation énergétique en transport de marchandises." Paris 1, 2009. http://www.theses.fr/2009PA010035.

Full text
Abstract:
Les prévisions des consommations énergétiques relatives au transport de marchandises sont réalisées à l’horizon 2050. La recherche peut se décomposer en trois temps. Premièrement, la création et l'estimation économétrique d'un modèle de fret international par type de produit (deux secteurs en particulier: l'habillement et la chimie pour l'Europe des quinze) et d'un modèle de fret intérieur terrestre (tous les secteurs étant regroupés, l'analyse concerne deux groupes de pays: émergents et développés). Deuxièmement, à partir du modèle SMPL de l'Agence Internationale de l'Energie, la demande de transport de marchandises est convertit en consommations énergétiques. Troisièmement, la réalisation de prévisions des consommations énergétiques avec intervalles de confiance standards et bootstraps sous deux scénarios : le scénario statu quo et le scénario vertueux. La présence dans la modélisation de relation de co-intégration avec perturbation AR(l) nécessite la création d'une nouvelle méthode bootstrap pour répondre à ces caractéristiques statistiques. Cette analyse des consommations énergétiques du transport de marchandises montre, sous les deux scénarios statu quo et vertueux, une forte croissance des consommations énergétiques pour le fret international. Malgré une baisse de la compétitivité des pays émergents et une forte croissance des prix de l'énergie (5% par an). Au niveau du fret intérieur terrestre, sous les deux scénarios statu quo ou vertueux, les consommations énergétiques croissent respectivement de 304% et 265% pour les pays émergents. Par contre pour les pays développés, sous le scénario vertueux, les consommations énergétiques du fret intérieur terrestre augmentent de seulement 6% entre 2008 et 2050.
APA, Harvard, Vancouver, ISO, and other styles
29

Enjolras, Geoffroy. "De l'assurabilité des catastrophes naturelles : Modélisation et application à l'assurance récolte." Montpellier 1, 2008. http://www.theses.fr/2008MON10020.

Full text
Abstract:
Les catastrophes naturelles sont des aléas par nature complexes et générateurs de lourdes pertes, notamment dans le secteur agricole. Il en résulte une assurabilité limitée qui engendre des mécanismes de couverture incomplets. Pour y remédier, nous développons une combinaison innovante d’outils assurantiels et financiers adaptés à la couverture des différentes facettes des risques naturels. Notre application se focalise sur l’assurance récolte en voie de réforme en France. Le raisonnement s’articule autour de quatre parties : une revue de la littérature sur les risques naturels et les instruments de couverture associés, une étude de cas sur les bassins versants français affectés par le risque d’inondation, l’élaboration d’un modèle théorique visant à assurer une couverture optimale, complétée par des tests et des illustrations empiriques
Natural catastrophes are complex hazards which generate major losses, especially in the agricultural sector. As a result, their insurability is limited and the insurance market is incomplete. Facing these limitations, we develop an innovative combination of insurance and financial instruments adapted to the coverage of the different aspects of natural risks. Our application focuses on crop insurance which is being reformed in France. The thesis is organized in four main parts: the first part presents a survey of literature on catastrophic risks and the potential insurance and financial instruments. The second part exposes a case study on flood risk management at the river-basin scale. In a third part, we develop a theoretical model that tends to offer an optimal coverage against catastrophic risk. The fourth part consists in an empirical validation of the model performing regressions and a full set of tests
APA, Harvard, Vancouver, ISO, and other styles
30

Condomines, Bérangère. "De la compétence individuelle à la performance individuelle : mise en évidence et discussion à partir de l'appréciation des managers par la méthode du centre d'évaluation." Paris 1, 2012. http://www.theses.fr/2012PA010041.

Full text
Abstract:
Il est courant d'affirmer la présence d'une compétence lorsque l'on constate une performance. Cette relation implicite repose sur le postulat de cohérence comportementale et la représentation de la compétence dans le sens d'une causalité interne de performance. Si la littérature énonce que la performance peut être atteinte grâce à différentes compétences, certains travaux évoquent néanmoins des discordances entre ces deux concepts soulignant l'effet des facteurs personnels et situationnels. Conséquemment, nous nous demandons dans quelle mesure les compétences individuelles constituent un facteur explicatif de la performance individuelle future. Nous avons choisi une méthodologie mixte et, plus précisément, un design parallèle. Cette stratégie permet de mobiliser simultanément une approche quantitative pour comprendre la relation conceptuelle ainsi qu'une approche qualitative pour contextualiser la relation quantitative et approfondir l'influence des facteurs modérateurs. L'analyse quantitative a été réalisée auprès d'un échantillon de 123 managers de niveau supérieur. Nous avons mesuré leur compétence au vu des notes obtenues à un centre d'évaluation et leur performance via un questionnaire administré à leur pair. Quant à l'analyse qualitative, 24 de ces managers se sont prêtés à la méthode du récit de vie, dévoilant les facteurs modérateurs de la relation conceptuelle. Notre recherche tend à démontrer une corrélation entre la compétence et la performance perçue par les pairs ainsi qu'un impact des facteurs personnels et situationnels sur cette relation conceptuelle. La compétence est donc une cause nécessaire à la performance mais non suffisante.
APA, Harvard, Vancouver, ISO, and other styles
31

Shapira, Assaf. "Bootstrap percolation and kinetically constrained models in homogeneous and random environments." Thesis, Sorbonne Paris Cité, 2019. http://www.theses.fr/2019USPCC066.

Full text
Abstract:
Cette thèse est consacrée à l'étude des modèles aux contraintes cinétiques et de la percolation bootstrap, dans l'intersection entre les probabilités, la combinatoire et la physique statistique. Les modèles aux contraintes cinétiques ont été introduits dans les années 80 pour modéliser la transition liquide-verre, dont la compréhension reste toujours un des plus grands problèmes de la physique de la matière condensée. Ils ont été depuis profondément étudiés par des physiciens dans l'espoir d'éclaircir ce problème et la communauté mathématique s'en intéresse de plus en plus lors de la dernière décennie. Ces modèles sont des systèmes de particules en interaction dont la théorie générale est maintenant bien établie. Leur analyse rencontre tout de même des difficultés qui nécessitent le développement de nouveaux outils mathématiques.La percolation bootstrap est une classe d'automates cellulaires, i.e. déterministes en temps discret. Elle a été considérée pour la première fois en 1979 et son étude est depuis devenue un domaine actif en combinatoire et en probabilités.Les modéles aux contraintes cinétiques et la percolation bootstrap ont été introduits séparément mais sont fortement reliés – on verra que la percolation bootstrap est une version déterministe des modèles aux contraintes cinétiques et que ces derniers sont une version stochastique de la percolation bootstrap.On se concentrera sur les échelles de temps de ces deux modèles dans le but de comprendre le comportement des matériaux vitreux
This thesis concerns with Kinetically Constrained Models and Bootstrap Percolation, two topics in the intersection between probability, combinatorics and statistical mechanics. Kinetically constrained models were introduced by physicists in the 1980's to model the liquid-glass transition, whose understanding is still one of the big open questions in condensed matter physics. They have been studied extensively in the physics literature in the hope to shed some light on this problem, and in the last decade they have also received an increasing attention in the probability community. We will see that even though they belong to the well established field of interacting particle systems with stochastic dynamics, kinetically constrained models pose challenging and interesting problems requiring the development of new mathematical tools.Bootstrap percolation, on the other hand, is a class of monotone cellular automata, namely discrete in time and deterministic dynamics, the first example being the r-neighbor bootstrap percolation introduced in 1979. Since then, the study of bootstrap percolation has been an active domain in both the combinatorial and probabilistic communities, with several breakthroughs in the recent years.Though introduced in different contexts, kinetically constrained models and the bootstrap percolation, as we will see, are intimately related; and one may think of bootstrap percolation as a deterministic counterpart of kinetically constrained models, and of kinetically constrained models as the natural stochastic version of bootstrap percolation
APA, Harvard, Vancouver, ISO, and other styles
32

Albertus, Mickael. "Processus empirique avec informations auxiliaires." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30095.

Full text
Abstract:
Cette thèse porte sur l'étude du processus empirique avec information auxiliaire, c'est-à-dire une information que l'on aurait a priori ou bien que l'on aurait obtenu grâce à une source d'information. Nous montrons dans cette thèse comment modifier le processus empirique pour prendre en compte une information auxiliaire. Nous démontrons aussi qu'apporter une information auxiliaire au niveau du processus empirique permet d'améliorer la qualité des estimations statistiques ainsi que la puissance de tests statistiques usuels. Le premier chapitre regroupe les principales définitions ainsi que les résultats importants utilisés dans cette thèse. Dans le second et troisième chapitre, nous étudions le cas particulier où l'information auxiliaire est respectivement donnée par la probabilité d'ensembles d'une ou de plusieurs partition(s) donnée(s). En particulier, le troisième chapitre se focalise sur la méthode du Raking-Ratio, méthode très utilisé en statistique permettant de combiner la connaissance de la probabilité d'ensembles de plusieurs partitions. Dans le quatrième chapitre, nous généralisons la définition d'information auxiliaire tout en conservant la possibilité d'établir des résultats d'approximation forte, au prix d'une perte de généralisation. Dans le dernier chapitre, nous établissons l'approximation forte du processus empirique dans le cas de la méthode bootstrap et nous combinons la méthode bootstrap avec celle du Raking-Ratio
This thesis deals with the study of the empirical process with auxiliary information, that is to say information that one would have a priori or that one would have obtained with a source of information. We show in this thesis how to modify the empirical process to take into account auxiliary information. We also show that providing auxiliary information at the empirical process level improves the quality of statistical estimates as well as the power of standard statistical tests. The first chapter contains the main definitions as well as the important results used in this thesis. In the second and third chapter, we study the particular case where the auxiliary information is respectively given by the probability of sets of one or more given partition(s). In particular, the third chapter focuses on the method of Raking-Ratio, a method widely used in statistics to combine the knowledge of the probability of sets of several partitions. In the fourth chapter, we generalize the definition of auxiliary information while retaining the possibility of establishing strong approximation results, at the cost of a loss of generalization. In the last chapter, we establish the strong approximation of the empirical process in the case of the bootstrap method and we combine the bootstrap method with that of the Raking-Ratio
APA, Harvard, Vancouver, ISO, and other styles
33

Sellali, Brahim. "Intégration du retour d'expérience d'exploitation dans une approche MBF pour optimiser la fiabilité de matériel." Nancy 1, 1998. http://www.theses.fr/1998NAN10307.

Full text
Abstract:
Dans cette étude nous avons proposé une méthodologie permettant de faciliter la mise en place d'un retour d'expérience évolutif et pertinent, élément essentiel dans la démarche maintenance basée sur la fiabilité (MBF). Cette démarche permet d'affiner le programme de maintenance, de mieux maîtriser les risques (arrêts de machines, pertes de productions) et de capitaliser de l'expérience pour l'avenir dans une logique qualité dans le secteur des PME/PMI. Les principes et les méthodes qui sous-tendent cette réalisation sont mis en évidence et la généralité de leur portée les rend directement transportables à d’autres tissus industriels. Pour valider cette démarche et mettre en exergue ses possibilités, nous avons développé pour le secteur des fonderies, un outil d'analyse des données d'exploitation par les méthodes appropriées facilitant la mise en place d'un Programme de Maintenance Optimisé (PMO) tenant compte de l'entreprise.
APA, Harvard, Vancouver, ISO, and other styles
34

Cornea, Adriana. "Bootstrap raffiné pour les lois stables parétiennes avec applications aux rendements des actifs financiers." Aix-Marseille 2, 2008. http://www.theses.fr/2008AIX24023.

Full text
Abstract:
La suprématie des distributions stables parétiennes par rapport à la distribution Gaussienne est d'or et déjà considérée comme un fait stylisé dans la pratique et la théorie financière. Il est devenu évident que l'inférence asymptotique pour les rendements espérés des actifs financiers n'est pas toujours fiable et que le bootstrap non paramétrique peut être utilisé comme alternative. Cependant, différentes études ont mis en évidence l'invalidité du bootstrap non paramétrique pour les variables aléatoires telles que les rendements espérés issues des distributions stables parétiennes. La raison pour laquelle le bootstrap non paramétrique n'est pas valide est liée au fait que les rendements sont influencés par le risque des opportunités d'investissement, risque qui est supérieur sur un marché stable parétien que sur un marché financier gouverné par la loi Gaussienne. La solution la plus connue pour pallier à cette difficulté est le bootstrap non paramétrique avec une taille d'échantillon bootstrap inférieure à la taille de l'échantillon d'origine. Néanmoins, cette dernière technique bootstrap est moins fiable que le bootstrap non paramétrique. C'est pourquoi dans cette thèse, une nouvelle méthode bootstrap est introduite, le bootstrap raffiné, qui permet de supprimer les inconvénients du bootstrap non paramétrique et du bootstrap ayant une taille d'échantillon inférieure à la taille de l'échantillon d'origine. Enfin, le comportement du bootstrap raffiné est étudié à l'aide de simulations et sa performance est illustrée à travers les rendements des fonds de couverture et les sauts de rendements du marché à long terme basé sur l'indice S&P500
The supremacy of the stable Paretian distributions over the Gaussian distributions is by now a stylized fact in the financial theory and pratice. It is well known that the asymptotic inference about the expected returns is not always reliable and the nonparametric bootstrap can be used as an alternative. However, several studies have emphazide the fact that the nonparametric bootstrap is invalid foe the stable Paretian distributions. The reason is that the expected returns are highly influenced by the risk of the investement opportunities, risk which is always greater in stable Paretian financial market than in a Gaussian market. The widely accepted solution to the nonparametric bootstrap failure is the m out of n bootstrap. But, in this thesis it is shown that the m out of n bootstrap can also fail to provide valid inference results in small sample and can perform worse. Than the nonparametric bootstrap. In addition, in this dissertation a refined bootstrap method that overcomes the drawbacks of both of the nonparametric bootstrap and the m out of m bootstrap, is introduced. Then, the behavior of the refined boostrap is investigated through a simulation study. Finally, its performance is illustrated using returns of hedge funds and jumps of the futures S&P500 index
APA, Harvard, Vancouver, ISO, and other styles
35

Rosa, Vargas José Ismäel de la. "Estimation de la densité de probabilité d'une mesure dans un cadre non-linéaire, non-gaussien." Paris 11, 2002. http://www.theses.fr/2002PA112201.

Full text
Abstract:
Mettre en oeuvre une procédure de mesure passe par la modélisation préalable du phénomène observé. Modéliser devient alors un objectif à part entière même s'il ne faut pas le décorréler de l'objectif de mesure. Au-delà de la construction et du choix de modèle, persiste le problème, à la fois théorique et pratique, de l'évaluation de la densité de probabilité (DDP) des paramètres du modèle retenu. Une fois cette DDP estimée, il faut pouvoir propager cette information statistique jusqu'à la grandeur d'intérêt appelée mesure. Cette mesure étant une fonction non-linéaire des paramètres du modèle. Ainsi, notre travail de recherche porte sur l'estimation de la DDP de la mesure. Pour ce faire, nous proposons une première approche fondée sur les méthodes de type bootstrap. Ces méthodes de simulation comme les méthodes traditionnelles de type Monte-Carlo, requièrent un temps de calcul significatif, cependant elles aboutissent à une très bonne précision sur la caractérisation statistique des systèmes de mesure. Par ailleurs, nous avons pu vérifier que la convergence de ce type de méthodes est plus rapide que celle de la méthode de Monte-Carlo Primitive (MCP). Un avantage certain du bootstrap est sa capacité à déterminer la nature des erreurs agissant sur le système de mesure, grâce à l'estimée de la DDP empirique des erreurs. En outre, l'optimisation de la convergence peut se atteindre en utilisant des schémas de pondération sur les erreurs ou bien, un schéma modifié du bootstrap itéré. Nous proposons aussi l'utilisation d'un schéma d'estimation robuste au cas des données aberrantes. Une deuxième approche est fondée sur l'échantillonnage par les méthodes de Monte-Carlo par chaînes de Markov (MCMC), la caractérisation statistique selon ce point permet d'utiliser toute l'information a priori connue sur le système de mesure, en effectuant une reformulation du problème selon la règle de Bayes. L'échantillonnage de Gibbs et les algorithmes de Metropolis-Hastings ont été exploités dans ce travail. En ce qui concerne l'optimisation de la convergence du MCMC, on a adapté des algorithmes tels que le rééchantillonnage pondéré et le couplage de chaînes dans le temps rétrograde. En particulier, nous avons proposé un échantillonneur de Gibbs par simulation parfaite et un algorithme hybride par simulation parfaite. Une dernière approche au problème d'estimation de la mesure est construite à l'aide des méthodes d'estimation par noyaux. L'idée principale est fondée sur la caractérisation non-paramétrique de la DDP des erreurs, sachant qu'elle est inconnue. .
The characterization and modeling of an indirect measurement procedure is led by a set of previously observed data. The modeling task is it self a complex procedure which is correlated with the measurement objective. Far from model building and model selection, a theoretical and practical problem persists: What is the correct probability density function (PDF) of a parametric model? Once this PDF is approximated, the next step is to establish a mechanism to propagate this statistical information until the quantity of interest. In fact, such a quantity is a measurement estimate and it is a nonlinear function of the parametric model. The present work proposes some different methods to make statistical inferences about the measurement estimate. We propose a first approach based on bootstrap methods. Such methods are classical in statistical simulation together with Monte Carlo methods, and they require a significative time of calcul. However, the precision over the measurement PDF estimated by these methods is very good. On the other hand, we have verified that the bootstrap methods convergence is faster than the Primitive Monte Carlo's one. Another advantage of bootstrap is its capacity to determine the statistical nature of errors which perturb the measurement system. This is doing thanks to the empirical estimation of the errors PDF. The bootstrap convergence optimization could be achieved by smoothing the residuals or by using a modified iterated bootstrap scheme. More over, we propose to use robust estimation when outliers are present. The second approach is based on other sampling techniques called Markov Chain Monte Carlo (MCMC), the statistical inference obtained when using these methods is very interesting, since we can use all a priori information about the measurement system. We can reformulate the problem solution by using the Bayes rule. The Gibbs sampling and the Metropolis-Hastings algorithms were exploited in this work. We overcome to the MCMC convergence optimization problem by using a weighted resampling and coupling from the past (CFTP) schemes, moreover, we adapt such techniques to the measurement PDF approximation. The last proposed approach is based on the use of kernel methods. The main idea is founded on the nonparametric estimation of the errors PDF, since it is supposed unknown. Then, we optimize a criterion function based on the entropy of the errors' PDF, thus we obtain a minimum entropy estimator (MEE). The simulation of this estimation process by means of Monte Carlo, MCMC, or weighted bootstrap could led to us to construct a statistical approximation of the measurement population. .
APA, Harvard, Vancouver, ISO, and other styles
36

Andrieu, Guillaume. "Estimation par intervalle d'une distance évolutive." Montpellier 2, 1997. http://www.theses.fr/1997MON20233.

Full text
Abstract:
L'objet de cette these est l'etude de la variabilite d'une estimation de la distance evolutive entre deux sequences moleculaires. Apres un bref apercu de l'historique des theories de l'evolution, nous presentons les differentes methodes de reconstruction phylogenetiques. Nous detaillons ensuite l'expression et l'estimation d'une distance evolutive entre deux sequences dans le cadre d'un modele stochastique de l'evolution. Deux methodes sont communement utilisees pour mesurer l'incertitude d'une estimation de la distance evolutive : l'estimation de la variance et le bootstrap. Nous proposons l'application de la methode statistique d'estimation par intervalle. Nous presentons les methodes et les algorithmes de construction d'intervalles de confiance que nous avons developpe dans le cadre de deux modeles : celui de jukes et cantor (1969) et celui de kimura (1980). Les resultats obtenus par simulation ou avec des donnees reelles et artificielles montrent la validite de notre demarche et nous permettent d'observer le comportement des autres methodes dans diverses conditions quant a la taille des sequences et la proportion de difference entre les sequences.
APA, Harvard, Vancouver, ISO, and other styles
37

Sidi, Zakari Ibrahim. "Sélection de variables et régression sur les quantiles." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10081/document.

Full text
Abstract:
Ce travail est une contribution à la sélection de modèles statistiques et plus précisément à la sélection de variables dans le cadre de régression linéaire sur les quantiles pénalisée lorsque la dimension est grande. On se focalise sur deux points lors de la procédure de sélection : la stabilité de sélection et la prise en compte de variables présentant un effet de groupe. Dans une première contribution, on propose une transition des moindres carrés pénalisés vers la régression sur les quantiles (QR). Une approche de type bootstrap fondée sur la fréquence de sélection de chaque variable est proposée pour la construction de modèles linéaires (LM). Dans la majorité des cas, l’approche QR fournit plus de coefficients significatifs. Une deuxième contribution consiste à adapter certains algorithmes de la famille « Random » LASSO (Least Absolute Solution and Shrinkage Operator) au cadre de la QR et à proposer des méthodes de stabilité de sélection. Des exemples provenant de la sécurité alimentaire illustrent les résultats obtenus. Dans le cadre de la QR pénalisée en grande dimension, on établit la propriété d’effet groupement sous des conditions plus faibles ainsi que les propriétés oracles. Deux exemples de données réelles et simulées illustrent les chemins de régularisation des algorithmes proposés. La dernière contribution traite la sélection de variables pour les modèles linéaires généralisés (GLM) via la vraisemblance nonconcave pénalisée. On propose un algorithme pour maximiser la vraisemblance pénalisée pour une large classe de fonctions de pénalité non convexes. La propriété de convergence de l’algorithme ainsi que la propriété oracle de l’estimateur obtenu après une itération ont été établies. Des simulations ainsi qu’une application sur données réelles sont également présentées
This work is a contribution to the selection of statistical models and more specifically in the selection of variables in penalized linear quantile regression when the dimension is high. It focuses on two points in the selection process: the stability of selection and the inclusion of variables by grouping effect. As a first contribution, we propose a transition from the penalized least squares regression to quantiles regression (QR). A bootstrap approach based on frequency of selection of each variable is proposed for the construction of linear models (LM). In most cases, the QR approach provides more significant coefficients. A second contribution is to adapt some algorithms of "Random" LASSO (Least Absolute Shrinkage and Solution Operator) family in connection with the QR and to propose methods of selection stability. Examples from food security illustrate the obtained results. As part of the penalized QR in high dimension, the grouping effect property is established under weak conditions and the oracle ones. Two examples of real and simulated data illustrate the regularization paths of the proposed algorithms. The last contribution deals with variable selection for generalized linear models (GLM) using the nonconcave penalized likelihood. We propose an algorithm to maximize the penalized likelihood for a broad class of non-convex penalty functions. The convergence property of the algorithm and the oracle one of the estimator obtained after an iteration have been established. Simulations and an application to real data are also presented
APA, Harvard, Vancouver, ISO, and other styles
38

Lerasle, Matthieu. "Rééchantillonnage et sélection de modèles optimale pour l'estimation de la densité." Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000290/.

Full text
Abstract:
Le principal objectif de cette thèse est d’étudier deux méthodes de calibration automatique de la pénalité pour la sélection de modèle. L’avantage de ces méthodes est double, d’une part, elles sont toujours implémentables, elles ont mˆeme souvent été utilisées dans des problèmes pratiques avec succès, d’autre part, elles sont optimales puisqu’elles permettent de sélectionner asymptotiquement le meilleur modèle. Il existe d’autres méthodes de pénalisation calculables en pratique, quand les données sont indépendantes. Néanmoins, en dehors des collections de modèles très réguliers, ces pénalités sont très pessimistes, voire dépendent de constantes inconnues comme la norme sup de la densité. De plus, quand on veut utiliser les preuves classiques pour des données mélangeantes, les pénalités que l’on obtient dépendent toujours de constantes inconnues de l’utilisateur (voir le chapitre 3). Le chapitre 2 étudie l’heuristique de pente et les pénalités par rééchantillonnage dans le cas de données indépendantes. On donne une condition suffisante pour que l’heuristique de la pente soit optimale, en utilisant l’inégalité de concentration de Talagrand pour le supremum du processus empirique. On étudie aussi l’approximation du processus empirique par sa version rééchantillonnée et on en déduit que la même condition suffit à garantir l’optimalité des méthodes par rééchantillonnage. Le chapitre 3 est consacré à l’étude de pénalités classiques quand les observations sont mélangeantes. On montre des inégalités oracles et l’adaptativité de l’estimateur sélectionné à la régularité de la densité. La pénalité dépend des coefficients de mélange qui peuvent parfois être évalués. Le chapitre 4 étend les résultats du chapitre 2 au cas de données mélangeantes. On montre ainsi que les méthodes de la pente et bootstrap sont également optimales dans ce cas, sous le même type de conditions. Ces nouvelles pénalités sont toujours calculables en pratique et le modèle sélectionné est asymptotiquement un oracle, ce qui améliore beaucoup les résultats du chapitre 3. Le chapitre 5 traite du problème des régions de confiance adaptatives. Contrairement au cas de l’estimation, cette adaptation n’est que très rarement possible. Quand elle l’est, nous construisons des régions adaptatives. En particulier, on améliore quelques résultats de concentration du chapitre 2 lorsque les données sont à valeurs réelles, notamment ceux des U-statistiques.
APA, Harvard, Vancouver, ISO, and other styles
39

Barros, Emanoel de Souza. "Estimations de frontières de production des exploitations agricoles par des approches paramétriques, non paramétriques et bootstrap : avec une application à l'évaluation des effets de l'irrigation dans le Nordeste du Brésil." Paris 1, 2006. http://www.theses.fr/2006PA010024.

Full text
Abstract:
L'agriculture irriguée est la grande responsable pour le développement de la Vallée du Sâo Francisco au Nordeste du Brésil. Elle a eu un rôle crucial dans la captation de nouvelles technologies, tout cela à cause des investissements du Gouvernement Brésilien dans les années soixante. Aujourd'hui, ce pôle est caractérisé par une production diversifiée de fruiticultures destinée au marché européen et nord-américain. Donc, nous pouvons supposer que la technologie utilisée dans l'irrigation, combinée avec des inputs modernes, permet un niveau de production proche ou sur la frontière de production. Pour ce faire, cette thèse vise analyser l'efficacité des producteurs agricoles du pôle PetrolinalJuazeiro utilisant les approches paramétriques, non paramétriques d'estimation de frontières de production et vérifier les résultats par rapport à leurs niveaux d'efficacité. Ensuite, nous utilisons l'approche bootstrap proposé par Silverman [1986], le smoothed bootstrap pour trouver des intervalles de confiance fiables et tester la convexité de l'ensemble de production. L'analyse des résultats montre que les facteurs de production responsables pour l'inefficacité son «inputs» et «capital» ou une combinaison des deux. Les fermiers insérés dans les projets d'irrigation peuvent encore mieux exploiter leur technologie et améliorer leur cadre compétitif au marché international.
APA, Harvard, Vancouver, ISO, and other styles
40

Banga, Mbom Calvin David. "L'approche bootstrap en analyse des images : application à la restitution de la cinétique de la fuite dans la choriorétinopathie séreuse centrale." Rennes 1, 1995. http://www.theses.fr/1995REN10016.

Full text
Abstract:
Ce mémoire est une contribution à l'analyse des images médicales par des méthodes de reconnaissance des formes statistique. Ces méthodes conduisent à des techniques de classification et de segmentation multidimensionnelle qui présentent un grand intérêt pour la description qualitative ou quantitative des tissus sains ou des lésions en imagerie médicale. Cependant, la complexité des algorithmes utilisés induit une lourdeur en temps de calcul qui est néfaste pour l'analyse des séquences d'images. Pour résoudre ce problème, nous proposons une approche bootstrap pour l'analyse des images bidimensionnelles. Elle est basée sur des tirages aléatoires de blocs d'observations. L'information de corrélation de l'image est ainsi conservée à l'intérieur d'un bloc, alors que les différents blocs tirés sont indépendants. Les paramètres statistiques de l'image sont estimés sur un échantillon de taille petite et optimal au sens d'un critère de représentativité préalablement défini. Le modèle proposé permet ainsi d'améliorer l'estimation en réduisant le temps de calcul. Le problème de la restitution de la cinétique de la fuite en choriorétinopathie séreuse centrale justifie la nécessité d'un tel modèle au niveau de l'application. Sa résolution passe par la double contrainte d'effectuer plusieurs segmentations des séquences d'images du fond de l'œil pendant la durée limitée d'une séance d'angiographie. L'activité de la fuite est alors évaluée par le tracé d'une courbe donnant sa surface en fonction du temps d'injection du produit de contraste pour l'aide au diagnostic de cette pathologie. Le modèle proposé ouvre une perspective pour l'utilisation de l'approche bootstrap en reconnaissance des formes, notamment en segmentation multidimensionnelle, en classification des textures et en analyse invariante
This work concerns the medical image analysis using statistical pattern recognition methods. These methods usually lead to classification and multivariage segmentation approaches that are more and more used in medical imaging for qualitative or quantitative analysis of tissue. However, statistical pattern reconigtion methods are well known to need high computing time. This assumption is not suitable for image sequences analysis. To get rid of this important problem, we suggest a bootstrap approach for two-dimensional image analysis. This model is based on the random sampling of blocks of observations in the original image. The correlation relationships are maintained in a given block, while the selected blocks are each other independent. Given an original image, we randomly select a small representative set of observations for image statistical parameters estimation. In this way, the bootstrap model improves the estimation and reduces the computing time due to the complexity of estimation algorithms used in statistical pattern recognition. The problem of the quantification of the serum leak kinetic in the Central Serous Choroiditis pathology is and important application in wich the bootstrap model we propose is fro a great need. The serum leak surface is mesures from the eye's fundus images sequence after an unsupervised segmentation sept using the bootstrap random sampling model wich we have proposed. Both a high-quality segmentation and a great reduction of etimation time are required for this application. A graph showing the serum leak surface versus the Fluorecein inection time is then plotted for helping the decision in ophtalmology. The bootstrap model wich we propose for image analysis shows the way to use the bootstrap approach for statistical parameters estimation in pattern recognition, notably in image analysis by invariance methods, in texture analysis and multivariate segmentation
APA, Harvard, Vancouver, ISO, and other styles
41

Berthaume, Élodie. "L' annonce majeure d'une fusion par deux acteurs majeurs d'un secteur : la réaction des cours de bourse des outsiders." Paris 1, 2011. http://www.theses.fr/2011PA010051.

Full text
Abstract:
L'objectif de cette recherche est de déterminer si l'annonce d'une fusion horizontale a uniquement un impact sur les cours de bourse des insiders (les deux sociétés impliquées dans l'opération) ou si elle affecte également les cours de bourse des autres sociétés du secteur. Dans une première partie, nous proposons une revue de la littérature. Les théories financières vont en majorité dans le sens de l'apparition de rentabilités anormales positives pour les outsiders lorsqu'une fusion horizontale est annoncée dans leur secteur. Certains secteurs, types d'outsiders ou transactions sont plus propices à l'enregistrement des ces rentabilités anormales. Dans une seconde partie, nous utilisons la méthodologie des études d'évènement pour tester nos hypothèses et mesurer la vitesse d'incorporation de l'information nouvelle dans les cours de bourse des outsiders. L'utilisation du bootstrap permet de prendre en compte le problème de clustering inhérent à notre étude.
APA, Harvard, Vancouver, ISO, and other styles
42

Lenormand, Anne. "Prévisions dans les modèles cointégrés avec rupture : application à la demande de transports terrestres de marchandises et de voyageurs." Paris 1, 2002. http://www.theses.fr/2002PA010007.

Full text
Abstract:
Depuis 20 ans, le marché des transports terrestres a subi de profondes mutations tant niveau des transports de marchandises que de voyageurs. Nous avons de ce fait procédé à une modélisation des fonctions de demande de transport en testant de nombreuses variables explicatives et en intégrant la possibilité de rupture dans la relation de long terme. Nous proposons une procédure d'estimation en plusieurs étapes. Cette procédure appliquée au transport est transposable à tout autre secteur dont la fonction de demande est exprimée en fonction de variables non-stationnaires cointégrées. La diversité de la demande de transport de marchandises comme de voyageurs a nécessité une analyse des marchés et une estimation des fonctions de" demande à un niveau suffisamment fin, qui distingue les modes (route, fer,. . . ) et les principaux segments (trafic interurbain, national ou international). Dans une vision à long terme de la répartition modale, nous avons effectué des prévisions à 20 ans des différents trafics. Les prévisions sont tout d'abord réalisées à partir des tendances passées. Les intervalles de prévisions associés sont obtenus à partir de la théorie asymptotique, à partir de simulations (Monte Carlo, Bootstrap ). Nous avons ensuite calculé des prévisions à partir de scénarios pour tester les effets de différentes politiques de transport sur l' évolution des trafics.
APA, Harvard, Vancouver, ISO, and other styles
43

Essid, Hédi. "L'induction statistique dans le modèle DEA avec inputs quasi-fixes : développements théoriques et une application au secteur de l'éducation tunisien." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50374-2007-Essid.pdf.

Full text
Abstract:
L'objet de notre thèse est l'analyse de l'efficacité et de la productivité des organisations dans un contexte multivarié. En particulier, notre thèse s'inscrit dans la lignée des travaux qui cherchent à développer les assises statistiques des estimateurs non paramétriques des frontières d'efficacité de type Data Envelopment Analysis (DEA). Ainsi, nous nous intéressons aux propriétés statistiques de cet estimateur, notamment celles de la convergence et du biais. D'autant plus, la distribution d'échantillonnage pour cet estimateur fait aussi l'objet de notre étude ; et ce afin d'utiliser les techniques de l'inférence statistique dans l'analyse de l'efficacité et de la productivité. Dans notre analyse, nous distinguons entre les inputs contrôlables et les inputs quasi-fixes ou non discrétionnaires. Ces derniers entrent désormais, dans le processus de production de l'organisation sans être pourtant sous son contrôle. Pour mener notre étude, nous définissons un modèle statistique permettant la caractérisation du Processus Générateur des Données (PGD) ; et nous utilisons la méthode du noyau pour construire un estimateur convergent de ce processus. En se basant sur cet estimateur, nous utilisons la méthodologie bootstrap pour corriger le biais des estimateurs des scores d'efficacité, construire des intervalles de confiance et développer un problème de test d'hypothèses statistiques concernant la nature des rendements d'échelle des organisations. Nous étudions ensuite la variation de l'efficacité dans un modèle complet de variation de la productivité. Cette étude est menée en utilisant l'indice de productivité de Malmquist. Ce dernier est estimé par la méthode DEA avec inputs quasi-fixes. Pour évaluer la précision statistique des estimateurs, nous définissons un modèle statistique intertemporel permettant la caractérisation du Processus Générateur des Données Intertemporel (PGDI) ; et d'utiliser ainsi la méthodologie bootstrap pour corriger le biais des estimateurs et construire des intervalles de confiance pour l'indice de Malmquist ainsi que pour ses composantes. Enfin, nous appliquons notre analyse au secteur de l'éducation tunisien. Par cela, nous visons en premier lieu, le développement d'une mesure de l'efficacité de l'éducation dont nous pouvons étudier sa significativité statistique. En second lieu, nous voulons vérifier si la variation de la productivité dans le secteur de l'éducation est réelle ou plutôt perverse.
APA, Harvard, Vancouver, ISO, and other styles
44

Albert, Mélisande. "Tests d’indépendance par bootstrap et permutation : étude asymptotique et non-asymptotique. Application en neurosciences." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4079/document.

Full text
Abstract:
Premièrement, nous construisons de tels tests basés sur des approches par bootstrap ou par permutation, et étudions leurs propriétés asymptotiques dans un cadre de processus ponctuels, à travers l'étude du comportement asymptotique des lois conditionnelles des statistiques de test bootstrappée et permutée, sous l'hypothèse nulle ainsi que toute alternative. Nous les validons en pratique par simulation et les comparons à des méthodes classiques en neurosciences. Ensuite, nous nous concentrons sur les tests par permutation, connus pour contrôler non-asymptotiquement leur niveau. Les p-valeurs basées sur la notion de coïncidences avec délai, sont implémentées dans une procédure de tests multiples, appelée méthode Permutation Unitary Events, pour détecter les synchronisations entre deux neurones. Nous validons la méthode par simulation avant de l'appliquer à de vraies données. Deuxièmement, nous étudions les propriétés non-asymptotiques des tests par permutation en termes de vitesse de séparation uniforme. Nous construisons une procédure de tests agrégés, basée sur du seuillage par ondelettes dans un cadre de variables aléatoires à densité. Nous déduisons d'une inégalité fondamentale de Talagrand, une nouvelle inégalité de concentration de type Bernstein pour des sommes permutées aléatoirement qui nous permet de majorer la vitesse de séparation uniforme sur des espaces de Besov faibles et d'en déduire que cette procédure semble être optimale et adaptative au sens du minimax
On the one hand, we construct such tests based on bootstrap and permutation approaches. Their asymptotic performance are studied in a point process framework through the analysis of the asymptotic behavior of the conditional distributions of both bootstrapped and permuted test statistics, under the null hypothesis as well as under any alternative. A simulation study is performed verifying the usability of these tests in practice, and comparing them to existing classical methods in Neuroscience. We then focus on the permutation tests, well known for their non-asymptotic level properties. Their p-values, based on the delayed coincidence count, are implemented in a multiple testing procedure, called Permutation Unitary Events method, to detect the synchronization occurrences between two neurons. The practical validity of the method is verified on a simulation study before being applied on real data. On the other hand, the non-asymptotic performances of the permutation tests are studied in terms of uniform separation rates. A new aggregated procedure based on a wavelet thresholding method is developed in the density framework. Based on Talagrand's fundamental inequalities, we provide a new Bernstein-type concentration inequality for randomly permuted sums. In particular, it allows us to upper bound the uniform separation rate of the aggregated procedure over weak Besov spaces and deduce that this procedure seems to be optimal and adaptive in the minimax sens
APA, Harvard, Vancouver, ISO, and other styles
45

Wendt, Herwig. "Contributions of Wavelet Leaders and Bootstrap to Multifractal Analysis : Images, estimation performance, dependence structure and vanishing moments. Confidence Intervals and Hypothesis Tests." Lyon, École normale supérieure (sciences), 2008. http://www.theses.fr/2008ENSL0474.

Full text
Abstract:
Cette thèse étudie l'apport à l'analyse multifractale de l'utilisation des coefficients d'ondelettes dominants et des techniques statistiques bootstrap. Les propriétés statistiques de procédures d'analyse multifractale construites à partir de coefficients dominants sont caractérisées. L'extension aux images est validée. Plusieurs difficultés théoriques, cruciales en pratique, sont étudiées : régularité minimale, espaces fonctionnels, effet de linéarisation. L'originalité de notre approche bootstrap réside dans la construction de blocs temps-échelle, qui permet le calcul d'intervalles de confiance et tests d'hypothèse, à partir d'une seule observation de longueur finie. L'étude de la structure de dépendance des coefficients d'ondelettes des cascades multiplicatives montre que le nombre de moments nuls de l'ondelette d'analyse échoue à réduire la portée de la longue dépendance. Deux applications illustrent ces procédures : turbulence hydrodynamique et classification de textures
This thesis studies the benefits of the use of wavelet Leaders and bootstrap methods for multifractal analysis. The statistical properties of wavelet Leader based multifractal analysis procedures are characterized, and the extension to images is validated. Certain theoretical questions of crucial practical importance are investigated: minimum regularity, function space embedding, linearization effect. The proposed bootstrap procedures permit the construction of confidence intervals and hypothesis tests from one single finite length observation of data. This is achieved by an original time-scale block bootstrap approach in the wavelet domain. The study of the dependence structures of wavelet coefficients of multiplicative cascades shows that the number of vanishing moments of the analyzing wavelet is ineffective for reducing the long range dependence structure. The multifractal analysis procedures are applied to hydrodynamic turbulence data, and to texture image classification
APA, Harvard, Vancouver, ISO, and other styles
46

Amegble, Koami Dzigbodi. "Tests non paramétriques de spécification pour densité conditionnelle : application à des modèles de choix discret." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25773.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Dans ce travail, nous étudions la performance statistique (taille et puissance) en échantillon fini de deux tests non paramétriques de spécification pour densité conditionnelle proposés par Fan et al. (2006) et Li et Racine (2013). Ces tests permettent de vérifier si les probabilités conditionnelles postulées dans les modèles de choix discret (logit/probit multinomial à effets fixes ou aléatoires, estimateur de Klein et Spady (1993), etc) représentent correctement les choix observés. Par rapport aux tests existants, cette approche a l’avantage d’offrir une forme fonctionnelle flexible alternative au modèle paramétrique lorsque ce dernier se révèle mal spécifié. Ce modèle alternatif est directement issu de la procédure de test et il correspond au modèle non contraint obtenu par des produits de noyaux continus et discrets. Les deux tests explorés ont une puissance en échantillon fini supérieure aux tests existants. Cette performance accrue s’obtient en combinant une procédure bootstrap et l’utilisation de paramètres de lissage des fonctions noyaux par validation croisée par les moindres carrés. Dans notre application, nous parallélisons les calculs de taille et de puissance, ainsi que l’estimation des fenêtres de lissage, sur un serveur multi-processeurs (Colosse, de Calcul Québec). Nous utilisons des routines "Open MPI" pré-implémentées dans R. Par rapport aux simulations effectuées dans les articles originaux, nous postulons des modèles plus proches de ceux habituellement utilisés dans la recherche appliquée (logit et probit à variance unitaire notamment). Les résultats des simulations confirment les bonnes taille et puissance des tests en échantillon fini. Par contre, les gains additionnels de puissance de la statistique lissée proposée par Li et Racine (2013) se révèlent négligeables dans nos simulations. Mots clés : Bootstrap, choix discret, densité conditionnelle, Monte Carlo, produit de noyaux, puissance, taille.
APA, Harvard, Vancouver, ISO, and other styles
47

Depoorter, Nicolas. "Développement de méthodes de simulation pour l'analyse du comportement aux dommages de résines époxydes." Valenciennes, 2005. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/3e942ed0-5c1f-41f5-bd33-d3f1daea5985.

Full text
Abstract:
La demande de produits de haut de gamme est chaque jour plus élevée. C'est pourquoi il est plus que jamais important d'être capable de prédire la détérioration dans les conditions de service. L'attention de ce travail est portée sur une résine époxy renforcée utilisée pour l'encapsulation de composants électroniques avec comme but l'étude de la durée de vie de ce produit à l'aide de la mécanique de l'endommagement. A cette fin, des expériences de fatigue oligo- cyclique pilotées en déformation ont été réalisées et une méthode d'extraction de l'endommagement grâce à l'hystérésis contrainte- déformation est proposée. Les tests ont été réalisés sur un matériau recuit, afin d'éliminer les effets de vieillissements activés thermiquement. La durée de vie des expériences a été analysée en utilisant la distribution de Weibull, et dans le but de mieux la connaître, des analyses Bootstrap ont été faites. Grâce à cet outil puissant, il est possible de construire un intervalle de confiance à 90%, ce qui donne bien plus d'informations sur l'incertitude de la durée de vie. D'un autre côté, ces expériences de fatigue ont été simulées avec une loi de comportement linéaire viscoélastique endommagé. Trois modèles d'endommagement sont suggérés et sont basés sur un modèle d'endommagement viscoplastique proposé par Lemaitre. Si l'identification des paramètres des modèles avec des expériences est préférable, une méthode innovatrice a été utilisée dans ce travail. En effet le Plan d'Expérience (DoE) fournit une étude systématique de l'influence des paramètres des modèles sur l'endommagement ce qui permet de déterminer le meilleur modèle pour ajuster les expériences
The demand for high-ends product is continuously rising. Therefore, it is more than ever important to be able to predict the deterioration under service conditions. The focus of this work lies on a toughened epoxy resin used for electronic packaging with the scope of investigating the lifetime of this material with the help of continuum damage mechanics. For this purpose, strain- controlled fatigue experiments at several temperatures were performed, and a method to extract damage from the strain- stress hysteresis curve is suggested. Tests were performed on annealed samples in order to minimize thermally activated ageing effects. The lifetime of the experiments was analyzed via Weibull analysis, and in order to determine the uncertainty, the bootstrap method was applied. Thanks to this powerful tool, it is possible to calculate a 90% confidence interval, which gives more information on the uncertainty of the lifetime. Further, the fatigue experiments were simulated with a linear viscoelastic damaged model. Three damage models are suggested which are based on a viscoplastic damage model proposed by Lemaitre. In order to identify the model parameter is by reverse engineering, an innovative method has been used in this work. Indeed, the Design of Experiment (DoE) provides a systematic study of the influence of the model parameters on the damage variable. Hence, it was possible to determine the best model to fit the experiments
APA, Harvard, Vancouver, ISO, and other styles
48

Ferfache, Anouar Abdeldjaoued. "Les M-estimateurs semiparamétriques et leurs applications pour les problèmes de ruptures." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2643.

Full text
Abstract:
Dans cette thèse, nous nous intéressons principalement aux modèles semiparamétriques qui ont reçu beaucoup d’intérêt par leur excellente utilité scientifique et leur complexité théorique intrigante. Dans la première partie, nous considérons le problème de l’estimation d’un paramètre dans un espace θ de Banach, en maximisant une fonction critère qui dépend d’un paramètre de nuisance inconnu h, éventuellement de dimension infinie. Nous montrons que le bootstrap m out of n, dans ce cadre général, est consistant sous des conditions similaires à celles requises pour la convergence faible des M-estimateurs non-réguliers. Dans ce cadre délicat, des techniques avancées seront nécessaires pour faire face aux estimateurs du paramètre de nuisance à l’intérieur des fonctions critères non régulières. Nous étudions ensuite le bootstrap échangeable pour les Z-estimateurs. L’ingrédient principal est l’utilisation originale d’une identité différentielle qui s’applique lorsque la fonction critère aléatoire est linéaire en termes de mesure empirique. Un grand nombre de schémas de rééchantillonnage bootstrap apparaissent comme des cas particuliers de notre étude. Des exemples d’applications de la littérature sont présentes pour illustrer la généralité et l’utilité de nos résultats. La deuxième partie est consacrée aux modèles statistiques semiparamétriques de ruptures multiples. L’objectif principal de cette partie est d’étudier les propriétés asymptotiques des M-estimateurs semiparamétriques avec des fonctions critères non lisses des paramètres d’un modèle de rupture multiples pour une classe générale de modèles dans lesquels la forme de la distribution peut changer de segment en segment et dans lesquels, éventuellement, il y a des paramètres communs à tous les segments. La consistance des M-estimateurs semi-paramétriques des points de rupture est établie et la vitesse de convergence est déterminée. La normalité asymptotique des M-estimateurs semiparamétriques des paramètres est établie sous des conditions générales. Nous étendons enfin notre étude au cadre des données censurées. Nous étudions les performances de nos méthodologies pour des petits échantillons à travers des études de simulations
In this dissertation we are concerned with semiparametric models. These models have success and impact in mathematical statistics due to their excellent scientific utility and intriguing theoretical complexity. In the first part of the thesis, we consider the problem of the estimation of a parameter θ, in Banach spaces, maximizing some criterion function which depends on an unknown nuisance parameter h, possibly infinite-dimensional. We show that the m out of n bootstrap, in a general setting, is weakly consistent under conditions similar to those required for weak convergence of the non smooth M-estimators. In this framework, delicate mathematical derivations will be required to cope with estimators of the nuisance parameters inside non-smooth criterion functions. We then investigate an exchangeable weighted bootstrap for function-valued estimators defined as a zero point of a function-valued random criterion function. The main ingredient is the use of a differential identity that applies when the random criterion function is linear in terms of the empirical measure. A large number of bootstrap resampling schemes emerge as special cases of our settings. Examples of applications from the literature are given to illustrate the generality and the usefulness of our results. The second part of the thesis is devoted to the statistical models with multiple change-points. The main purpose of this part is to investigate the asymptotic properties of semiparametric M-estimators with non-smooth criterion functions of the parameters of multiple change-points model for a general class of models in which the form of the distribution can change from segment to segment and in which, possibly, there are parameters that are common to all segments. Consistency of the semiparametric M-estimators of the change-points is established and the rate of convergence is determined. The asymptotic normality of the semiparametric M-estimators of the parameters of the within-segment distributions is established under quite general conditions. We finally extend our study to the censored data framework. We investigate the performance of our methodologies for small samples through simulation studies
APA, Harvard, Vancouver, ISO, and other styles
49

Kandji, Baye Matar. "Stochastic recurrent equations : structure, statistical inference, and financial applications." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAG004.

Full text
Abstract:
Nous nous intéressons à l'étude des propriétés théoriques des équations récurrentes stochastiques (SRE) et de leurs applications en finance. Ces modèles sont couramment utilisés en économétrie, y compris en économétrie de la finance, pour styliser la dynamique d'une variété de processus tels que la volatilité des rendements financiers. Cependant, la structure de probabilité ainsi que les propriétés statistiques de ces modèles sont encore mal connues, particulièrement lorsque le modèle est considéré en dimension infinie ou lorsqu'il est généré par un processus non indépendant. Ces deux caractéristiques entraînent de formidables difficultés à l'étude théorique de ces modèles. Dans ces contextes, nous nous intéressons à l'existence de solutions stationnaires, ainsi qu'aux propriétés statistiques et probabilistes de ces solutions.Nous établissons de nouvelles propriétés sur la trajectoire de la solution stationnaire des SREs que nous exploitons dans l'étude des propriétés asymptotiques de l'estimateur du quasi-maximum de vraisemblance (QMLE) des modèles de volatilité conditionnelle de type GARCH. En particulier, nous avons étudié la stationnarité et l'inférence statistique des modèles GARCH(p,q) semi-forts dans lesquels le processus d'innovation n'est pas nécessairement indépendant. Nous établissons la consistance du QMLE des GARCH (p,q) semi-forts sans hypothèses d'existence de moment, couramment supposée pour ces modèles, sur la distribution stationnaire. De même, nous nous sommes intéressés aux modèles GARCH à deux facteurs (GARCH-MIDAS); un facteur de volatilité à long terme et un autre à court terme. Ces récents modèles introduits par Engle et al. (2013) ont la particularité d'avoir des solutions stationnaires avec des distributions à queue épaisse. Ces modèles sont maintenant fréquemment utilisés en économétrie, cependant, leurs propriétés statistiques n'ont pas reçu beaucoup d'attention jusqu'à présent. Nous montrons la consistance et la normalité asymptotique du QMLE des modèles GARCH-MIDAS et nous proposons différentes procédures de test pour évaluer la présence de volatilité à long terme dans ces modèles. Nous illustrons nos résultats avec des simulations et des applications sur des données financières réelles.Enfin, nous étendons le résultat de Kesten (1975) sur le taux de croissance des séquences additives aux processus superadditifs. Nous déduisons de ce résultat des généralisations de la propriété de contraction des matrices aléatoires aux produits d'opérateurs stochastiques. Nous utilisons ces résultats pour établir des conditions nécessaires et suffisantes d'existence de solutions stationnaires du modèle affine à coefficients positifs des SREs dans l'espace des fonctions continues. Cette classe de modèles regroupe la plupart des modèles de volatilité conditionnelle, y compris les GARCH fonctionnels
We are interested in the theoretical properties of Stochastic Recurrent Equations (SRE) and their applications in finance. These models are widely used in econometrics, including financial econometrics, to explain the dynamics of various processes such as the volatility of financial returns. However, the probability structure and statistical properties of these models are still not well understood, especially when the model is considered in infinite dimensions or driven by non-independent processes. These two features lead to significant difficulties in the theoretical study of these models. In this context, we aim to explore the existence of stationary solutions and the statistical and probabilistic properties of these solutions.We establish new properties on the trajectory of the stationary solution of SREs, which we use to study the asymptotic properties of the quasi-maximum likelihood estimator (QMLE) of GARCH-type (generalized autoregressive conditional heteroskedasticity) conditional volatility models. In particular, we study the stationarity and statistical inference of semi-strong GARCH(p,q) models where the innovation process is not necessarily independent. We establish the consistency of the QMLE of semi-strong GARCHs without assuming the commonly used condition that the stationary distribution admits a small-order moment. In addition, we are interested in the two-factor volatility GARCH models (GARCH-MIDAS); a long-run, and a short-run volatility. These models were recently introduced by Engle et al. (2013) and have the particularity to admit stationary solutions with heavy-tailed distributions. These models are now widely used but their statistical properties have not received much attention. We show the consistency and asymptotic normality of the QMLE of the GARCH-MIDAS models and provide various test procedures to evaluate the presence of long-run volatility in these models. We also illustrate our results with simulations and applications to real financial data.Finally, we extend a result of Kesten (1975) on the growth rate of additive sequences to superadditive processes. From this result, we derive generalizations of the contraction property of random matrices to products of stochastic operators. We use these results to establish necessary and sufficient conditions for the existence of stationary solutions of the affine case with positive coefficients of SREs in the space of continuous functions. This class of models includes most conditional volatility models, including functional GARCHs
APA, Harvard, Vancouver, ISO, and other styles
50

Magnanensi, Jérémy. "Amélioration et développement de méthodes de sélection du nombre de composantes et de prédicteurs significatifs pour une régression PLS et certaines de ses extensions à l'aide du bootstrap." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAJ082/document.

Full text
Abstract:
La régression Partial Least Squares (PLS), de part ses caractéristiques, est devenue une méthodologie statistique de choix pour le traitement de jeux de données issus d’études génomiques. La fiabilité de la régression PLS et de certaines de ses extensions repose, entre autres, sur une détermination robuste d’un hyperparamètre, le nombre de composantes. Une telle détermination reste un objectif important à ce jour, aucun critère existant ne pouvant être considéré comme globalement satisfaisant. Nous avons ainsi élaboré un nouveau critère de choix pour la sélection du nombre de composantes PLS basé sur la technique du bootstrap et caractérisé notamment par une forte stabilité. Nous avons ensuite pu l’adapter et l’utiliser à des fins de développement et d’amélioration de procédés de sélection de prédicteurs significatifs, ouvrant ainsi la voie à une identification rendue plus fiable et robuste des probe sets impliqués dans la caractéristique étudiée d’une pathologie
The Partial Least Squares (PLS) regression, through its properties, has become a versatile statistic methodology for the analysis of genomic datasets.The reliability of the PLS regression and some of its extensions relies on a robust determination of a tuning parameter, the number of components. Such a determination is still a major aim since no existing criterion could be considered as a global benchmark one in the state-of-art literature. We developed a new bootstrap based stopping criterion in PLS components construction that guarantee a high level of stability. We then adapted and used it to develop and improve variable selection processes, allowing a more reliable and robust determination of significant probe sets related to the studied feature of a pathology
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography