To see the other types of publications on this topic, follow the link: Non normalité.

Dissertations / Theses on the topic 'Non normalité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Non normalité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Desmoulins-Lebeault, François. "Non-normalité des taux de rentabilité des actifs financiers et gestion de portefeuille." Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090052.

Full text
Abstract:
Nous étudions les propriétés de la distribution des taux de rentabilité des titres financiers et nous en évaluons l'impact sur la gestion de portefeuilles. Tout d'abord nous estimons les caractéristiques distributionnelles des taux de rentabilité et étendons cela par l'étude des propriétés en échantillon des estimateurs des semi-moments. Avec ces derniers nous développons et étudions un test de normalité adapté à la finance, que nous utilisons pour estimer la vitesse de convergence de la distribution des taux de rentabilité vers la normalité en fonction de l'horizon. Nous jugeons de l'impact de la non-normalité des taux de rentabilité sur les performances empiriques du MEDAF, au travers des semi-comoments. Enfin, nous étudions les méthodes de choix de portefeuille en non-normalité et en établissons une reposant sur les distances entre densités, en utilisant des développements de Gram-Charlier pour obtenir la distribution des rentabilités d'un portefeuille, conditionnellement aux poids des titres
Financial assets returns being randomly distributed, we study the properties of their distribution and assess the impact it has on portfolio management. First, we study precisely the distributional properties of stock returns, and then we extend this analysis by studying the sampling properties of the estimators of semi-moments. Using these semi-moments, we develop and study a test of normality very well adapted to financial analysis. We use this test to evaluate the speed of convergence of the distribution of returns to normality as the horizon increases. After that, we evaluate the impact non-normality has on the empirical performances of the CAPM, with the help of semi-comoments among other tools. Eventually, we review the different existing methods used to extend the CAPM to non Gaussian settings, and introduce a portfolio selection methodology relying on the distances between distributions. To this end, we use Gram-Charlier expansions to model the distribution of the returns on a portfolio, conditionally to the weights of the stocks composing this portfolio
APA, Harvard, Vancouver, ISO, and other styles
2

Hafsa, Houda. "Modèles d'évaluation et d'allocations des actifs financiers dans le cadre de non normalité des rendements : essais sur le marché français." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM1015.

Full text
Abstract:
Depuis quelques années, la recherche financière s'inscrit dans une nouvelle dynamique. La nécessité de mieux modéliser le comportement des rendements des actifs financiers et les risques sur les marchés pousse les chercheurs à trouver des mesures de risque plus adéquates. Ce travail de recherche se situe dans cette évolution, ayant admis les caractéristiques des séries financières par des faits stylisés tels que la non normalité des rendements. A travers cette thèse nous essayons de montrer l'importance d'intégrer des mesures de risque qui tiennent compte de la non normalité dans le processus d'évaluation et d'allocation des actifs financiers sur le marché français. Cette thèse propose trois chapitres correspondant chacun à un article de recherche académique. Le premier article propose de revisiter les modèles d'évaluation en prenant en compte des moments d'ordres supérieurs dans un cadre de downside risk. Les résultats indiquent que les downside co-moments d'ordres supérieurs sont déterminants dans l'explication des variations des rendements en coupe transversale. Le second chapitre propose de mettre en relation la rentabilité financière et le risque mesuré par la VaR ou la CVaR. Nous trouvons que la VaR présente un pouvoir explicatif plus élevé que celui de la CVaR et que l'approche normale est plus intéressante que l'approche basée sur l'expansion de Cornish-Fisher (1937). Ces deux résultats contredisent les prédictions théoriques mais nous avons pu démontrer qu'ils sont inhérents au marché français. Le troisième chapitre propose une autre piste, nous revisitons le modèle moyenne-CVaR dans un cadre dynamique et en présence des coûts de transaction
This dissertation is part of an ongoing researches looking for an adequate model that apprehend the behavior of financial asset returns. Through this research, we propose to analyze the relevance of risk measures that take into account the non-normality in the asset pricing and portfolio allocation models on the French market. This dissertation is comprised of three articles. The first one proposes to revisit the asset pricing model taking into account the higher-order moments in a downside framework. The results indicate that the downside higher order co-moments are relevant in explaining the cross sectional variations of returns. The second paper examines the relation between expected returns and the VaR or CVaR. A cross sectional analysis provides evidence that VaR is superior measure of risk when compared to the CVaR. We find also that the normal estimation approach gives better results than the approach based on the expansion of Cornish-Fisher (1937). Both results contradict the theoretical predictions but we proved that they are inherent to the French market. In the third paper, we review the mean-CVaR model in a dynamic framework and we take into account the transaction costs. The results indicate that the asset allocation model that takes into account the non-normality can improve the performance of the portfolio comparing to the mean-variance model, in terms of the average return and the return-to CVaR ratio. Through these three studies, we think that it is possible to modify the risk management framework to apprehend in a better way the risk of loss associated to the non-normality problem
APA, Harvard, Vancouver, ISO, and other styles
3

Cleon, Louis-Marie. "Stabilité linéaire et non linéaire des schémas de Boltzmann sur réseau simulant des écoulements visqueux compressibles." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066183/document.

Full text
Abstract:
L'étude de stabilité des systèmes différentiels issus des équations de Navier-Stokes consiste à analyser la réponse du système linéarisé à une perturbation en onde plane. Elle ne peut pas rendre compte de tous les mécanismes possibles d'instabilité non linéaire. De telles analyses de stabilité non linéaire ont été abordées pour des discrétisations en différences finies de l'équation scalaire non visqueuse de Burgers. Elles sont basées sur l'analyse en ondes résonantes, en considérant un ensemble d'ondes qui forment un groupe fermé pour l'équation discrétisée. Une conclusion importante de ces travaux est que quelques mécanismes non linéaires instables existent qui échappent à l'analyse linéaire, comme le mécanisme de focalisation étudié et expliqué à l'aide des modes de side band, introduits pour amorcer les instabilités. Cette approche d'ondes résonantes est étendue à l'analyse non linéaire de stabilité pour les méthodes LBM (Lattice Boltzmann Method). Nous présentons pour la première fois une équation vectorielle à la place de l' équation scalaire de Burgers, car la méthode LBM considère une fonction de distribution par vitesses discrètes. L'application du principe des ondes résonantes aux équations de Boltzmann sur réseau pour un écoulement monodimensionnel, compressible et isotherme dans un schéma D1Q3 donne des cartes d'instabilité, dans le cas de 1 ou plusieurs modes résonants, très dépendantes des conditions initiales. Le phénomène de focalisation n'a pas été obtenu dans la formulation LBM. Des croissances transitoires dues à la non-normalité des opérateurs peuvent exister. Elles sont calculées par une méthode d'optimisation Lagrangienne utilisant les équations adjointes de LBM. L'application du principe des ondes résonantes est étendue à un modèle 2D. On montre que les instabilités deviennent prépondérantes
The stability study of differential systems derived from the Navier- Stokes equations consists in analysing the response of the planar linearized system from a disturbance on a flat wave. It cannot account for all possible mechanisms of nonlinear instability. Such non-linear stability analyses were discussed for finite difference of the scalar non-viscous Burger equation. They are based on the analysis in resonant waves, considering a set of waves that form a closed group for the discretized equation. An important conclusion of this work is that some unstable nonlinear mechanisms exist that are beyond the linear analysis, as the focusing mechanism studied and explained using the methods of side band, introduced to initiate instabilities. This approach of resonant waves is extended to non-linear stability analysis for LBM (Lattice Boltzmann Method) methods. We report for the first time a vector equation instead of the scalar Burgers equation, because the LBM method considers a distribution function by discrete speeds. The principle of resonant waves to lattice Boltzmann equations for one-dimensional flow in a compressible and isothermal D1Q3 scheme gives instability maps, in the case of one or more resonant modes , highly dependent upon the initial conditions. The phenomenon of focus has not been obtained in the LBM formulation. Transient growth due to non-normality of operators may exist. They are calculated by a Lagrangian optimization method combined with LBM equations. The principle of resonant waves is extended to a 2D model. We show that the instabilities become dominant
APA, Harvard, Vancouver, ISO, and other styles
4

Dubuc, Camus Sylvie. "Etude des propriétés de dégénérescence et de normalité des fonctions booléennes et construction de fonctions q-aires parfaitement non linéaires." Caen, 2001. http://www.theses.fr/2001CAEN2011.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre général de létude des propriétés des fonctions q-aires dans les systèmes de chiffrement à clé secrète et leurs liens avec la théorie des codes correcteurs d'erreurs. Nous nous intéressons, en particulier, à trois classes de fonctions : les fonctions booléennes et vectorielles dégénérées, les fonctions booléennes normales et les fonctions parfaitement non linéaires définies sur Zq. Dans une première partie, nous donnons une caractérisation des fonctions vectorielles dégénérées en terme de transformée de Fourier-Hadamard qui se traduit plus facilement dans le cas des fonctions booléennes. Puis, après avoir donné une condition suffisante pour qu'une fonction donnée soit normale, nous montrons que toutes les fonctions booléennes à n variables, le nombre n étant inférieur ou égal à 7, sont normales. Nous terminons cette partie par un exemple de fonction non normale à 8 variables (jusqu'à présent, aucune de ce genre n'était connue). Dans une seconde partie, nous nous intéressons aux fonctions q-aires parfaitement non linéaires définies sur l'anneau Zq. Nous montrons que, parmi toutes les constructions connues de fonctions courbes généralisées, aucune ne peut produire des fonctions parfaitement non linéaires ayant un nombre impair de variables. Nous introduisons donc une construction de fonctions parfaitement non linéaires définies pour un nombre quelconque de variables. Nous terminons cette étude par un exemple qui permet de vérifier que cette construction est réalisable.
APA, Harvard, Vancouver, ISO, and other styles
5

Lacombe, Jean-Pierre. "Analyse statistique de processus de poisson non homogènes. Traitement statistique d'un multidétecteur de particules." Phd thesis, Grenoble 1, 1985. http://tel.archives-ouvertes.fr/tel-00318875.

Full text
Abstract:
La première partie de cette thèse est consacrée à l'étude statistique des processus de Poisson non homogènes et spatiaux. On définit un test de type Neyman-Pearson concernant la mesure intensité de ces processus. On énonce des conditions pour lesquelles la consistance du test est assurée, et d'autres entrainant la normalité asymptotique de la statistique de test. Dans la seconde partie de ce travail, on étudie certaines techniques de traitement statistique de champs poissoniens et leurs applications à l'étude d'un multidétecteur de particules. On propose en particulier des tests de qualité de l'appareillage ainsi que les méthodes d'extraction du signal
APA, Harvard, Vancouver, ISO, and other styles
6

Benelmadani, Djihad. "Contribution à la régression non paramétrique avec un processus erreur d'autocovariance générale et application en pharmacocinétique." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM034/document.

Full text
Abstract:
Dans cette thèse, nous considérons le modèle de régression avec plusieurs unités expérimentales, où les erreurs forment un processus d'autocovariance dans un cadre générale, c'est-à-dire, un processus du second ordre (stationnaire ou non stationnaire) avec une autocovariance non différentiable le long de la diagonale. Nous sommes intéressés, entre autres, à l'estimation non paramétrique de la fonction de régression de ce modèle.Premièrement, nous considérons l'estimateur classique proposé par Gasser et Müller. Nous étudions ses performances asymptotiques quand le nombre d'unités expérimentales et le nombre d'observations tendent vers l'infini. Pour un échantillonnage régulier, nous améliorons les vitesses de convergence d'ordre supérieur de son biais et de sa variance. Nous montrons aussi sa normalité asymptotique dans le cas des erreurs corrélées.Deuxièmement, nous proposons un nouvel estimateur à noyau pour la fonction de régression, basé sur une propriété de projection. Cet estimateur est construit à travers la fonction d'autocovariance des erreurs et une fonction particulière appartenant à l'Espace de Hilbert à Noyau Autoreproduisant (RKHS) associé à la fonction d'autocovariance. Nous étudions les performances asymptotiques de l'estimateur en utilisant les propriétés de RKHS. Ces propriétés nous permettent d'obtenir la vitesse optimale de convergence de la variance de cet estimateur. Nous prouvons sa normalité asymptotique, et montrons que sa variance est asymptotiquement plus petite que celle de l'estimateur de Gasser et Müller. Nous conduisons une étude de simulation pour confirmer nos résultats théoriques.Troisièmement, nous proposons un nouvel estimateur à noyau pour la fonction de régression. Cet estimateur est construit en utilisant la règle numérique des trapèzes, pour approximer l'estimateur basé sur des données continues. Nous étudions aussi sa performance asymptotique et nous montrons sa normalité asymptotique. En outre, cet estimateur permet d'obtenir le plan d'échantillonnage optimal pour l'estimation de la fonction de régression. Une étude de simulation est conduite afin de tester le comportement de cet estimateur dans un plan d'échantillonnage de taille finie, en terme d'erreur en moyenne quadratique intégrée (IMSE). De plus, nous montrons la réduction dans l'IMSE en utilisant le plan d'échantillonnage optimal au lieu de l'échantillonnage uniforme.Finalement, nous considérons une application de la régression non paramétrique dans le domaine pharmacocinétique. Nous proposons l'utilisation de l'estimateur non paramétrique à noyau pour l'estimation de la fonction de concentration. Nous vérifions son bon comportement par des simulations et une analyse de données réelles. Nous investiguons aussi le problème de l'estimation de l'Aire Sous la Courbe de concentration (AUC), pour lequel nous proposons un nouvel estimateur à noyau, obtenu par l'intégration de l'estimateur à noyau de la fonction de régression. Nous montrons, par une étude de simulation, que le nouvel estimateur est meilleur que l'estimateur classique en terme d'erreur en moyenne quadratique. Le problème crucial de l'obtention d'un plan d'échantillonnage optimale pour l'estimation de l'AUC est discuté en utilisant l'algorithme de recuit simulé généralisé
In this thesis, we consider the fixed design regression model with repeated measurements, where the errors form a process with general autocovariance function, i.e. a second order process (stationary or nonstationary), with a non-differentiable covariance function along the diagonal. We are interested, among other problems, in the nonparametric estimation of the regression function of this model.We first consider the well-known kernel regression estimator proposed by Gasser and Müller. We study its asymptotic performance when the number of experimental units and the number of observations tend to infinity. For a regular sequence of designs, we improve the higher rates of convergence of the variance and the bias. We also prove the asymptotic normality of this estimator in the case of correlated errors.Second, we propose a new kernel estimator of the regression function based on a projection property. This estimator is constructed through the autocovariance function of the errors, and a specific function belonging to the Reproducing Kernel Hilbert Space (RKHS) associated to the autocovariance function. We study its asymptotic performance using the RKHS properties. These properties allow to obtain the optimal convergence rate of the variance. We also prove its asymptotic normality. We show that this new estimator has a smaller asymptotic variance then the one of Gasser and Müller. A simulation study is conducted to confirm this theoretical result.Third, we propose a new kernel estimator for the regression function. This estimator is constructed through the trapezoidal numerical approximation of the kernel regression estimator based on continuous observations. We study its asymptotic performance, and we prove its asymptotic normality. Moreover, this estimator allow to obtain the asymptotic optimal sampling design for the estimation of the regression function. We run a simulation study to test the performance of the proposed estimator in a finite sample set, where we see its good performance, in terms of Integrated Mean Squared Error (IMSE). In addition, we show the reduction of the IMSE using the optimal sampling design instead of the uniform design in a finite sample set.Finally, we consider an application of the regression function estimation in pharmacokinetics problems. We propose to use the nonparametric kernel methods, for the concentration-time curve estimation, instead of the classical parametric ones. We prove its good performance via simulation study and real data analysis. We also investigate the problem of estimating the Area Under the concentration Curve (AUC), where we introduce a new kernel estimator, obtained by the integration of the regression function estimator. We prove, using a simulation study, that the proposed estimators outperform the classical one in terms of Mean Squared Error. The crucial problem of finding the optimal sampling design for the AUC estimation is investigated using the Generalized Simulating Annealing algorithm
APA, Harvard, Vancouver, ISO, and other styles
7

Degras, David. "Contribution à l'étude de la régression non paramétrique et à l'estimation de la moyenne d'un processus à temps continu." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00201438.

Full text
Abstract:
Cette thèse porte sur l'étude de la régression non paramétrique en présence de mesures répétées. D'abord, nous étendons aux estimateurs splines de lissage les vitesses de convergence présentées dans la littérature pour d'autres estimateurs usuels sous différentes hypothèses classiques de dépendance des données. Ensuite, dans le cadre de l'estimation de la moyenne d'un processus aléatoire à temps continu, nous généralisons les résultats existants sur la convergence en moyenne quadratique et nous établissons de nouveaux résultats de normalité asymptotique pour les distributions finies-dimensionnelles. Enfin, dans le cadre d'un échantillon fini et corrélé, nous comparons les performances d'estimateurs construits par moindres carrés ordinaires ou généralisés, nous proposons une méthode efficace de sélection du paramètre de lissage tenant compte de la structure de covariance des données, et à travers des simulations, nous mettons en évidence l'apport du lissage local par rapport au lissage global.
APA, Harvard, Vancouver, ISO, and other styles
8

Lévy-Leduc, Céline. "Estimation semi-paramétrique de la période de fonctions périodiques inconnues dans divers modèles statistiques : théorie et applications." Paris 11, 2004. http://www.theses.fr/2004PA112146.

Full text
Abstract:
Cette thèse porte sur l'estimation semi-paramétrique de la période de fonctions périodiques inconnues dans divers cadres statistiques ainsi qu'à la mise en place de tests non-paramétriques permettant de détecter la présence de signal périodique dans du bruit. Dans le chapitre 1, nous proposons des estimateurs asymptotiquement optimaux de la période d'une fonction périodique et des périodes de deux fonctions périodiques à partir de leur somme bruitée. Dans le chapitre 2, nous proposons un algorithme pratique d'estimation de période fondée sur les idées du chapitre 1 que nous testons sur des données simulées de vibrométrie laser. Cet algorithme est testé dans le chapitre 3 sur des données réelles musicales. Dans le chapitre 4, nous proposons un estimateur de période lorsque les observations correspondent à une fonction presque périodique particulière bruitée ainsi qu'une mise en oeuvre pratique de la méthode que l'on a testée sur des signaux de vibrométrie laser. Dans le chapitre 5, on propose un test de détection de fonctions périodiques dans du bruit lorsque la période de la fonction et la variance du bruit sont inconnues qui est adaptatif au sens du minimax et on l'a teste sur des données de vibrométrie laser
This thesis is devoted to semiparametric period estimation of unknown periodic functions in various statistical models as well as the construction of nonparametric tests to detect a periodic signal in the midst of noise. In chapter 1, we propose asymptotically optimal estimators of the period of an unknown periodic function and of the periods of two periodic functions from their sum corrupted by Gaussian white noise. In chapter 2, we propose a practical implementation of the period estimation method based on the ideas developed in the first chapter that we test on simulated laser vlbrometry signals. This algorithm is used in chapter 3 on real musical data. In chapter 4, we propose an estimator of the period when the observations are those of a particular almost periodic function corrupted by Gaussian white noise as well as a practical implementation of the method. This algorithm has also been tested on laser vibrometry data. In chapter 5, we propose a test in order to detect periodic functions in the midst of noise when the period of the function and the variance of noise are unknown. It is proved to be adaptive in the minimax sense and has been tested on laser vibrometry data
APA, Harvard, Vancouver, ISO, and other styles
9

Khalil, Nathalie. "Conditions d'optimalité pour des problèmes en contrôle optimal et applications." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0095/document.

Full text
Abstract:
Le projet de cette thèse est double. Le premier concerne l’extension des résultats précédents sur les conditions nécessaires d’optimalité pour des problèmes avec contraintes d’état, dans le cadre du contrôle optimal ainsi que dans le cadre de calcul des variations. Le deuxième objectif consiste à travailler sur deux nouveaux aspects de recherche : dériver des résultats de viabilité pour une classe de systèmes de contrôle avec des contraintes d’état dans lesquels les conditions dites ‘standard inward pointing conditions’ sont violées; et établir les conditions nécessaires d’optimalité pour des problèmes de minimisation de coût moyen éventuellement perturbés par des paramètres inconnus.Dans la première partie, nous examinons les conditions nécessaires d’optimalité qui jouent un rôle important dans la recherche de candidats pour être des solutions optimales parmi toutes les solutions admissibles. Cependant, dans les problèmes d’optimisation dynamique avec contraintes d’état, certaines situations pathologiques pourraient survenir. Par exemple, il se peut que le multiplicateur associé à la fonction objective (à minimiser) disparaisse. Dans ce cas, la fonction objective à minimiser n’intervient pas dans les conditions nécessaires de premier ordre: il s’agit du cas dit anormal. Un phénomène pire, appelé le cas dégénéré montre que, dans certaines circonstances, l’ensemble des trajectoires admissibles coïncide avec l’ensemble des candidats minimiseurs. Par conséquent, les conditions nécessaires ne donnent aucune information sur les minimiseurs possibles.Pour surmonter ces difficultés, de nouvelles hypothèses supplémentaires doivent être imposées, appelées les qualifications de la contrainte. Nous étudions ces deux problèmes (normalité et non dégénérescence) pour des problèmes de contrôle optimal impliquant des contraintes dynamiques exprimées en termes d’inclusion différentielle, lorsque le minimiseur a son point de départ dans une région où la contrainte d’état est non lisse. Nous prouvons que sous une information supplémentaire impliquant principalement le cône tangent de Clarke, les conditions nécessaires sous la forme dite ‘Extended Euler-Lagrange condition’ sont satisfaites en forme normale et non dégénérée pour deux classes de problèmes de contrôle optimal avec contrainte d’état. Le résultat sur la normalité est également appliqué pour le problème de calcul des variations avec contrainte d’état.Dans la deuxième partie de la thèse, nous considérons d’abord une classe de systèmes de contrôle avec contrainte d’état pour lesquels les qualifications de la contrainte standard du ‘premier ordre’ ne sont pas satisfaites, mais une qualification de la contrainte d’ordre supérieure (ordre 2) est satisfaite.Nous proposons une nouvelle construction des trajectoires admissibles (dit un résultat de viabilité) et nous étudions des exemples (tels que l’intégrateur non holonomique de Brockett) fournissant en plus un résultat d’estimation non linéaire. L’autre sujet de la deuxième partie de la thèse concerne l’étude d’une classe de problèmes de contrôle optimal dans lesquels des incertitudes apparaissent dans les données en termes de paramètres inconnus. En tenant compte d’un critère de performance sous la forme de coût moyen, une question cruciale est clairement de pouvoir caractériser les contrôles optimaux indépendamment de l’action du paramètre inconnu: cela permet de trouver une sorte de ‘meilleur compromis’ parmi toutes les réalisations possibles du système de contrôle tant que le paramètre varie. Pour ce type de problèmes, nous obtenons des conditions nécessaires d’optimalité sous la forme du Principe du Maximum (éventuellement pour le cas non lisse)
The project of this thesis is twofold. The first concerns the extension of previous results on necessary optimality conditions for state constrained problems in optimal control and in calculus of variations. The second aim consists in working along two new research lines: derive viability results for a class of control systems with state constraints in which ‘standard inward pointing conditions’ are violated; and establish necessary optimality conditions for average cost minimization problems possibly perturbed by unknown parameters.In the first part, we examine necessary optimality conditions which play an important role in finding candidates to be optimal solutions among all admissible solutions. However, in dynamic optimization problems with state constraints, some pathological situations might arise. For instance, it might occur that the multiplier associated with the objective function (to minimize) vanishes. In this case, the objective function to minimize does not intervene in first order necessary conditions: this is referred to as the abnormal case. A worse phenomenon, called the degenerate case shows that in some circumstances the set of admissible trajectories coincides with the set of candidates to be minimizers. Therefore the necessary conditions give no information on the possible minimizers.To overcome these difficulties, new additional hypotheses have to be imposed, known as constraint qualifications. We investigate these two issues (normality and non-degeneracy) for optimal control problems involving state constraints and dynamics expressed as a differential inclusion, when the minimizer has its left end-point in a region where the state constraint set in nonsmooth. We prove that under an additional information involving mainly the Clarke tangent cone, necessary conditions in the form of the Extended Euler-Lagrange condition are derived in the normal and non-degenerate form for two different classes of state constrained optimal control problems. Application of the normality result is shown also for the calculus of variations problem subject to a state constraint.In the second part of the thesis, we consider first a class of state constrained control systems for which standard ‘first order’ constraint qualifications are not satisfied, but a higher (second) order constraint qualification is satisfied. We propose a new construction for feasible trajectories (a viability result) and we investigate examples (such as the Brockett nonholonomic integrator) providing in addition a non-linear stimate result. The other topic of the second part of the thesis concerns the study of a class of optimal control problems in which uncertainties appear in the data in terms of unknown parameters. Taking into consideration an average cost criterion, a crucial issue is clearly to be able to characterize optimal controls independently of the unknown parameter action: this allows to find a sort of ‘best compromise’ among all the possible realizations of the control system as the parameter varies. For this type of problems, we derive necessary optimality conditions in the form of Maximum Principle (possibly nonsmooth)
APA, Harvard, Vancouver, ISO, and other styles
10

Ferrani, Yacine. "Sur l'estimation non paramétrique de la densité et du mode dans les modèles de données incomplètes et associées." Thesis, Littoral, 2014. http://www.theses.fr/2014DUNK0370/document.

Full text
Abstract:
Cette thèse porte sur l'étude des propriétés asymptotiques d'un estimateur non paramétrique de la densité de type Parzen-Rosenblatt, sous un modèle de données censurées à droite, vérifiant une structure de dépendance de type associé. Dans ce cadre, nous rappelons d'abord les résultats existants, avec détails, dans les cas i.i.d. et fortement mélangeant (α-mélange). Sous des conditions de régularité classiques, il est établi que la vitesse de coonvergence uniforme presque sûre de l'estimateur étudié, est optimale. Dans la partie dédiée aux résultats de cette thèse, deux résultats principaux et originaux sont présentés : le premier résultat concerne la convergence uniforme presque sûre de l'estimateur étudié sous l'hypothèse d'association. L'outil principal ayant permis l'obtention de la vitesse optimale est l'adaptation du Théorème de Doukhan et Neumann (2007), dans l'étude du terme des fluctuations (partie aléatoire) de l'écart entre l'estimateur considéré et le paramètre étudié (densité). Comme application, la convergence presque sûre de l'estimateur non paramétrique du mode est établie. Les résultats obtenus ont fait l'objet d'un article accepté pour publication dans Communications in Statistics-Theory and Methods ; Le deuxième résultat établit la normalité asymptotique de l'estimateur étudié sous le même modèle et constitute ainsi une extension au cas censuré, du résultat obtenu par Roussas (2000). Ce résultat est soumis pour publication
This thesis deals with the study of asymptotic properties of e kernel (Parzen-Rosenblatt) density estimate under associated and censored model. In this setting, we first recall with details the existing results, studied in both i.i.d. and strong mixing condition (α-mixing) cases. Under mild standard conditions, it is established that the strong uniform almost sure convergence rate, is optimal. In the part dedicated to the results of this thesis, two main and original stated results are presented : the first result concerns the strong uniform consistency rate of the studied estimator under association hypothesis. The main tool having permitted to achieve the optimal speed, is the adaptation of the Theorem due to Doukhan and Neumann (2007), in studying the term of fluctuations (random part) of the gap between the considered estimator and the studied parameter (density). As an application, the almost sure convergence of the kernel mode estimator is established. The stated results have been accepted for publication in Communications in Statistics-Theory & Methods ; The second result establishes the asymptotic normality of the estimator studied under the same model and then, constitute an extension to the censored case, the result stated by Roussas (2000). This result is submitted for publication
APA, Harvard, Vancouver, ISO, and other styles
11

Delsol, Laurent. "Régression sur variable fonctionnelle : estimation, tests de structure et applications." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00449806.

Full text
Abstract:
Au cours des dernières années, la branche de la statistique consacrée à l'étude de variables fonctionnelles a connu un réel essor tant en terme de développements théoriques que de diversification des domaines d'application. Nous nous intéressons plus particulièrement dans ce mémoire à des modèles de régression dans lesquels la variable réponse est réelle tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Les résultats que nous énonçons sont liés aux propriétés asymptotiques de l'estimateur à noyau généralisé au cas d'une variable explicative fonctionnelle. Nous supposons pour commencer que l'échantillon que nous étudions est constitué de variables α-mélangeantes et que le modèle de régression est de nature nonparamétrique. Nous établissons la normalité asymptotique de notre estimateur et donnons l'expression explicite des termes asymptotiquement dominants du biais et de la variance. Une conséquence directe de ce résultat est la construction d'intervalles de confiance asymptotiques ponctuels dont nous étudions les propriétés aux travers de simulations et que nous appliquons sur des données liées à l'étude du courant marin El Niño. On établit également à partir du résultat de normalité asymptotique et d'un résultat d'uniforme intégrabilité l'expression explicite des termes asymptotiquement dominants des moments centrés et des erreurs Lp de notre estimateur. Nous considérons ensuite le problème des tests de structure en régression sur variable fonctionnelle et supposons maintenant que l'échantillon est composé de variables indépendantes. Nous construisons une statistique de test basée sur la comparaison de l'estimateur à noyau et d'un estimateur plus particulier dépendant de l'hypothèse nulle à tester. Nous obtenons la normalité asymptotique de notre statistique de test sous l'hypothèse nulle ainsi que sa divergence sous l'alternative. Les conditions générales sous lesquelles notre résultat est établi permettent l'utilisation de notre statistique pour construire des tests de structure innovants permettant de tester si l'opérateur de régression est de forme linéaire, à indice simple, . . . Différentes procédures de rééchantillonnage sont proposées et comparées au travers de diverses simulations. Nos méthodes sont enfin appliquées dans le cadre de tests de non effet à deux jeux de données spectrométriques.
APA, Harvard, Vancouver, ISO, and other styles
12

Khardani, Salah. "Prévision non paramétrique dans les modèles de censure via l'estimation du mode conditionnel." Littoral, 2010. http://www.theses.fr/2010DUNK0277.

Full text
Abstract:
Dans ce travail, nous étudions quelques aspects de l’estimation fonctionnelle pour des données incomplètes (censurées). Plus précisément, nous nous intéressons à la fonction mode et à la fonction mode conditionnel pour lesquelles nous construisons des estimateurs et étudions le comportement asymptotique. Les estimateurs proposés se positionnent comme alternatives à la prévision par la fonction de régression. Dans un premier travail, nous considérons une suite de v. A. {T_i , i [supérieur ou =]1} indépendante et identiquement distribuée (iid), de densité f , censurée à droite par une suite aléatoire {Ci , i [supérieur ou = à]1} supposée iid et indépendante de {T_i , i [supérieur ou = à]1}. Nous nous intéressons à un problème de régression de T par une covariable multi-dimensionnelle X. Nous établissons la convergence et la normalité asymptotique des estimateurs à noyau de la fonction mode conditionnel et de la densité conditionnelle. Nous obtenons des intervalles de confiance en utilisant la méthode du "plug-in" pour les paramètres inconnus. Une étude sur des données simulées de taille finie illustre la qualité de nos estimateurs. Dans un second travail, nous traitons le cas du mode simple défini par θ = arg max_{t. IR} f (t). Dans ce cas, la suite {T_i , i [supérieur ou = à]1} est supposée stationnaire et fortement mélangeante, alors que les {C_i , i [supérieur ou = à]1} sont iid. Nous construisons un estimateur du mode (basé sur un estimateur à noyau de la densité) dont nous établissons la convergence presque sûre. Le dernier travail de cette thèse généralise les résultats de convergence du mode conditionnel au cas où les {T_i , i [supérieur ou = à]1} sont fortement mélangeant
In this work, we address the problem of estimating the mode and conditional mode functions, for independent and dependent data, under random censorship. Firstly, we consider an independent and identically distributed (iid) sequence random variables (rvs) {T_i , i [equal to or higher than]1}, with density f. This sequence is right-censored by another iid sequence of rvs {Ci , i[equal to or higher than]1} which is supposed to be independent of {T_i , i [equal to or higher than]1}. We are interested in the regression problem of T given a covariable X. We state convergence and asymptomatic normality of Kernel-based estimators of conditional density and mode. Using the “plug-in” method for the unknown parameters, confidence intervals are gicen. Also simulations are drawn. In a second step we deal with the simple mode, given by par θ = arg max_{t. IR} f (t). Here, the sequence {T_i , i [equal to or higher than]1} is supposed to be stationary and strongly mixing whereas the {Ci , i[equal to or higher than]1} are iid. We build a mode estimator (based on a density kernel estimator) for which we state the almost sure consistency. Finally, we extend the conditional mode consistency results to the case where the {T_i , i [equal to or higher than]1} are strongly mixing
APA, Harvard, Vancouver, ISO, and other styles
13

Bouhadjera, Feriel. "Estimation non paramétrique de la fonction de régression pour des données censurées : méthodes locale linéaire et erreur relative." Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0561.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à développer des méthodes robustes et efficaces dans l’estimation non paramétrique de la fonction de régression. Le modèle considéré ici est le modèle censuré aléatoirement à droite qui est le plus utilisé dans différents domaines pratiques. Dans un premier temps, nous proposons un nouvel estimateur de la fonction de régression en utilisant la méthode linéaire locale. Nous étudions sa convergence uniforme presque sûre avec vitesse. Enfin, nous comparons ses performances avec celles de l’estimateur de la régression à noyau classique à l’aide de simulations. Dans un second temps, nous considérons l’estimateur de la fonction de régression par erreur relative (RER en anglais), basé sur la minimisation de l’erreur quadratique relative moyenne. Ainsi, nous établissons la convergence uniforme presque sûre (sur un compact) avec vitesse de l’estimateur défini pour des observations indépendantes et identiquement distribuées. En outre, nous prouvons sa normalité asymptotique en explicitant le terme de variance. Enfin, nous conduisons une étude de simulations pour confirmer nos résultats théoriques et nous appliquons notre estimateur sur des données réelles. Par la suite, nous étudions la convergence uniforme presque sûre (sur un compact) avec vitesse de l’estimateur RER pour des observations soumises à une structure de dépendance du type α-mélange. Une étude de simulation montre le bon comportement de l’estimateur étudié. Des prévisions sur données générées sont réalisées pour illustrer la robustesse de notre estimateur. Enfin, nous établissons la normalité asymptotique de l’estimateur RER pour des observations α-mélangeantes où nous construisons des intervalles de confiance afin de réaliser une étude de simulations qui valide nos résultats. Pour conclure, le fil conducteur de cette modeste contribution, hormis l’analyse des données censurées est la proposition de deux méthodes de prévision alternative à la régression classique. La première approche corrige les effets de bord crée par les estimateurs à noyaux classiques et réduit le biais. Tandis que la seconde est plus robuste et moins affectée par la présence de valeurs aberrantes dans l’échantillon
In this thesis, we are interested in developing robust and efficient methods in the nonparametric estimation of the regression function. The model considered here is the right-hand randomly censored model which is the most used in different practical fields. First, we propose a new estimator of the regression function by the local linear method. We study its almost uniform convergence with rate. We improve the order of the bias term. Finally, we compare its performance with that of the classical kernel regression estimator using simulations. In the second step, we consider the regression function estimator, based on theminimization of the mean relative square error (called : relative regression estimator). We establish the uniform almost sure consistency with rate of the estimator defined for independent and identically distributed observations. We prove its asymptotic normality and give the explicit expression of the variance term. We conduct a simulation study to confirm our theoretical results. Finally, we have applied our estimator on real data. Then, we study the almost sure uniform convergence (on a compact set) with rate of the relative regression estimator for observations that are subject to a dependency structure of α-mixing type. A simulation study shows the good behaviour of the studied estimator. Predictions on generated data are carried out to illustrate the robustness of our estimator. Finally, we establish the asymptotic normality of the relative regression function estimator for α-mixing data. We construct the confidence intervals and perform a simulation study to validate our theoretical results. In addition to the analysis of the censored data, the common thread of this modest contribution is the proposal of two alternative prediction methods to classical regression. The first approach corrects the border effects created by classical kernel estimators and reduces the bias term. While the second is more robust and less affected by the presence of outliers in the sample
APA, Harvard, Vancouver, ISO, and other styles
14

Arratia, Cristobal. "Mécanismes d'instabilité non-modaux dans les écoulements cisaillés avec et sans stratification en densité." Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00672072.

Full text
Abstract:
Cette thèse est dediée à l'étude des mécanismes d'instabilité non-modaux dans les écoulements cisaillés, principalement des couches de mélange. On se concentre sur les perturbations linéarisées qui ont la plus grande croissance d'énergie à un temps donné, les 'perturbations optimales', différentes du mode propre le plus instable pour les systémes non-normaux. Une description originale de la non-normalité et ses conséquences est donnée dans le chapitre 2. Le chapitre 3 traite du mécanisme de 'lift-up' dans le cas des perturbations longitudinales non-visqueuses sur un écoulement de base parallèle et arbitraire. On trouve une nouvelle équation 1D qui détermine l'ensemble des perturbations orthogonales, dont l'optimale, et permet de trouver des nouveaux résultats exacts et asymptotiques. Dans le chapitre 4 on s'intéresse aux instabilités secondaires d'une couche de mélange en utilisant comme état de base l'écoulement 2D instationnaire et non-linéaire pour calculer les perturbations optimales 3D. Selon le nombre d'onde et les temps d'optimisation (initial et final), on retrouve comme réponses optimales les perturbations de types 'elliptique' et 'hyperbolique'. Dans les chapitres 5 et 6 on considère une stratification en densité dans la direction orthogonale au plan de l'état de base, et on utilise une décomposition de 'Craya-Herring' pour analyser les perturbations en termes de leur contenu en ondes internes et vorticité verticale. Les équations d'évolution des perturbations linéarisées autour d'un état de base 2D général sont obtenues et analysées au niveau de l'énergie onde/tourbillon. Ces résultats sont appliqués dans le chapitre 6 pour analyser la génération et l'émission d'ondes dans les perturbations optimales sur une couche de cisaillement horizontale.
APA, Harvard, Vancouver, ISO, and other styles
15

Elamine, Abdallah Bacar. "Régression non-paramétrique pour variables fonctionnelles." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20017.

Full text
Abstract:
Cette thèse se décompose en quatre parties auxquelles s'ajoute une présentation. Dans un premier temps, on expose les outils mathématiques essentiels à la compréhension des prochains chapitres. Dans un deuxième temps, on s'intéresse à la régression non paramétrique locale pour des données fonctionnelles appartenant à un espace de Hilbert. On propose, tout d'abord, un estimateur de l'opérateur de régression. La construction de cet estimateur est liée à la résolution d'un problème inverse linéaire. On établit des bornes de l'erreur quadratique moyenne (EQM) de l'estimateur de l'opérateur de régression en utilisant une décomposition classique. Cette EQM dépend de la fonction de petite boule de probabilité du régresseur au sujet de laquelle des hypothèses de type Gamma-variation sont posées. Dans le chapitre suivant, on reprend le travail élaboré dans le précédent chapitre en se plaçant dans le cadre de données fonctionnelles appartenant à un espace semi-normé. On établit des bornes de l'EQM de l'estimateur de l'opérateur de régression. Cette EQM peut être vue comme une fonction de la fonction de petite boule de probabilité. Dans le dernier chapitre, on s'intéresse à l'estimation de la fonction auxiliaire associée à la fonction de petite boule de probabilité. D'abord, on propose un estimateur de cette fonction auxiliare. Ensuite, on établit la convergence en moyenne quadratique et la normalité asymptotique de cet estimateur. Enfin, par des simulations, on étudie le comportement de de cet estimateur au voisinage de zéro
This thesis is divided in four sections with an additionnal presentation. In the first section, We expose the essential mathematics skills for the comprehension of the next sections. In the second section, we adress the problem of local non parametric with functional inputs. First, we propose an estimator of the unknown regression function. The construction of this estimator is related to the resolution of a linear inverse problem. Using a classical method of decomposition, we establish a bound for the mean square error (MSE). This bound depends on the small ball probability of the regressor which is assumed to belong to the class of Gamma varying functions. In the third section, we take again the work done in the preceding section by being situated in the frame of data belonging to a semi-normed space with infinite dimension. We establish bound for the MSE of the regression operator. This MSE can be seen as a function of the small ball probability function. In the last section, we interest to the estimation of the auxiliary function. Then, we establish the convergence in mean square and the asymptotic normality of the estimator. At last, by simulations, we study the bahavour of this estimator in a neighborhood of zero
APA, Harvard, Vancouver, ISO, and other styles
16

Kabui, Ali. "Value at risk et expected shortfall pour des données faiblement dépendantes : estimations non-paramétriques et théorèmes de convergences." Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00743159.

Full text
Abstract:
Quantifier et mesurer le risque dans un environnement partiellement ou totalement incertain est probablement l'un des enjeux majeurs de la recherche appliquée en mathématiques financières. Cela concerne l'économie, la finance, mais d'autres domaines comme la santé via les assurances par exemple. L'une des difficultés fondamentales de ce processus de gestion des risques est de modéliser les actifs sous-jacents, puis d'approcher le risque à partir des observations ou des simulations. Comme dans ce domaine, l'aléa ou l'incertitude joue un rôle fondamental dans l'évolution des actifs, le recours aux processus stochastiques et aux méthodes statistiques devient crucial. Dans la pratique l'approche paramétrique est largement utilisée. Elle consiste à choisir le modèle dans une famille paramétrique, de quantifier le risque en fonction des paramètres, et d'estimer le risque en remplaçant les paramètres par leurs estimations. Cette approche présente un risque majeur, celui de mal spécifier le modèle, et donc de sous-estimer ou sur-estimer le risque. Partant de ce constat et dans une perspective de minimiser le risque de modèle, nous avons choisi d'aborder la question de la quantification du risque avec une approche non-paramétrique qui s'applique à des modèles aussi généraux que possible. Nous nous sommes concentrés sur deux mesures de risque largement utilisées dans la pratique et qui sont parfois imposées par les réglementations nationales ou internationales. Il s'agit de la Value at Risk (VaR) qui quantifie le niveau de perte maximum avec un niveau de confiance élevé (95% ou 99%). La seconde mesure est l'Expected Shortfall (ES) qui nous renseigne sur la perte moyenne au delà de la VaR.
APA, Harvard, Vancouver, ISO, and other styles
17

Horrigue, Walid. "Prévision non paramétrique dans les modèles de censure via l'estimation du quantile conditionnel en dimension infinie." Thesis, Littoral, 2012. http://www.theses.fr/2012DUNK0511.

Full text
Abstract:
Dans cette thèse, nous étudions les propriétés asymptotiques de paramètres fonctionnels conditionnels en statistique non paramétrique, quand la variable explicative prend ses valeurs dans un espace de dimension infinie. Dans ce cadre non paramétrique, on considère les estimateurs des paramètres fonctionnels usuels, tels la loi conditionnelle, la densité de probabilité conditionnelle, ainsi que le quantile conditionnel. Le premier travail consiste à proposer un estimateur du quantile conditionnel et de prouver sa convergence uniforme sur un sous-ensemble compact. Afin de suivre la convention dans les études biomédicales, nous considérons une suite de v.a {Ti, i ≥ 1} identiquement distribuées, de densité f, censurée à droite par une suite aléatoire {Ci, i ≥ 1} supposée aussi indépendante, identiquement distribuée et indépendante de {Ti, i ≥ 1}. Notre étude porte sur des données fortement mélangeantes et X la covariable prend des valeurs dans un espace à dimension infinie.Le second travail consiste à établir la normalité asymptotique de l’estimateur à noyau du quantile conditionnel convenablement normalisé, pour des données fortement mélangeantes, et repose sur la probabilité de petites boules. Plusieurs applications à des cas particuliers ont été traitées. Enfin, nos résultats sont appliqués à des données simulées et montrent la qualité de notre estimateur
In this thesis, we study some asymptotic properties of conditional functional parameters in nonparametric statistics setting, when the explanatory variable takes its values in infinite dimension space. In this nonparametric setting, we consider the estimators of the usual functional parameters, as the conditional law, the conditional probability density, the conditional quantile. We are essentially interested in the problem of forecasting in the nonparametric conditional models, when the data are functional random variables. Firstly, we propose an estimator of the conditional quantile and we establish its uniform strong convergence with rates over a compact subset. To follow the convention in biomedical studies, we consider an identically distributed sequence {Ti, i ≥ 1}, here density f, right censored by a random {Ci, i ≥ 1} also assumed independent identically distributed and independent of {Ti, i ≥ 1}. Our study focuses on dependent data and the covariate X takes values in an infinite space dimension. In a second step we establish the asymptotic normality of the kernel estimator of the conditional quantile, under α-mixing assumption and on the concentration properties on small balls of the probability measure of the functional regressors. Many applications in some particular cases have been also given
APA, Harvard, Vancouver, ISO, and other styles
18

Pospíšil, Tomáš. "STOCHASTIC MODELING OF COMPOSITE MATERIALS." Doctoral thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2010. http://www.nusl.cz/ntk/nusl-233889.

Full text
Abstract:
Práce je věnována generování náhodných struktur dvousložkových vláknových kompozitních materiálů a statistickým metodám analýzy náhodnosti těchto struktur. Byly vyvinuty čtyři algoritmy a vygenerované struktury byly statisticky porovnány s reálnými daty.
APA, Harvard, Vancouver, ISO, and other styles
19

Amicone, Massimo. "Non normalità di matrici ed il ruolo degli autovalori." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/7722/.

Full text
Abstract:
In questa tesi vengono studiati gli effetti della non-normalità di un operatore all'interno di sistemi dinamici regolati da sistemi di equazioni differenziali ordinarie. Viene studiata la stabilità delle soluzioni, in particolare si approfondiscono fenomeni quali le crescite transitorie. In seguito vengono forniti strumenti grafici come gli Pseudospettri capaci di scoprire e quantificare tali "anomalie". I concetti studiati vengono poi applicati alla teoria dell'ecologia delle popolazioni utilizzando una generalizzazione delle equazioni di Lotka-Volterra. Modelli e matrici vengono implementate in Matlab mentre i risultati grafici sono ottenuti con il Toolbox Eigtool.
APA, Harvard, Vancouver, ISO, and other styles
20

Hristova-Bojinova, Daniela. "Non-normality and non-linearity in univariate standard models of inflation." Thesis, University of Leicester, 2002. http://hdl.handle.net/2381/30141.

Full text
Abstract:
The empirical evidences presented in a vast number of recent publications gave rise to debates in the literature regarding the problem of stationarity of inflation. Sometimes considered as a unit root process and sometimes as a stationary process, in most of the studies inflationary time series are modelled assuming normality and linearity. The present thesis relaxes the frequently used assumptions of linearity in price processes and normality in distribution of inflation, and suggests two ways of modelling inflationary data. Firstly, it is assumed that distribution of inflation is a stable Paretian distribution and, under this assumption, stationarity of inflation is examined applying an appropriate test. Secondly, price time series are modelled by treating them as a unit root bilinear process, which further leads to non-normality in distribution of inflation. A recently proposed test for presence of no-bilinearity is then applied. If bilinearity is detected, the bilinear coefficient is estimated by the Kalman filter method. Subsequently, the finite sample properties of this estimator are evaluated using Monte Carlo simulation experiments. A series of Monte Carlo simulations leads to calculating the r-statistic critical values for testing whether the estimated bilinear coefficients significantly differ from zero. The methodologies explained above are then applied to a large set of worldwide price and inflationary data for 107 different countries. Assuming that the distribution of inflation is a stable Paretian distribution 75% of the inflationary time series are classified as integrated of order zero. Under the assumption of normality of distribution of inflation this can be inferred for 11.11% of the inflationary time series. It has been also shown that 71.03% of the price time series exhibit unit root bilinearity. Analysis of the inflationary time series reveals the presence of bilinearity in 9.35% of them.
APA, Harvard, Vancouver, ISO, and other styles
21

Braconnier, Thierry. "Sur le calcul des valeurs propres en précision finie." Nancy 1, 1994. http://www.theses.fr/1994NAN10023.

Full text
Abstract:
Nous avons développé un code de calcul de valeurs propres pour matrices non symétriques de grande taille utilisant la méthode d'Arnoldi-Tchebycheff. Une étude a été menée pour mettre en évidence le rôle du défaut de normalité sur l'instabilité spectrale et la stabilité numérique d'algorithmes de calcul de valeurs propres. Des outils, tels que les méthodes de perturbations associées à des méthodes statistiques, ont été expérimentés afin d'apporter des informations qualitatives sur le spectre étudié. Ces outils permettent de comprendre le comportement numérique du problème traite en précision finie, dans les cas ou le calcul direct échoue
APA, Harvard, Vancouver, ISO, and other styles
22

Gordon, Carol J. (Carol Jean). "The Robustness of O'Brien's r Transformation to Non-Normality." Thesis, North Texas State University, 1985. https://digital.library.unt.edu/ark:/67531/metadc332002/.

Full text
Abstract:
A Monte Carlo simulation technique was employed in this study to determine if the r transformation, a test of homogeneity of variance, affords adequate protection against Type I error over a range of equal sample sizes and number of groups when samples are obtained from normal and non-normal distributions. Additionally, this study sought to determine if the r transformation is more robust than Bartlett's chi-square to deviations from normality. Four populations were generated representing normal, uniform, symmetric leptokurtic, and skewed leptokurtic distributions. For each sample size (6, 12, 24, 48), number of groups (3, 4, 5, 7), and population distribution condition, the r transformation and Bartlett's chi-square were calculated. This procedure was replicated 1,000 times; the actual significance level was determined and compared to the nominal significance level of .05. On the basis of the analysis of the generated data, the following conclusions are drawn. First, the r transformation is generally robust to violations of normality when the size of the samples tested is twelve or larger. Second, in the instances where a significant difference occurred between the actual and nominal significance levels, the r transformation produced (a) conservative Type I error rates if the kurtosis of the parent population were 1.414 or less and (b) an inflated Type I error rate when the index of kurtosis was three. Third, the r transformation should not be used if sample size is smaller than twelve. Fourth, the r transformation is more robust in all instances to non-normality, but the Bartlett test is superior in controlling Type I error when samples are from a population with a normal distribution. In light of these conclusions, the r transformation may be used as a general utility test of homogeneity of variances when either the distribution of the parent population is unknown or is known to have a non-normal distribution, and the size of the equal samples is at least twelve.
APA, Harvard, Vancouver, ISO, and other styles
23

Coudin, Élise. "Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire." Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Caron, Emmanuel. "Comportement des estimateurs des moindres carrés du modèle linéaire dans un contexte dépendant : Étude asymptotique, implémentation, exemples." Thesis, Ecole centrale de Nantes, 2019. http://www.theses.fr/2019ECDN0036.

Full text
Abstract:
Dans cette thèse, nous nous intéressons au modèle de régression linéaire usuel dans le cas où les erreurs sont supposées strictement stationnaires. Nous utilisons un résultat de Hannan (1973) qui a prouvé un Théorème Limite Central pour l’estimateur des moindres carrés sous des conditions très générales sur le design et le processus des erreurs. Pour un design et un processus d’erreurs vérifiant les conditions d’Hannan, nous définissons un estimateur de la matrice de covariance asymptotique de l’estimateur des moindres carrés et nous prouvons sa consistance sous des conditions très générales. Ensuite nous montrons comment modifier les tests usuels sur le paramètre du modèle linéaire dans ce contexte dépendant. Nous proposons différentes approches pour estimer la matrice de covariance afin de corriger l’erreur de première espèce des tests. Le paquet R slm que nous avons développé contient l’ensemble de ces méthodes statistiques. Les procédures sont évaluées à travers différents ensembles de simulations et deux exemples particuliers de jeux de données sont étudiés. Enfin, dans le dernier chapitre, nous proposons une méthode non-paramétrique par pénalisation pour estimer la fonction de régression dans le cas où les erreurs sont gaussiennes et corrélées
In this thesis, we consider the usual linear regression model in the case where the error process is assumed strictly stationary.We use a result from Hannan (1973) who proved a Central Limit Theorem for the usual least squares estimator under general conditions on the design and on the error process. Whatever the design and the error process satisfying Hannan’s conditions, we define an estimator of the asymptotic covariance matrix of the least squares estimator and we prove its consistency under very mild conditions. Then we show how to modify the usual tests on the parameter of the linear model in this dependent context. We propose various methods to estimate the covariance matrix in order to correct the type I error rate of the tests. The R package slm that we have developed contains all of these statistical methods. The procedures are evaluated through different sets of simulations and two particular examples of datasets are studied. Finally, in the last chapter, we propose a non-parametric method by penalization to estimate the regression function in the case where the errors are Gaussian and correlated
APA, Harvard, Vancouver, ISO, and other styles
25

Wu, Yinkai. "Non-normality, uncertainty and inflation forecasting : an analysis of China's inflation." Thesis, University of Leicester, 2016. http://hdl.handle.net/2381/37175.

Full text
Abstract:
Economic forecasting is important because it can affect the decision making processes of individuals, firms and governments so as to affect their behaviours. In this thesis, I discuss different methodologies for forecasting and forecast evaluation. I also discuss the role of assumption of normality and the role of uncertainty in economic forecasting. The first chapter is the introduction of the thesis. In second chapter, I conduct a Monte Carlo simulation to investigate the performances of forecast combination and the forecast encompassing test under the forecast errors non-normality. In third chapter, I examines the relationship between inflation forecast uncertainties and macroeconomic uncertainty for China by using different measures of uncertainties. I also investigate the relationship between inflation forecast uncertainties and inflation itself. In fourth chapter, I compute the probabilities of deflation for China by applying density forecast based on the theories and methodologies from previous two chapters. Particularly, I construct density forecasts for different forecast horizons by a joint distribution using Student-t copula. The fifth chapter is conclusion.
APA, Harvard, Vancouver, ISO, and other styles
26

Chuenpibal, Tanitpong. "If I pick up non-normality, can robust models make it better?" Thesis, University of Exeter, 2006. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.434877.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Reding, Lucas. "Contributions au théorème central limite et à l'estimation non paramétrique pour les champs de variables aléatoires dépendantes." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMR049.

Full text
Abstract:
La thèse suivante traite du Théorème Central Limite pour des champs de variables aléatoires dépendantes et de son application à l’estimation non-paramétrique. Dans une première partie, nous établissons des théorèmes centraux limite quenched pour des champs satisfaisant une condition projective à la Hannan (1973). Les versions fonctionnelles de ces théorèmes sont également considérées. Dans une seconde partie, nous établissons la normalité asymptotique d’estimateurs à noyau de la densité et de la régression pour des champs fortement mélangeants au sens de Rosenblatt (1956) ou bien des champs faiblement dépendants au sens de Wu (2005). Dans un premier temps, nous établissons les résultats pour l’estimateur à noyau de la régression introduit par Elizbar Nadaraya (1964) et Geoffrey Watson (1964). Puis, dans un second temps, nous étendons ces résultats à une large classe d’estimateurs récursifs introduite par Peter Hall et Prakash Patil (1994)
This thesis deals with the central limit theorem for dependent random fields and its applications to nonparametric statistics. In the first part, we establish some quenched central limit theorems for random fields satisfying a projective condition à la Hannan (1973). Functional versions of these theorems are also considered. In the second part, we prove the asymptotic normality of kernel density and regression estimators for strongly mixing random fields in the sense of Rosenblatt (1956) and for weakly dependent random fields in the sense of Wu (2005). First, we establish the result for the kernel regression estimator introduced by Elizbar Nadaraya (1964) and Geoffrey Watson (1964). Then, we extend these results to a large class of recursive estimators defined by Peter Hall and Prakash Patil (1994)
APA, Harvard, Vancouver, ISO, and other styles
28

Sun, Qi. "Finite sample distributions and non-normality in second generation panel unit root tests." Thesis, University of Leicester, 2010. http://hdl.handle.net/2381/8929.

Full text
Abstract:
As a remarkable advantage, panel unit root testing statistics present Gaussian distribution in the limit rather than the complicated functionals of Wiener processes compared with traditional single time series tests. Therefore, the asymptotic critical values are directly used and the finite sample performance is not given proper attention. In addition, the unit root test literature heavily relies on the normality assumption, when this condition fails, the asymptotic results are no longer valid. This thesis analyzes and finds serious finite sample bias in panel unit root tests and the systematic impact of non-normality on the tests. Using Monte Carlo simulations, in particular, the application of response surface analysis with newly designed functional forms of response surface regressions, the thesis demonstrates the trend patterns of finite sample bias and test bias vary closely in relation to the variation in sample size and the degree of non-normality, respectively. Finite sample critical values are then proposed, more importantly, the finite sample critical values are augmented by the David-Johnson estimate of percentile standard deviation to account for the randomness incurred by stochastic simulations. Non-normality is modeled by the Lévy-Paretian stable distribution. Certain degree of non-normality is found which causes so severe test dis-tortion that the finite sample critical values computed under normality are no longer va-lid. It provides important indications to the reliability of panel unit root test results when empirical data exhibit non-normality. Finally, a panel of OECD country inflation rates is examined for stationarity considering its feature of structural breaks. Instead of constructing structural breaks in panel unit root tests, an alternative and new approach is proposed by treating the breaks as a type of non-normality. With the help of earlier results in the thesis, the study supports the presence of unit root in inflation rates.
APA, Harvard, Vancouver, ISO, and other styles
29

Shutes, Karl. "Non-normality in asset pricing- extensions and applications of the skew-normal distribution." Thesis, University of Sheffield, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.419870.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Servien, Rémi. "Estimation de régularité locale." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00730491.

Full text
Abstract:
L'objectif de cette thèse est d'étudier le comportement local d'une mesure de probabilité, notamment au travers d'un indice de régularité locale. Dans la première partie, nous établissons la normalité asymptotique de l'estimateur des kn plus proches voisins de la densité et de l'histogramme. Dans la deuxième, nous définissons un estimateur du mode sous des hypothèses affaiblies. Nous montrons que l'indice de régularité intervient dans ces deux problèmes. Enfin, nous construisons dans une troisième partie différents estimateurs pour l'indice de régularité à partir d'estimateurs de la fonction de répartition, dont nous réalisons une revue bibliographique.
APA, Harvard, Vancouver, ISO, and other styles
31

Atif, Jamal. "Recalage non-rigide multimodal des images radiologiques par information mutuelle quadratique normalisée." Paris 11, 2004. http://www.theses.fr/2004PA112337.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Lehmann, Rüdiger. "Observation error model selection by information criteria vs. normality testing." Hochschule für Technik und Wirtschaft Dresden, 2016. http://nbn-resolving.de/urn:nbn:de:bsz:520-qucosa-211721.

Full text
Abstract:
To extract the best possible information from geodetic and geophysical observations, it is necessary to select a model of the observation errors, mostly the family of Gaussian normal distributions. However, there are alternatives, typically chosen in the framework of robust M-estimation. We give a synopsis of well-known and less well-known models for observation errors and propose to select a model based on information criteria. In this contribution we compare the Akaike information criterion (AIC) and the Anderson Darling (AD) test and apply them to the test problem of fitting a straight line. The comparison is facilitated by a Monte Carlo approach. It turns out that the model selection by AIC has some advantages over the AD test.
APA, Harvard, Vancouver, ISO, and other styles
33

Lau, Christian [Verfasser], Jörg [Akademischer Betreuer] Laitenberger, and Claudia [Akademischer Betreuer] Becker. "Non-normality in financial markets and the measurement of risk / Christian Lau. Betreuer: Jörg Laitenberger ; Claudia Becker." Halle, Saale : Universitäts- und Landesbibliothek Sachsen-Anhalt, 2015. http://d-nb.info/1078505004/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Tano, Bask Andreas, and Johan Jaurin. "Det elliptiska säkerhetsområdets robusthet : hur robust är metoden med de elliptiska säkerhetsområdena förett symmetriskt men icke normalfördelat datamaterial?" Thesis, Umeå University, Department of Statistics, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-34821.

Full text
Abstract:

Quality Control is a term often used within production and is referring to managing processes so they produce capable products. Within Quality Control, process capability index is a common measure to oversee processes. Safety Region Plots were introduced to do this graphically. In Albing & Vännman (2010) the concept of Safety Region Plots is expanded to incorporate an elliptical shape. The method of Elliptical Safety Region Plots assumes a normally distributed data. In this paper we are looking at the robustness of the Elliptical Safety Region Plots if we can assume a symmetrically, but non-normal, distribution. In the results we can conclude that an adjustment is required for symmetric, but non-normal, data if the method in Albing & Vännman (2010) is going to be used. An eventual adjustment is discussed in discussions. To easily be able to use the Elliptical Safety Region Plots mentioned in Albing & Vännman (2010) we have developed a program in RExcel.

APA, Harvard, Vancouver, ISO, and other styles
35

Ahmad, Ali. "Contribution à l'économétrie des séries temporelles à valeurs entières." Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30059/document.

Full text
Abstract:
Dans cette thèse, nous étudions des modèles de moyennes conditionnelles de séries temporelles à valeurs entières. Tout d’abord, nous proposons l’estimateur de quasi maximum de vraisemblance de Poisson (EQMVP) pour les paramètres de la moyenne conditionnelle. Nous montrons que, sous des conditions générales de régularité, cet estimateur est consistant et asymptotiquement normal pour une grande classe de modèles. Étant donné que les paramètres de la moyenne conditionnelle de certains modèles sont positivement contraints, comme par exemple dans les modèles INAR (INteger-valued AutoRegressive) et les modèles INGARCH (INteger-valued Generalized AutoRegressive Conditional Heteroscedastic), nous étudions la distribution asymptotique de l’EQMVP lorsque le paramètre est sur le bord de l’espace des paramètres. En tenant compte de cette dernière situation, nous déduisons deux versions modifiées du test de Wald pour la significativité des paramètres et pour la moyenne conditionnelle constante. Par la suite, nous accordons une attention particulière au problème de validation des modèles des séries temporelles à valeurs entières en proposant un test portmanteau pour l’adéquation de l’ajustement. Nous dérivons la distribution jointe de l’EQMVP et des autocovariances résiduelles empiriques. Puis, nous déduisons la distribution asymptotique des autocovariances résiduelles estimées, et aussi la statistique du test. Enfin, nous proposons l’EQMVP pour estimer équation-par-équation (EpE) les paramètres de la moyenne conditionnelle des séries temporelles multivariées à valeurs entières. Nous présentons les hypothèses de régularité sous lesquelles l’EQMVP-EpE est consistant et asymptotiquement normal, et appliquons les résultats obtenus à plusieurs modèles des séries temporelles multivariées à valeurs entières
The framework of this PhD dissertation is the conditional mean count time seriesmodels. We propose the Poisson quasi-maximum likelihood estimator (PQMLE) for the conditional mean parameters. We show that, under quite general regularityconditions, this estimator is consistent and asymptotically normal for a wide classeof count time series models. Since the conditional mean parameters of some modelsare positively constrained, as, for example, in the integer-valued autoregressive (INAR) and in the integer-valued generalized autoregressive conditional heteroscedasticity (INGARCH), we study the asymptotic distribution of this estimator when the parameter lies at the boundary of the parameter space. We deduce a Waldtype test for the significance of the parameters and another Wald-type test for the constance of the conditional mean. Subsequently, we propose a robust and general goodness-of-fit test for the count time series models. We derive the joint distribution of the PQMLE and of the empirical residual autocovariances. Then, we deduce the asymptotic distribution of the estimated residual autocovariances and also of a portmanteau test. Finally, we propose the PQMLE for estimating, equation-by-equation (EbE), the conditional mean parameters of a multivariate time series of counts. By using slightly different assumptions from those given for PQMLE, we show the consistency and the asymptotic normality of this estimator for a considerable variety of multivariate count time series models
APA, Harvard, Vancouver, ISO, and other styles
36

Rogers, Catherine Jane. "Power comparisons of four post-MANOVA tests under variance-covariance heterogeneity and non-normality in the two group case." Diss., Virginia Tech, 1994. http://hdl.handle.net/10919/40171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Joo, Seang-Hwane. "Robustness of the Within- and Between-Series Estimators to Non-Normal Multiple-Baseline Studies: A Monte Carlo Study." Scholar Commons, 2017. http://scholarcommons.usf.edu/etd/6715.

Full text
Abstract:
In single-case research, multiple-baseline (MB) design is the most widely used design in practical settings. It provides the opportunity to estimate the treatment effect based on not only within-series comparisons of treatment phase to baseline phase observations, but also time-specific between-series comparisons of observations from those that have started treatment to those that are still in the baseline. In MB studies, the average treatment effect and the variation of these effects across multiple participants can be estimated using various statistical modeling methods. Recently, two types of statistical modeling methods were proposed for analyzing MB studies: a) within-series model and b) between-series model. The within-series model is a typical two-level multilevel modeling approach analyzing the measurement occasions within a participant, whereas the between-series model is an alternative modeling approach analyzing participants’ measurement occasions at certain time points, where some participants are in the baseline phase and others are in the treatment phase. Parameters of both within- and between-series models are generally estimated with restricted maximum likelihood (ReML) estimation and ReML is developed based on the assumption of normality (Hox, et al., 2010; Raudenbush & Bryk, 2002). However, in practical educational and psychological settings, observed data may not be easily assumed to be normal. Therefore, the purpose of this study is to investigate the robustness of analyzing MB studies with the within- and between-series models when level-1 errors are non-normal. A Monte Carlo study was conducted under the conditions where level-1 errors were generated from non-normal distributions in which skewness and kurtosis of the distribution were manipulated. Four statistical approaches were considered for comparison based on theoretical and/or empirical rationales. The approaches were defined by the crossing of two analytic decisions: a) whether to use a within- or between-series estimate of effect and b) whether to use REML estimation with Kenward-Roger adjustment for inferences or Bayesian estimation and inference. The accuracy of parameter estimation and statistical power and Type I error were systematically analyzed. The results of the study showed the within- and between-series models are robust to the non-normality of the level-1 error variance. Both within- and between-series models estimated the treatment effect accurately and statistical inferences were acceptable. ReML and Bayesian estimations also showed similar results in the current study. Applications and implications for applied and methodology researchers are discussed based on the findings of the study.
APA, Harvard, Vancouver, ISO, and other styles
38

Bassene, Aladji. "Contribution à la modélisation spatiale des événements extrêmes." Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30039/document.

Full text
Abstract:
Dans cette de thèse, nous nous intéressons à la modélisation non paramétrique de données extrêmes spatiales. Nos résultats sont basés sur un cadre principal de la théorie des valeurs extrêmes, permettant ainsi d’englober les lois de type Pareto. Ce cadre permet aujourd’hui d’étendre l’étude des événements extrêmes au cas spatial à condition que les propriétés asymptotiques des estimateurs étudiés vérifient les conditions classiques de la Théorie des Valeurs Extrêmes (TVE) en plus des conditions locales sur la structure des données proprement dites. Dans la littérature, il existe un vaste panorama de modèles d’estimation d’événements extrêmes adaptés aux structures des données pour lesquelles on s’intéresse. Néanmoins, dans le cas de données extrêmes spatiales, hormis les modèles max stables,il n’en existe que peu ou presque pas de modèles qui s’intéressent à l’estimation fonctionnelle de l’indice de queue ou de quantiles extrêmes. Par conséquent, nous étendons les travaux existants sur l’estimation de l’indice de queue et des quantiles dans le cadre de données indépendantes ou temporellement dépendantes. La spécificité des méthodes étudiées réside sur le fait que les résultats asymptotiques des estimateurs prennent en compte la structure de dépendance spatiale des données considérées, ce qui est loin d’être trivial. Cette thèse s’inscrit donc dans le contexte de la statistique spatiale des valeurs extrêmes. Elle y apporte trois contributions principales. • Dans la première contribution de cette thèse permettant d’appréhender l’étude de variables réelles spatiales au cadre des valeurs extrêmes, nous proposons une estimation de l’indice de queue d’une distribution à queue lourde. Notre approche repose sur l’estimateur de Hill (1975). Les propriétés asymptotiques de l’estimateur introduit sont établies lorsque le processus spatial est adéquatement approximé par un processus M−dépendant, linéaire causal ou lorsqu'il satisfait une condition de mélange fort (a-mélange). • Dans la pratique, il est souvent utile de lier la variable d’intérêt Y avec une co-variable X. Dans cette situation, l’indice de queue dépend de la valeur observée x de la co-variable X et sera appelé indice de queue conditionnelle. Dans la plupart des applications, l’indice de queue des valeurs extrêmes n’est pas l’intérêt principal et est utilisé pour estimer par exemple des quantiles extrêmes. La contribution de ce chapitre consiste à adapter l’estimateur de l’indice de queue introduit dans la première partie au cadre conditionnel et d’utiliser ce dernier afin de proposer un estimateur des quantiles conditionnels extrêmes. Nous examinons les modèles dits "à plan fixe" ou "fixed design" qui correspondent à la situation où la variable explicative est déterministe et nous utlisons l’approche de la fenêtre mobile ou "window moving approach" pour capter la co-variable. Nous étudions le comportement asymptotique des estimateurs proposés et donnons des résultats numériques basés sur des données simulées avec le logiciel "R". • Dans la troisième partie de cette thèse, nous étendons les travaux de la deuxième partie au cadre des modèles dits "à plan aléatoire" ou "random design" pour lesquels les données sont des observations spatiales d’un couple (Y,X) de variables aléatoires réelles. Pour ce dernier modèle, nous proposons un estimateur de l’indice de queue lourde en utilisant la méthode des noyaux pour capter la co-variable. Nous utilisons un estimateur de l’indice de queue conditionnelle appartenant à la famille de l’estimateur introduit par Goegebeur et al. (2014b)
In this thesis, we investigate nonparametric modeling of spatial extremes. Our resultsare based on the main result of the theory of extreme values, thereby encompass Paretolaws. This framework allows today to extend the study of extreme events in the spatialcase provided if the asymptotic properties of the proposed estimators satisfy the standardconditions of the Extreme Value Theory (EVT) in addition to the local conditions on thedata structure themselves. In the literature, there exists a vast panorama of extreme events models, which are adapted to the structures of the data of interest. However, in the case ofextreme spatial data, except max-stables models, little or almost no models are interestedin non-parametric estimation of the tail index and/or extreme quantiles. Therefore, weextend existing works on estimating the tail index and quantile under independent ortime-dependent data. The specificity of the methods studied resides in the fact that theasymptotic results of the proposed estimators take into account the spatial dependence structure of the relevant data, which is far from trivial. This thesis is then written in thecontext of spatial statistics of extremes. She makes three main contributions.• In the first contribution of this thesis, we propose a new approach of the estimatorof the tail index of a heavy-tailed distribution within the framework of spatial data. This approach relies on the estimator of Hill (1975). The asymptotic properties of the estimator introduced are established when the spatial process is adequately approximated by aspatial M−dependent process, spatial linear causal process or when the process satisfies a strong mixing condition.• In practice, it is often useful to link the variable of interest Y with covariate X. Inthis situation, the tail index depends on the observed value x of the covariate X and theunknown fonction (.) will be called conditional tail index. In most applications, the tailindexof an extreme value is not the main attraction, but it is used to estimate for instance extreme quantiles. The contribution of this chapter is to adapt the estimator of the tail index introduced in the first part in the conditional framework and use it to propose an estimator of conditional extreme quantiles. We examine the models called "fixed design"which corresponds to the situation where the explanatory variable is deterministic. To tackle the covariate, since it is deterministic, we use the window moving approach. Westudy the asymptotic behavior of the estimators proposed and some numerical resultsusing simulated data with the software "R".• In the third part of this thesis, we extend the work of the second part of the framemodels called "random design" for which the data are spatial observations of a pair (Y,X) of real random variables . In this last model, we propose an estimator of heavy tail-indexusing the kernel method to tackle the covariate. We use an estimator of the conditional tail index belonging to the family of the estimators introduced by Goegebeur et al. (2014b)
APA, Harvard, Vancouver, ISO, and other styles
39

Uddin, Mohammad Moin. "ROBUST STATISTICAL METHODS FOR NON-NORMAL QUALITY ASSURANCE DATA ANALYSIS IN TRANSPORTATION PROJECTS." UKnowledge, 2011. http://uknowledge.uky.edu/gradschool_diss/153.

Full text
Abstract:
The American Association of Highway and Transportation Officials (AASHTO) and Federal Highway Administration (FHWA) require the use of the statistically based quality assurance (QA) specifications for construction materials. As a result, many of the state highway agencies (SHAs) have implemented the use of a QA specification for highway construction. For these statistically based QA specifications, quality characteristics of most construction materials are assumed normally distributed, however, the normality assumption can be violated in several forms. Distribution of data can be skewed, kurtosis induced, or bimodal. If the process shows evidence of a significant departure from normality, then the quality measures calculated may be erroneous. In this research study, an extended QA data analysis model is proposed which will significantly improve the Type I error and power of the F-test and t-test, and remove bias estimates of Percent within Limit (PWL) based pay factor calculation. For the F-test, three alternative tests are proposed when sampling distribution is non-normal. These are: 1) Levene’s test; 2) Brown and Forsythe’s test; and 3) O’Brien’s test. One alternative method is proposed for the t-test, which is the non-parametric Wilcoxon - Mann – Whitney Sign Rank test. For PWL based pay factor calculation when lot data suffer non-normality, three schemes were investigated, which are: 1) simple transformation methods, 2) The Clements method, and 3) Modified Box-Cox transformation using “Golden Section Search” method. The Monte Carlo simulation study revealed that both Levene’s test and Brown and Forsythe’s test are robust alternative tests of variances when underlying sample population distribution is non-normal. Between the t-test and Wilcoxon test, the t-test was found significantly robust even when sample population distribution was severely non-normal. Among the data transformation for PWL based pay factor, the modified Box-Cox transformation using the golden section search method was found to be the most effective in minimizing or removing pay bias. Field QA data was analyzed to validate the model and a Microsoft® Excel macro based software is developed, which can adjust any pay consequences due to non-normality.
APA, Harvard, Vancouver, ISO, and other styles
40

Donmez, Ayca. "Adaptive Estimation And Hypothesis Testing Methods." Phd thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/3/12611724/index.pdf.

Full text
Abstract:
For statistical estimation of population parameters, Fisher&rsquo
s maximum likelihood estimators (MLEs) are commonly used. They are consistent, unbiased and efficient, at any rate for large n. In most situations, however, MLEs are elusive because of computational difficulties. To alleviate these difficulties, Tiku&rsquo
s modified maximum likelihood estimators (MMLEs) are used. They are explicit functions of sample observations and easy to compute. They are asymptotically equivalent to MLEs and, for small n, are equally efficient. Moreover, MLEs and MMLEs are numerically very close to one another. For calculating MLEs and MMLEs, the functional form of the underlying distribution has to be known. For machine data processing, however, such is not the case. Instead, what is reasonable to assume for machine data processing is that the underlying distribution is a member of a broad class of distributions. Huber assumed that the underlying distribution is long-tailed symmetric and developed the so called M-estimators. It is very desirable for an estimator to be robust and have bounded influence function. M-estimators, however, implicitly censor certain sample observations which most practitioners do not appreciate. Tiku and Surucu suggested a modification to Tiku&rsquo
s MMLEs. The new MMLEs are robust and have bounded influence functions. In fact, these new estimators are overall more efficient than M-estimators for long-tailed symmetric distributions. In this thesis, we have proposed a new modification to MMLEs. The resulting estimators are robust and have bounded influence functions. We have also shown that they can be used not only for long-tailed symmetric distributions but for skew distributions as well. We have used the proposed modification in the context of experimental design and linear regression. We have shown that the resulting estimators and the hypothesis testing procedures based on them are indeed superior to earlier such estimators and tests.
APA, Harvard, Vancouver, ISO, and other styles
41

Geimer, Alexander. "Garfinkels Agnes-Studie." Universitätsbibliothek Leipzig, 2017. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-219577.

Full text
Abstract:
Harold Garfinkel untersuchte in seiner ethnomethodologischen Studie über Agnes, die er 1967 im Prozess der Geschlechtsumwandlung begleitete, die Praktiken der alltäglichen, interaktiven Produktion des Geschlechts. Das hieraus entstandene Konzept des Doing Gender erkennt Geschlecht nicht als natürlichen Zustand, sondern als in sozialer Interaktion hervorgebrachtes Personenmerkmal.
APA, Harvard, Vancouver, ISO, and other styles
42

Detais, Amélie. "Maximum de vraisemblance et moindre carrés pénalisés dans des modèles de durée de vie censurées." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/820/.

Full text
Abstract:
L'analyse de durées de vie censurées est utilisée dans des domaines d'application variés et différentes possibilités ont été proposées pour la modélisation de telles données. Nous nous intéressons dans cette thèse à deux types de modélisation différents, le modèle de Cox stratifié avec indicateurs de strates aléatoirement manquants et le modèle de régression linéaire censuré à droite. Nous proposons des méthodes d'estimation des paramètres et établissons les propriétés asymptotiques des estimateurs obtenus dans chacun de ces modèles. Dans un premier temps, nous considérons une généralisation du modèle de Cox qui permet à différents groupes de la population, appelés strates, de posséder des fonctions d'intensité de base différentes tandis que la valeur du paramètre de régression est commune. Dans ce modèle à intensité proportionnelle stratifié, nous nous intéressons à l'estimation des paramètres lorsque l'indicateur de strate est manquant pour certains individus de la population. Des estimateurs du maximum de vraisemblance non paramétrique pour les paramètres du modèle sont proposés et nous montrons leurs consistance et normalité asymptotique. L'efficacité du paramètre de régression est établie et des estimateurs consistants de sa variance asymptotique sont également obtenus. Pour l'évaluation des estimateurs du modèle, nous proposons l'utilisation de l'algorithme Espérance-Maximisation et le développons dans ce cas particulier. Dans un second temps, nous nous intéressons au modèle de régression linéaire lorsque la donnée réponse est censurée aléatoirement à droite. Nous introduisons un nouvel estimateur du paramètre de régression minimisant un critère des moindres carrés pénalisé et pondéré par des poids de Kaplan-Meier. Des résultats de consistance et normalité asymptotique sont obtenus et une étude de simulations est effectuée pour illustrer les propriétés de cet estimateur de type LASSO. La méthode bootstrap est utilisée pour l'estimation de la variance asymptotique
Life data analysis is used in various application fields. Different methods have been proposed for modelling such data. In this thesis, we are interested in two distinct modelisation types, the stratified Cox model with randomly missing strata indicators and the right-censored linear regression model. We propose methods for estimating the parameters and establish the asymptotic properties of the obtained estimators in each of these models. First, we consider a generalization of the Cox model, allowing different groups, named strata, of the population to have distinct baseline intensity functions, whereas the regression parameter is shared by all the strata. In this stratified proportional intensity model, we are interested in the parameters estimation when the strata indicator is missing for some of the population individuals. Nonparametric maximum likelihood estimators are proposed for the model parameters and their consistency and asymptotic normality are established. We show the efficiency of the regression parameter and obtain consistent estimators of its variance. The Expectation-Maximization algorithm is proposed and developed for the evaluation of the estimators of the model parameters. Second, we are interested in the regression linear model when the response data is randomly right-censored. We introduce a new estimator of the regression parameter, which minimizes a Kaplan-Meier-weighted penalized least squares criterion. Results of consistency and asymptotic normality are obtained and a simulation study is conducted in order to investigate the small sample properties of this LASSO-type estimator. The bootstrap method is used for the estimation of the asymptotic variance
APA, Harvard, Vancouver, ISO, and other styles
43

Kolli, Kranthi Kumar. "Domain Effects in the Finite / Infinite Time Stability Properties of a Viscous Shear Flow Discontinuity." Connect to this title, 2008. http://scholarworks.umass.edu/theses/204/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Yilmaz, Yildiz Elif. "Experimental Design With Short-tailed And Long-tailed Symmetric Error Distributions." Master's thesis, METU, 2004. http://etd.lib.metu.edu.tr/upload/12605191/index.pdf.

Full text
Abstract:
One-way and two-way classification models in experimental design for both balanced and unbalanced cases are considered when the errors have Generalized Secant Hyperbolic distribution. Efficient and robust estimators for main and interaction effects are obtained by using the modified maximum likelihood estimation (MML) technique. The test statistics analogous to the normal-theory F statistics are defined to test main and interaction effects and a test statistic for testing linear contrasts is defined. It is shown that test statistics based on MML estimators are efficient and robust. The methodogy obtained is also generalized to situations where the error distributions from block to block are non-identical.
APA, Harvard, Vancouver, ISO, and other styles
45

Yilmaz, Yildiz Elif. "Bayesian Learning Under Nonnormality." Master's thesis, METU, 2004. http://etd.lib.metu.edu.tr/upload/3/12605582/index.pdf.

Full text
Abstract:
Naive Bayes classifier and maximum likelihood hypotheses in Bayesian learning are considered when the errors have non-normal distribution. For location and scale parameters, efficient and robust estimators that are obtained by using the modified maximum likelihood estimation (MML) technique are used. In naive Bayes classifier, the error distributions from class to class and from feature to feature are assumed to be non-identical and Generalized Secant Hyperbolic (GSH) and Generalized Logistic (GL) distribution families have been used instead of normal distribution. It is shown that the non-normal naive Bayes classifier obtained in this way classifies the data more accurately than the one based on the normality assumption. Furthermore, the maximum likelihood (ML) hypotheses are obtained under the assumption of non-normality, which also produce better results compared to the conventional ML approach.
APA, Harvard, Vancouver, ISO, and other styles
46

Herrington, Richard S. "Simulating Statistical Power Curves with the Bootstrap and Robust Estimation." Thesis, University of North Texas, 2001. https://digital.library.unt.edu/ark:/67531/metadc2846/.

Full text
Abstract:
Power and effect size analysis are important methods in the psychological sciences. It is well known that classical statistical tests are not robust with respect to power and type II error. However, relatively little attention has been paid in the psychological literature to the effect that non-normality and outliers have on the power of a given statistical test (Wilcox, 1998). Robust measures of location exist that provide much more powerful tests of statistical hypotheses, but their usefulness in power estimation for sample size selection, with real data, is largely unknown. Furthermore, practical approaches to power planning (Cohen, 1988) usually focus on normal theory settings and in general do not make available nonparametric approaches to power and effect size estimation. Beran (1986) proved that it is possible to nonparametrically estimate power for a given statistical test using bootstrap methods (Efron, 1993). However, this method is not widely known or utilized in data analysis settings. This research study examined the practical importance of combining robust measures of location with nonparametric power analysis. Simulation and analysis of real world data sets are used. The present study found that: 1) bootstrap confidence intervals using Mestimators gave shorter confidence intervals than the normal theory counterpart whenever the data had heavy tailed distributions; 2) bootstrap empirical power is higher for Mestimators than the normal theory counterpart when the data had heavy tailed distributions; 3) the smoothed bootstrap controls type I error rate (less than 6%) under the null hypothesis for small sample sizes; and 4) Robust effect sizes can be used in conjuction with Cohen's (1988) power tables to get more realistic sample sizes given that the data distribution has heavy tails.
APA, Harvard, Vancouver, ISO, and other styles
47

Höglund, Lotta. ""Det är nog någonting" : En kvalitativ studie om hur förskollärare identifierar barn i behov av särskilt stöd i förskolan." Thesis, Luleå tekniska universitet, Institutionen för konst, kommunikation och lärande, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-64466.

Full text
Abstract:
Syftet med denna studie är att kartlägga och exemplifiera hur förskollärare identifierar barn i behov av särskilt stöd, samt synliggöra vilka normativa föreställningar kring normalitet som kommer till uttryck i förskollärares tal om barn i behov av särskilt stöd. Studien har sin utgångspunkt i ett socialkonstruktionistiskt perspektiv med antagandet att språket, genom diskurser, skapar konstruktioner av verkligheten. För att skapa ytterligare förståelse för hur diskurser påverkar det egna tänkandet och agerandet har studien kompletterats med en postmodern influens. Ett synsätt som möjliggör en granskning av olika förgivettaganden och kan bidra till nya sätt att förstå ett fenomen. Studiens empiri har samlats in genom kvalitativa intervjuer och resultatet beskrivs utifrån två identifierade diskurser; verksamhetsdiskurs samt individuell bristdiskurs. Resultatet visar att förskollärarna i studien identifierar barn i behov av särskilt stöd baserat på egenskaper och beteenden som väcker oro och funderingar samt utifrån identifierade funktionsnedsättningar. Samtidigt framträder bilden av hur alla barn kan ses som i behov av särskilt stöd och hur det är upp till verksamheten att vara flexibel för att kunna möta barns olika behov och förutsättningar.
APA, Harvard, Vancouver, ISO, and other styles
48

Manandhar, Binod. "Bayesian Models for the Analyzes of Noisy Responses From Small Areas: An Application to Poverty Estimation." Digital WPI, 2017. https://digitalcommons.wpi.edu/etd-dissertations/188.

Full text
Abstract:
We implement techniques of small area estimation (SAE) to study consumption, a welfare indicator, which is used to assess poverty in the 2003-2004 Nepal Living Standards Survey (NLSS-II) and the 2001 census. NLSS-II has detailed information of consumption, but it can give estimates only at stratum level or higher. While population variables are available for all households in the census, they do not include the information on consumption; the survey has the `population' variables nonetheless. We combine these two sets of data to provide estimates of poverty indicators (incidence, gap and severity) for small areas (wards, village development committees and districts). Consumption is the aggregate of all food and all non-food items consumed. In the welfare survey the responders are asked to recall all information about consumptions throughout the reference year. Therefore, such data are likely to be noisy, possibly due to response errors or recalling errors. The consumption variable is continuous and positively skewed, so a statistician might use a logarithmic transformation, which can reduce skewness and help meet the normality assumption required for model building. However, it could be problematic since back transformation may produce inaccurate estimates and there are difficulties in interpretations. Without using the logarithmic transformation, we develop hierarchical Bayesian models to link the survey to the census. In our models for consumption, we incorporate the `population' variables as covariates. First, we assume that consumption is noiseless, and it is modeled using three scenarios: the exponential distribution, the gamma distribution and the generalized gamma distribution. Second, we assume that consumption is noisy, and we fit the generalized beta distribution of the second kind (GB2) to consumption. We consider three more scenarios of GB2: a mixture of exponential and gamma distributions, a mixture of two gamma distributions, and a mixture of two generalized gamma distributions. We note that there are difficulties in fitting the models for noisy responses because these models have non-identifiable parameters. For each scenario, after fitting two hierarchical Bayesian models (with and without area effects), we show how to select the most plausible model and we perform a Bayesian data analysis on Nepal's poverty data. We show how to predict the poverty indicators for all wards, village development committees and districts of Nepal (a big data problem) by combining the survey data with the census. This is a computationally intensive problem because Nepal has about four million households with about four thousand households in the survey and there is no record linkage between households in the survey and the census. Finally, we perform empirical studies to assess the quality of our survey-census procedure.
APA, Harvard, Vancouver, ISO, and other styles
49

Chandler, Gary James. "Sensitivity analysis of low-density jets and flames." Thesis, University of Cambridge, 2011. https://www.repository.cam.ac.uk/handle/1810/246531.

Full text
Abstract:
This work represents the initial steps in a wider project that aims to map out the sensitive areas in fuel injectors and combustion chambers. Direct numerical simulation (DNS) using a Low-Mach-number formulation of the Navier–Stokes equations is used to calculate direct-linear and adjoint global modes for axisymmetric low-density jets and lifted jet diffusion flames. The adjoint global modes provide a map of the most sensitive locations to open-loop external forcing and heating. For the jet flows considered here, the most sensitive region is at the inlet of the domain. The sensitivity of the global-mode eigenvalues to force feedback and to heat and drag from a hot-wire is found using a general structural sensitivity framework. Force feedback can occur from a sensor-actuator in the flow or as a mechanism that drives global instability. For the lifted flames, the most sensitive areas lie between the inlet and flame base. In this region the jet is absolutely unstable, but the close proximity of the flame suppresses the global instability seen in the non-reacting case. The lifted flame is therefore particularly sensitive to outside disturbances in the non-reacting zone. The DNS results are compared to a local analysis. The most absolutely unstable region for all the flows considered is at the inlet, with the wavemaker slightly downstream of the inlet. For lifted flames, the region of largest sensitivity to force feedback is near to the location of the wavemaker, but for the non-reacting jet this region is downstream of the wavemaker and outside of the pocket of absolute instability near the inlet. Analysing the sensitivity of reacting and non-reacting variable-density shear flows using the low-Mach-number approximation has up until now not been done. By including reaction, a large forward step has been taken in applying these techniques to real fuel injectors.
APA, Harvard, Vancouver, ISO, and other styles
50

El, Heda Khadijetou. "Choix optimal du paramètre de lissage dans l'estimation non paramétrique de la fonction de densité pour des processus stationnaires à temps continu." Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0484/document.

Full text
Abstract:
Les travaux de cette thèse portent sur le choix du paramètre de lissage dans le problème de l'estimation non paramétrique de la fonction de densité associée à des processus stationnaires ergodiques à temps continus. La précision de cette estimation dépend du choix de ce paramètre. La motivation essentielle est de construire une procédure de sélection automatique de la fenêtre et d'établir des propriétés asymptotiques de cette dernière en considérant un cadre de dépendance des données assez général qui puisse être facilement utilisé en pratique. Cette contribution se compose de trois parties. La première partie est consacrée à l'état de l'art relatif à la problématique qui situe bien notre contribution dans la littérature. Dans la deuxième partie, nous construisons une méthode de sélection automatique du paramètre de lissage liée à l'estimation de la densité par la méthode du noyau. Ce choix issu de la méthode de la validation croisée est asymptotiquement optimal. Dans la troisième partie, nous établissons des propriétés asymptotiques, de la fenêtre issue de la méthode de la validation croisée, données par des résultats de convergence presque sûre
The work this thesis focuses on the choice of the smoothing parameter in the context of non-parametric estimation of the density function for stationary ergodic continuous time processes. The accuracy of the estimation depends greatly on the choice of this parameter. The main goal of this work is to build an automatic window selection procedure and establish asymptotic properties while considering a general dependency framework that can be easily used in practice. The manuscript is divided into three parts. The first part reviews the literature on the subject, set the state of the art and discusses our contribution in within. In the second part, we design an automatical method for selecting the smoothing parameter when the density is estimated by the Kernel method. This choice stemming from the cross-validation method is asymptotically optimal. In the third part, we establish an asymptotic properties pertaining to consistency with rate for the resulting estimate of the window-width
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography