To see the other types of publications on this topic, follow the link: Mathematics Estimation theory.

Dissertations / Theses on the topic 'Mathematics Estimation theory'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Mathematics Estimation theory.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Whaley, Dewey Lonzo. "The Interquartile Range: Theory and Estimation." Digital Commons @ East Tennessee State University, 2005. https://dc.etsu.edu/etd/1030.

Full text
Abstract:
The interquartile range (IQR) is used to describe the spread of a distribution. In an introductory statistics course, the IQR might be introduced as simply the “range within which the middle half of the data points lie.” In other words, it is the distance between the two quartiles, IQR = Q3 - Q1. We will compute the population IQR, the expected value, and the variance of the sample IQR for various continuous distributions. In addition, a bootstrap confidence interval for the population IQR will be evaluated.
APA, Harvard, Vancouver, ISO, and other styles
2

Hemvanich, Sanha. "GMM estimation for nonignorable missing data : theory and practice." Thesis, University of Warwick, 2007. http://wrap.warwick.ac.uk/1148/.

Full text
Abstract:
This thesis develops several Generalized Method ofMoments (GMM) estimators for analysing Not Missing at Random (NMAR) data, which is commonly referred to as the self-selection problem in an economic context. We extend the semiparametric estimation procedures of Ramalho and Smith (2003) to include the case where the missing data mechanism (MDM) depends on both a continuous response variable and covariates. Within this framework, it is possible to avoid imposing any assumptions on the missing data mechanism. We also discuss the asymptotic properties of the proposed GMM estimators and establish the connections of them to the GMM estimators of Ramalho and Smith and to the pseudolikelihood estimators of Tang, Little and Raghunathan (2003). All of the aforementioned estimators are then compared to other standard estimators for missing data such as the inverse probability weighted and sample selection model estimators in a number of Monte Carlo experiments. As an empirical application, these estimators are also applied to analyse the UK wage distribution. We found that, in many circumstances, our proposed estimators perform better than the other estimators described; especially when there is no exclusion restriction or other additional information available. Finally, we summarise that, since the true MDM is unlikely to be known, several estimators which impose different assumptions on the MDM should be used together to examine the sensitivity of the outcomes of interest with respect to the assumptions made and the estimation procedures adopted.
APA, Harvard, Vancouver, ISO, and other styles
3

Gaby, James Eliot. "Artificial intelligence applied to spectrum estimation." Thesis, Georgia Institute of Technology, 1991. http://hdl.handle.net/1853/15715.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Yoo, Hyungsuk. "Quality of the Volterra transfer function estimation /." Digital version accessible at:, 1998. http://wwwlib.umi.com/cr/utexas/main.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Xu, (Bill) Ke. "Efficient parameterization and estimation of spatio-temporal dynamic models /." free to MU campus, to others for purchase, 2004. http://wwwlib.umi.com/cr/mo/fullcit?p3137766.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Mupambirei, Rodwel. "Dynamic and robust estimation of risk and return in modern portfolio theory." Master's thesis, University of Cape Town, 2008. http://hdl.handle.net/11427/4913.

Full text
Abstract:
Includes abstract.
Includes bibliographical references (leaves 134-138).
The portfolio selection method developed by Markowitz gives a rational investor a way of evaluating different investment options in a portfolio using the expected return and variance of the returns. Sharpe uses the same optimization approach but estimates the mean and covariance in a regression framework using the index models. Sharpe makes a crucial assumption that the residuals from different assets are uncorrelated and that the beta estimates are constant. When the Sharpe model parameters are estimated using ordinary least squares, the regression assumptions are violated when there is significant autocorrelation and heteroskedasticity in the residuals. Furthermore, the presence of outlying observations in the data leads to unreliable estimates when the ordinary least squares method is used. We find significant correlation in the residuals from different shares and thus we use the Troskie-Hossain model which relaxes this assumption and ultimately produces an efficient frontier that is almost identical to the Markowitz model. The combination of the GARCH and AR models to remove both autocorrelation and heteroskedasticity is used on the single index model and it causes the efficient frontier to shift significantly to the left. Using dynamic estimation through the Kalman filter, it is noticed that the beta coefficients are not constant and that the resulting efficient frontiers significantly outperform the Sharpe model. In order to deal with the problem of outlying observations in the data, we propose using the Minimum Covariance Determinant, (MCD) estimator as a robust version of the Markowitz formulation. Robust alternatives to the ordinary lea.st squares estimator are also investigated and they all cause the efficient frontier to shift to the left. Finally, to solve the problem of collinearity in the multiple index framework, we construct orthogonal indices using principal components regression to estimate the efficient frontier.
APA, Harvard, Vancouver, ISO, and other styles
7

Young, Po-yuk. "Profile of good computational estimators related mathematical variables and common strategies used." [Hong Kong] : University of Hong Kong, 1994. http://sunzi.lib.hku.hk/hkuto/record.jsp?B14420478.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Bellaire, Robert Louis. "Nonlinear estimation with applications to target tracking." Diss., Georgia Institute of Technology, 1996. http://hdl.handle.net/1853/15399.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Davis, J. Wade. "Wavelet-based methods for estimation and discrimination /." free to MU campus, to others for purchase, 2003. http://wwwlib.umi.com/cr/mo/fullcit?p3099616.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Song, Changyong. "Function estimation via wavelets in the presence of interval censoring /." free to MU campus, to others for purchase, 1998. http://wwwlib.umi.com/cr/mo/fullcit?p9924927.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Aysal, Tuncer Can. "Filtering and estimation theory first-order, polynomial and decentralized signal processing /." Access to citation, abstract and download form provided by ProQuest Information and Learning Company; downloadable PDF file, 327 p, 2007. http://proquest.umi.com/pqdweb?did=1257806501&sid=6&Fmt=2&clientId=8331&RQT=309&VName=PQD.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Gutknecht, Daniel. "Identification and estimation of nonlinear regression models using control functions." Thesis, University of Warwick, 2012. http://wrap.warwick.ac.uk/50293/.

Full text
Abstract:
According to Blundell and Powell (2003), the development of strategies to identify and estimate certain parameters or even entire functions of regression models under endogeneity has arguably been one of the main contributions of microeconometrics to the statistical literature. The term endogeneity, in this context, refers to a correlation between observable regressor(s) and model unobservable(s), which can arise for multiple reasons such as, among others, omitted variables, measurement error, unobserved heterogeneity, or simultaneous causality. Whereas linear identification and estimation techniques to address endogeneity date back as far as 1928 (Stock and Trebbi, 2003), advances in the field of nonlinear models are much more recent: nonlinear parametric models under endogeneity only came under investigation during the 1970s and 1980s (e.g. Ameniya, 1974; Hansen, 1982), and it was not until the mid 1990s that models of (partially) unknown functional form were considered.
APA, Harvard, Vancouver, ISO, and other styles
13

Volkova, Tanya N. Presmeg Norma C. "Characterizing preservice teachers' thinking in computational estimation with regard to whole numbers, fractions, decimals, and percents." Normal, Ill. : Illinois State University, 2006. http://proquest.umi.com/pqdweb?index=0&did=1276391451&SrchMode=1&sid=6&Fmt=2&VInst=PROD&VType=PQD&RQT=309&VName=PQD&TS=1181316122&clientId=43838.

Full text
Abstract:
Thesis (Ph. D.)--Illinois State University, 2006.
Title from title page screen, viewed on June 8, 2007. Dissertation Committee: Norma C. Presmeg (chair), Cynthia W. Langrall, Beverly S. Rich, Janet Warfield. Includes bibliographical references (leaves 177-187) and abstract. Also available in print.
APA, Harvard, Vancouver, ISO, and other styles
14

Agaba, Peter. "Optimal Control Theory and Estimation of Parameters in a Differential Equation Model for Patients with Lupus." TopSCHOLAR®, 2019. https://digitalcommons.wku.edu/theses/3118.

Full text
Abstract:
System Lupus Erythematosus (SLE) is a chronic inflammatory autoimmune disorder that affects many parts of the body including skin, joints, kidneys, brains and other organs. Lupus Nephritis (LN) is a disease caused by SLE. Given the complexity of LN, we establish an optimal treatment strategy based on a previously developed mathematical model.For our thesis work, the model variables are: Immune Complexes (I), Pro-inflammatory mediators (P), Damaged tissue (D), and Anti-inflammatory mediators (A). The analysis in this research project focuses on analyzing therapeutic strategies to control damage using both parameter estimation techniques (integration of data to quantify any uncertainties associated with parameters) and optimal control with the goal of minimizing time spent on therapy for treating damaged tissue by LN.
APA, Harvard, Vancouver, ISO, and other styles
15

Larsson, John. "Estimation and Theory of Tangency Portfolio Weights: Evidence from S&P Data." Thesis, Örebro universitet, Institutionen för naturvetenskap och teknik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-67483.

Full text
Abstract:
En introduktion ges till portföljteori och tillämpning av tangentportföljen med en riskfri tillgång presenteras. Nyttofunktioner förklaras och hur tangentportföljen kan härledas med hjälp av en nyttofunktion. Annan bakgrundsinformation som är viktig för att förstå resultat från [1] om vikter i tangentportföljen då kovariansmatrisen inte är inverterbar presenteras också. Teorin tillämpas på historisk data från S&P. Resultaten visas i grafer och tabeller som analyseras.
APA, Harvard, Vancouver, ISO, and other styles
16

Chalak, Karim Marwan. "Essays on the definition, identification, and estimation of causal effects." Connect to a 24 p. preview or request complete full text in PDF format. Access restricted to UC campuses, 2007. http://wwwlib.umi.com/cr/ucsd/fullcit?p3259625.

Full text
Abstract:
Thesis (Ph. D.)--University of California, San Diego, 2007.
Title from first page of PDF file (viewed June 21, 2007). Available via ProQuest Digital Dissertations. Vita. Includes bibliographical references.
APA, Harvard, Vancouver, ISO, and other styles
17

Al, zghool Raed Ahmad Hasan. "Estimation for state space models quasi-likelihood and asymptotic quasi-likelihood approaches /." Access electronically, 2008. http://ro.uow.edu.au/theses/91.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Maximchuk, Oleg, and Yury Volkov. "Provisions estimation for portfolio of CDO in Gaussian financial environment." Thesis, Högskolan i Halmstad, Tillämpad matematik och fysik (MPE-lab), 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-16508.

Full text
Abstract:
The problem of managing the portfolio provisions is of very high importance for any financial institution. In this paper we provide both static and dynamic models of provisions estimation for the case when the decision about provisions is made at the first moment of time subject to the absence of information and for the case of complete and incomplete information. Also the hedging strategy for the case of the defaultable market is presented in this work as another tool of reducing the risk of default. The default time is modelled as a first-passage time of a standard Brownian motion through a deterministic barrier. Some methods of numerical provision estimation are also presented.
APA, Harvard, Vancouver, ISO, and other styles
19

Liu, Hui. "Performance analysis of DOA estimation algorithms using physical parameters." PDXScholar, 1992. https://pdxscholar.library.pdx.edu/open_access_etds/4362.

Full text
Abstract:
Analytical performance analysis on Direction-Of-Arrival (DOA) estimation algorithms has attracted much excellent research in recent years, various statistical properties have been revealed. However, in most of these analyses, insights of the performance were masked because of the involvement of singular values and singular vectors which depend on the character of the algorithms and data structures in a complex and nonlinear manner.
APA, Harvard, Vancouver, ISO, and other styles
20

Dossal, Charles. "Estimation de fonctions géométriques et déconvolution." Phd thesis, Ecole Polytechnique X, 2005. http://tel.archives-ouvertes.fr/tel-00855128.

Full text
Abstract:
Le travail présenté se divise en trois partie. Dans un premier temps, nous montrons que le formalisme de la sélection de modèles permet d'établir la vitesse de décroissance de l'erreur d'estimation d'un estimateur par seuillage dans une base orthogonale de bandlettes d'une image bruitée par un bruit additif gaussien pour un modèle d'images géométriquement régulières. Cette vitesse étant optimale à un facteur logarithmique près pour les fonctions de régularité C_alpha en dehors de courbes C_alpha. Dans un second temps, nous montrons qu'une approche similaire permet également d'atteindre un estimateur optimal pour l'inversion de l'opérateur de tomographie sur la même classe de fonctions. Dans une troisième partie nous analysons la déconvolution sparse spike 1D par minimisation l_1 et montrons qu'une distance minimum entre les spikes, dépendant du filtre assure la reconstruction exacte de la déconvolution par minimisation l_1
APA, Harvard, Vancouver, ISO, and other styles
21

Pousette, Marcus, and Jim Domeij. "Estimation of early termination of financial derivatives." Thesis, KTH, Matematisk statistik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-252568.

Full text
Abstract:
In terms of pricing financial derivatives, contractual length plays a important role in pricing risk. A contract with long duration will have more associated risk in comparison with a contract with low duration, everything else equal. In this thesis work we examine whether information about the derivative contract and involved parties (the counterparty) could be used in a model to accurately predict both probability and time if the contract would terminate earlier than the predetermined contractual length. By modelling the termination time with deep neural networks and assuming the probability distribution of termination time directly, we find that it is possible to predict when early termination of derivative contracts would occur significantly more accurate than assuming that contracts will always live to their original maturity date.
För prissättningen av finansiella derivat har kontraktets längd stor roll i värderingen av risken. Ett kontrakt som sträcker sig över lång tid har mer associerad risk i jämförelse med ett kontrakt som sträcker sig över kort tid, under förutsättningen av att kontraktet i övrigt är detsamma. I detta examensarbete undersöker vi om information om derivaten och kontraktets parter (motparten) kan användas för att med kunna förutspå sannolikheten för att ett kontrakt stängs ner tidigt samt vad den verkliga tidslängden är om så är fallet. Genom att modellera tidpunkten för avslut med hjälp av neurala nätverk och genom att anta sannolikhetsfördelningen för tidpunkten för avslut, fann vi att det är möjligt att förutspå tidpunkten för tidigt avslut signifikant bättre i jämförelse mot att anta att kontraktet alltid lever till dess ursprungliga livslängd.
APA, Harvard, Vancouver, ISO, and other styles
22

La, Voie Scott Lewis. "Parameter estimation for a modified cable model using a Green's function and eigenvalue perturbation." [Johnson City, Tenn. : East Tennessee State University], 2003. http://etd-submit.etsu.edu/etd/theses/available/etd-0331103-140715/unrestricted/LaVoieS04162003a.pdf.

Full text
Abstract:
Thesis (M.S.)--East Tennessee State University, 2003.
Title from electronic submission form. ETSU ETD database URN: etd-0331103-140715. Includes bibliographical references. Also available via Internet at the UMI web site.
APA, Harvard, Vancouver, ISO, and other styles
23

Vascimini, Vincent G. "Simulations Using the Kalman Filter." Bowling Green State University / OhioLINK, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=bgsu1576685726771127.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Rocha, Mário. "The embedding of complete bipartite graphs onto grids with a minimum grid cutwidth." CSUSB ScholarWorks, 2003. https://scholarworks.lib.csusb.edu/etd-project/2311.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Muindi, Pius Matheka. "Interval Estimation for the Ratio of Percentiles from Two Independent Populations." Digital Commons @ East Tennessee State University, 2008. https://dc.etsu.edu/etd/1969.

Full text
Abstract:
Percentiles are used everyday in descriptive statistics and data analysis. In real life, many quantities are normally distributed and normal percentiles are often used to describe those quantities. In life sciences, distributions like exponential, uniform, Weibull and many others are used to model rates, claims, pensions etc. The need to compare two or more independent populations can arise in data analysis. The ratio of percentiles is just one of the many ways of comparing populations. This thesis constructs a large sample confidence interval for the ratio of percentiles whose underlying distributions are known. A simulation study is conducted to evaluate the coverage probability of the proposed interval method. The distributions that are considered in this thesis are the normal, uniform and exponential distributions.
APA, Harvard, Vancouver, ISO, and other styles
26

Remenyi, Norbert. "Contributions to Bayesian wavelet shrinkage." Diss., Georgia Institute of Technology, 2012. http://hdl.handle.net/1853/45898.

Full text
Abstract:
This thesis provides contributions to research in Bayesian modeling and shrinkage in the wavelet domain. Wavelets are a powerful tool to describe phenomena rapidly changing in time, and wavelet-based modeling has become a standard technique in many areas of statistics, and more broadly, in sciences and engineering. Bayesian modeling and estimation in the wavelet domain have found useful applications in nonparametric regression, image denoising, and many other areas. In this thesis, we build on the existing techniques and propose new methods for applications in nonparametric regression, image denoising, and partially linear models. The thesis consists of an overview chapter and four main topics. In Chapter 1, we provide an overview of recent developments and the current status of Bayesian wavelet shrinkage research. The chapter contains an extensive literature review consisting of almost 100 references. The main focus of the overview chapter is on nonparametric regression, where the observations come from an unknown function contaminated with Gaussian noise. We present many methods which employ model-based and adaptive shrinkage of the wavelet coefficients through Bayes rules. These includes new developments such as dependence models, complex wavelets, and Markov chain Monte Carlo (MCMC) strategies. Some applications of Bayesian wavelet shrinkage, such as curve classification, are discussed. In Chapter 2, we propose the Gibbs Sampling Wavelet Smoother (GSWS), an adaptive wavelet denoising methodology. We use the traditional mixture prior on the wavelet coefficients, but also formulate a fully Bayesian hierarchical model in the wavelet domain accounting for the uncertainty of the prior parameters by placing hyperpriors on them. Since a closed-form solution to the Bayes estimator does not exist, the procedure is computational, in which the posterior mean is computed via MCMC simulations. We show how to efficiently develop a Gibbs sampling algorithm for the proposed model. The developed procedure is fully Bayesian, is adaptive to the underlying signal, and provides good denoising performance compared to state-of-the-art methods. Application of the method is illustrated on a real data set arising from the analysis of metabolic pathways, where an iterative shrinkage procedure is developed to preserve the mass balance of the metabolites in the system. We also show how the methodology can be extended to complex wavelet bases. In Chapter 3, we propose a wavelet-based denoising methodology based on a Bayesian hierarchical model using a double Weibull prior. The interesting feature is that in contrast to the mixture priors traditionally used by some state-of-the-art methods, the wavelet coefficients are modeled by a single density. Two estimators are developed, one based on the posterior mean and the other based on the larger posterior mode; and we show how to calculate these estimators efficiently. The methodology provides good denoising performance, comparable even to state-of-the-art methods that use a mixture prior and an empirical Bayes setting of hyperparameters; this is demonstrated by simulations on standard test functions. An application to a real-word data set is also considered. In Chapter 4, we propose a wavelet shrinkage method based on a neighborhood of wavelet coefficients, which includes two neighboring coefficients and a parental coefficient. The methodology is called Lambda-neighborhood wavelet shrinkage, motivated by the shape of the considered neighborhood. We propose a Bayesian hierarchical model using a contaminated exponential prior on the total mean energy in the Lambda-neighborhood. The hyperparameters in the model are estimated by the empirical Bayes method, and the posterior mean, median, and Bayes factor are obtained and used in the estimation of the total mean energy. Shrinkage of the neighboring coefficients is based on the ratio of the estimated and observed energy. The proposed methodology is comparable and often superior to several established wavelet denoising methods that utilize neighboring information, which is demonstrated by extensive simulations. An application to a real-world data set from inductance plethysmography is considered, and an extension to image denoising is discussed. In Chapter 5, we propose a wavelet-based methodology for estimation and variable selection in partially linear models. The inference is conducted in the wavelet domain, which provides a sparse and localized decomposition appropriate for nonparametric components with various degrees of smoothness. A hierarchical Bayes model is formulated on the parameters of this representation, where the estimation and variable selection is performed by a Gibbs sampling procedure. For both the parametric and nonparametric part of the model we are using point-mass-at-zero contamination priors with a double exponential spread distribution. In this sense we extend the model of Chapter 2 to partially linear models. Only a few papers in the area of partially linear wavelet models exist, and we show that the proposed methodology is often superior to the existing methods with respect to the task of estimating model parameters. Moreover, the method is able to perform Bayesian variable selection by a stochastic search for the parametric part of the model.
APA, Harvard, Vancouver, ISO, and other styles
27

Roth, Michael. "Advanced Kalman Filtering Approaches to Bayesian State Estimation." Doctoral thesis, Linköpings universitet, Reglerteknik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-134867.

Full text
Abstract:
Bayesian state estimation is a flexible framework to address relevant problems at the heart of existing and upcoming technologies. Application examples are obstacle tracking for driverless cars and indoor navigation using smartphone sensor data. Unfortunately, the mathematical solutions of the underlying theory cannot be translated to computer code in general. Therefore, this thesis discusses algorithms and approximations that are related to the Kalman filter (KF). Four scientific articles and an introduction with the relevant background on Bayesian state estimation theory and algorithms are included. Two articles discuss nonlinear Kalman filters, which employ the KF measurement update in nonlinear models. The numerous variants are presented in a common framework and the employed moment approximations are analyzed. Furthermore, their application to target tracking problems is discussed. A third article analyzes the ensemble Kalman filter (EnKF), a Monte Carlo implementation of the KF that has been developed for high-dimensional geoscientific filtering problems. The EnKF is presented in a simple KF framework, including its challenges, important extensions, and relations to other filters. Whereas the aforementioned articles contribute to the understanding of existing algorithms, a fourth article devises novel filters and smoothers to address heavy-tailed noise. The development is based on Student’s t distribution and provides simple recursions in the spirit of the KF. The introduction and articles are accompanied by extensive simulation experiments.
APA, Harvard, Vancouver, ISO, and other styles
28

Wang, Jiaping. "The generalized MLE with the interval centered and masked competing risks data." Diss., Online access via UMI:, 2009.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
29

Chen, Pei. "An investigation of statistical aspects of linear subspace analysis for computer vision applications." Monash University, Dept. of Electrical and Computer Systems Engineering, 2004. http://arrow.monash.edu.au/hdl/1959.1/9705.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Kakakhail, Shahkar. "Prédiction et estimation de très faibles taux d'erreur pour des chaînes de communication codées." Phd thesis, Université de Cergy Pontoise, 2010. http://tel.archives-ouvertes.fr/tel-00819416.

Full text
Abstract:
Dans cette thèse, nous abordons le sujet d'optimisation des méthodes utlisées pour l'évaluation de performance des codes correcteurs d'erreurs. La durée d'une simula- tion Monte Carlo pour estimer le taux d'erreurs dans un système de communication augmente exponentiellement avec l'accroissement du Rapport Signal sur Bruit (RSB). Importance Sampling (IS) est une des techniques qui permettent à réduire le temps de ces simulations. Dans ce travail, on a étudié et mis en oeuvre une version avancée d'IS, appelé Adaptive Importance Sampling (AIS), pour l'évaluation efficace des codes cor- recteurs d'erreurs aux taux d'erreur très bas. D'abord, nous présentons les inspirations et motivations en analysant différentes approches actuellement mises en pratique. On s'intéresse plus particulièrement aux méthodes inspirées de la physique statistique. Ensuite, basé sur notre analyse qualita- tive, nous présentons une méthode optimisée, appelé la méthode de Fast Flat Histogram (FFH) qui est intrinsèquement très générique. La méthode emploie l'algorithme de Wang-Landau, l'algorithme de Metropolis-Hastings et les chaines de Markov. Elle fonctionne dans le cadre de l'AIS et nous donne un gain de simulation satisfaisant. Différents paramètres sont utilisés pour assurer une précision statistique suffisante. L'extension vers d'autres types de codes correcteurs d'erreurs est directe. Nous présentons les résultats pour les codes LDPC et turbocodes ayant dif- férentes tailles et différents rendements. Par conséquent, nous montrons que la méthode FFH est générique et valable pour une large gamme des rendements, tailles et structures. De plus, nous montrons que la méthode FFH est un outil puissant pour trouver des pseudocodewords dans la région de RSB élévé en appliquant l'algorithme de décodage Belief Propagation aux codes LDPC.
APA, Harvard, Vancouver, ISO, and other styles
31

Brunel, Victor-Emmanuel. "Non-parametric estimation of convex bodies and convex polytopes." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01066977.

Full text
Abstract:
Dans ce travail, nous nous intéressons à l'estimation d'ensembles convexes dans l'espace Euclidien R^d, en nous penchant sur deux modèles. Dans le premier modèle, nous avons à notre disposition un échantillon de n points aléatoires, indépendants et de même loi, uniforme sur un ensemble convexe inconnu. Le second modèle est un modèle additif de régression, avec bruit sous-gaussien, et dont la fonction de régression est l'indicatrice d'Euler d'un ensemble convexe ici aussi inconnu. Dans le premier modèle, notre objectif est de construire un estimateur du support de la densité des observations, qui soit optimal au sens minimax. Dans le second modèle, l'objectif est double. Il s'agit de construire un estimateur du support de la fonction de régression, ainsi que de décider si le support en question est non vide, c'est-'a-dire si la fonction de régression est effectivement non nulle, ou si le signal observé n'est que du bruit. Dans ces deux modèles, nous nous intéressons plus particulièrement au cas où l'ensemble inconnu est un polytope convexe, dont le nombre de sommets est connu. Si ce nombre est inconnu, nous montrons qu'une procédure adaptative permet de construire un estimateur atteignant la même vitesse asymptotique que dans le cas précédent. Enfin, nous démontrons que ce m$eme estimateur pallie à l'erreur de spécification du modèle, consistant à penser à tort que l'ensemble convexe inconnu est un polytope. Nous démontrons une inégalité de déviation pour le volume de l'enveloppe convexe des observations dans le premier modèle. Nous montrons aussi que cette inégalité implique des bornes optimales sur les moments du volume manquant de cette enveloppe convexe, ainsi que sur les moments du nombre de ses sommets. Enfin, dans le cas unidimensionnel, pour le second modèle, nous donnons la taille asymptotique minimale que doit faire l'ensemble inconnu afin de pouvoir être détecté, et nous proposons une règle de décision, permettant un test consistant du caractère non vide de cet ensemble.
APA, Harvard, Vancouver, ISO, and other styles
32

Lieli, Robert P. "Three essays on the prediction of binary variables /." Diss., Connect to a 24 p. preview or request complete full text in PDF format. Access restricted to UC campuses, 2004. http://wwwlib.umi.com/cr/ucsd/fullcit?p3130414.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Masiulaitytė, Inga. "Regression and degradation models in reliability theory and survival analysis." Doctoral thesis, Lithuanian Academic Libraries Network (LABT), 2010. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2010~D_20100527_134956-15325.

Full text
Abstract:
In doctoral thesis redundant systems and degradation models are considered. To ensure high reliability of important elements of the system, the stand-by units can be used. These units are commuted and operate instead of the main failed unit. The stand-by units can function in the different conditions: “hot”, “cold” or “warm” reserving. In the thesis systems with “warm” stand-by units are analyzed. Hypotheses of smooth commuting are formulated and goodness-of-fit tests for these hypotheses are constructed. Nonparametric and parametric point and interval estimation procedures are given. Modeling and statistical estimation of reliability of systems from failure time and degradation data are considered.
Daktaro disertacijos tyrimo objektai yra rezervuotos sistemos ir degradaciniai modeliai. Norint užtikrinti svarbių sistemos elementų aukštą patikimumą, naudojami jų rezerviniai elementai, kurie gali būti įjungiami sugedus šiems pagrindiniams elementams. Rezerviniai elementai gali funkcionuoti skirtinguose režimuose: „karštame“, „šaltame“ arba „šiltame“. Disertacijoje yra nagrinėjamos sistemos su „šiltai“ rezervuotais elementais. Darbe suformuluojama rezervinio elemento „sklandaus įjungimo“ hipotezė ir konstruojami statistiniai kriterijai šiai hipotezei tikrinti. Nagrinėjami neparametrinio ir parametrinio taškinio bei intervalinio vertinimo uždaviniai. Disertacijoje nagrinėjami pakankamai bendri degradacijos modeliai, kurie aprašo elementų gedimų intensyvumą kaip funkciją kiek naudojamų apkrovų, tiek ir degradacijos lygio, kuri savo ruožtu modeliuojama naudojant stochastinius procesus.
APA, Harvard, Vancouver, ISO, and other styles
34

Zhao, Yuxin. "Position Estimation in Uncertain Radio Environments and Trajectory Learning." Licentiate thesis, Linköpings universitet, Reglerteknik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-135425.

Full text
Abstract:
To infer the hidden states from the noisy observations and make predictions based on a set of input states and output observations are two challenging problems in many research areas. Examples of applications many include position estimation from various measurable radio signals in indoor environments, self-navigation for autonomous cars, modeling and predicting of the traffic flows, and flow pattern analysis for crowds of people. In this thesis, we mainly use the Bayesian inference framework for position estimation in an indoor environment, where the radio propagation is uncertain. In Bayesian inference framework, it is usually hard to get analytical solutions. In such cases, we resort to Monte Carlo methods to solve the problem numerically. In addition, we apply Bayesian nonparametric modeling for trajectory learning in sport analytics. The main contribution of this thesis is to propose sequential Monte Carlo methods, namely particle filtering and smoothing, for a novel indoor positioning framework based on proximity reports. The experiment results have been further compared with theoretical bounds derived for this proximity based positioning system. To improve the performance, Bayesian non-parametric modeling, namely Gaussian process, has been applied to better indicate the radio propagation conditions. Then, the position estimates obtained sequentially using filtering and smoothing are further compared with a static solution, which is known as fingerprinting. Moreover, we propose a trajectory learning framework for flow estimation in sport analytics based on Gaussian processes. To mitigate the computation deficiency of Gaussian process, a grid-based on-line algorithm has been adopted for real-time applications. The resulting trajectory modeling for individual athlete can be used for many purposes, such as performance prediction and analysis, health condition monitoring, etc. Furthermore, we aim at modeling the flow of groups of athletes, which could be potentially used for flow pattern recognition, strategy planning, etc.
APA, Harvard, Vancouver, ISO, and other styles
35

Johnson, Natalie. "A Comparative Simulation Study of Robust Estimators of Standard Errors." Diss., CLICK HERE for online access, 2007. http://contentdm.lib.byu.edu/ETD/image/etd1937.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Wilkie, Kathleen P. "Mutual Information Based Methods to Localize Image Registration." Thesis, University of Waterloo, 2005. http://hdl.handle.net/10012/1121.

Full text
Abstract:
Modern medicine has become reliant on medical imaging. Multiple modalities, e. g. magnetic resonance imaging (MRI), computed tomography (CT), etc. , are used to provide as much information about the patient as possible. The problem of geometrically aligning the resulting images is called image registration. Mutual information, an information theoretic similarity measure, allows for automated intermodal image registration algorithms.

In applications such as cancer therapy, diagnosticians are more concerned with the alignment of images over a region of interest such as a cancerous lesion, than over an entire image set. Attempts to register only the regions of interest, defined manually by diagnosticians, fail due to inaccurate mutual information estimation over the region of overlap of these small regions.

This thesis examines the region of union as an alternative to the region of overlap. We demonstrate that the region of union improves the accuracy and reliability of mutual information estimation over small regions.

We also present two new mutual information based similarity measures which allow for localized image registration by combining local and global image information. The new similarity measures are based on convex combinations of the information contained in the regions of interest and the information contained in the global images.

Preliminary results indicate that the proposed similarity measures are capable of localizing image registration. Experiments using medical images from computer tomography and positron emission tomography demonstrate the initial success of these measures.

Finally, in other applications, auto-detection of regions of interest may prove useful and would allow for fully automated localized image registration. We examine methods to automatically detect potential regions of interest based on local activity level and present some encouraging results.
APA, Harvard, Vancouver, ISO, and other styles
37

Boedeker, Peter. "Comparison of Heterogeneity and Heterogeneity Interval Estimators in Random-Effects Meta-Analysis." Thesis, University of North Texas, 2018. https://digital.library.unt.edu/ark:/67531/metadc1157553/.

Full text
Abstract:
Meta-analyses are conducted to synthesize the quantitative results of related studies. The random-effects meta-analysis model is based on the assumption that a distribution of true effects exists in the population. This distribution is often assumed to be normal with a mean and variance. The population variance, also called heterogeneity, can be estimated numerous ways. Accurate estimation of heterogeneity is necessary as a description of the distribution and for determining weights applied in the estimation of the summary effect when using inverse-variance weighting. To evaluate a wide range of estimators, we compared 16 estimators (Bayesian and non-Bayesian) of heterogeneity with regard to bias and mean square error over conditions based on reviews of educational and psychological meta-analyses. Three simulation conditions were varied: (a) sample size per meta-analysis, (b) true heterogeneity, and (c) sample size per effect size within each meta-analysis. Confidence or highest density intervals can be calculated for heterogeneity. The heterogeneity estimators that performed best over the widest range of conditions were paired with heterogeneity interval estimators. Interval estimators were evaluated based on coverage probability, interval width, and coverage of the estimated value. The combination of the Paule Manel estimator and Q-Profile interval method is recommended when synthesizing standardized mean difference effect sizes.
APA, Harvard, Vancouver, ISO, and other styles
38

Wallman, Kaj Mikael Joakim. "Computational methods for the estimation of cardiac electrophysiological conduction parameters in a patient specific setting." Thesis, University of Oxford, 2013. http://ora.ox.ac.uk/objects/uuid:2d5573b9-5115-4434-b9c8-60f8d0531f86.

Full text
Abstract:
Cardiovascular disease is the primary cause of death globally. Although this group encompasses a heterogeneous range of conditions, many of these diseases are associated with abnormalities in the cardiac electrical propagation. In these conditions, structural abnormalities in the form of scars and fibrotic tissue are known to play an important role, leading to a high individual variability in the exact disease mechanisms. Because of this, clinical interventions such as ablation therapy and CRT that work by modifying the electrical propagation should ideally be optimized on a patient specific basis. As a tool for optimizing these interventions, computational modelling and simulation of the heart have become increasingly important. However, in order to construct these models, a crucial step is the estimation of tissue conduction properties, which have a profound impact on the cardiac activation sequence predicted by simulations. Information about the conduction properties of the cardiac tissue can be gained from electrophysiological data, obtained using electroanatomical mapping systems. However, as in other clinical modalities, electrophysiological data are often sparse and noisy, and this results in high levels of uncertainty in the estimated quantities. In this dissertation, we develop a methodology based on Bayesian inference, together with a computationally efficient model of electrical propagation to achieve two main aims: 1) to quantify values and associated uncertainty for different tissue conduction properties inferred from electroanatomical data, and 2) to design strategies to optimise the location and number of measurements required to maximise information and reduce uncertainty. The methodology is validated in several studies performed using simulated data obtained from image-based ventricular models, including realistic fibre orientation and conduction heterogeneities. Subsequently, by using the developed methodology to investigate how the uncertainty decreases in response to added measurements, we derive an a priori index for placing electrophysiological measurements in order to optimise the information content of the collected data. Results show that the derived index has a clear benefit in minimising the uncertainty of inferred conduction properties compared to a random distribution of measurements, suggesting that the methodology presented in this dissertation provides an important step towards improving the quality of the spatiotemporal information obtained using electroanatomical mapping.
APA, Harvard, Vancouver, ISO, and other styles
39

Wintenberger, Olivier. "Contributions à la statistique des processus : estimation, prédiction et extrêmes." Habilitation à diriger des recherches, Université Paris Dauphine - Paris IX, 2012. http://tel.archives-ouvertes.fr/tel-00757756.

Full text
Abstract:
Ce mémoire d'habilitation traite de la statistique des processus à temps discret faiblement dépendants. Une première partie présente des résultats asymptotiques d'estimation pour les paramètres de modèles affines généraux. La méthode étudiée est la maximisation du critère de quasi-vraisemblance. Afin de traiter de possibles ruptures de stationnarité, nous pénalisons ce critère par le nombre de ruptures. Pour les modèles à volatilité comme le modèle EGARCH, cette procédure est instable et nous proposons de contraindre le critère au domaine dit d'inversibilité continue. Nous étudions le problème de la prédiction de processus faiblement dépendants dans une seconde partie. Les résultats obtenus sont des inégalités d'oracle non asymptotiques nécessitant l'étude préalable des propriétés de concentration gaussiennes de lois faiblement dépendantes. Pour ce faire nous utilisons une notion de transport faible et de nouvelles inégalités dites de transport conditionnel. Enfin, le comportement des extrêmes en présence de dépendance fait l'objet de la troisième partie. Nous introduisons un indice de {\it cluster} qui caractérise les lois limites $\alpha$-stables dans le théorème de la limite centrale et les grandes déviations des sommes partielles à variation régulière. Nous traitons des exemples de processus à queues épaisses tels que les solutions des équations récurrentes stochastiques linéaires et le modèle GARCH. Nous appliquons ces résultats pour caractériser asymptotiquement les erreurs d'estimation des auto-covariances de processus à queues épaisses.
APA, Harvard, Vancouver, ISO, and other styles
40

Nilsson, Mattias. "Tail Estimation for Large Insurance Claims, an Extreme Value Approach." Thesis, Linnaeus University, School of Computer Science, Physics and Mathematics, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-7826.

Full text
Abstract:

In this thesis are extreme value theory used to estimate the probability that large insuranceclaims are exceeding a certain threshold. The expected claim size, given that the claimhas exceeded a certain limit, are also estimated. Two different models are used for thispurpose. The first model is based on maximum domain of attraction conditions. A Paretodistribution is used in the other model. Different graphical tools are used to check thevalidity for both models. Länsförsäkring Kronoberg has provided us with insurance datato perform the study.Conclusions, which have been drawn, are that both models seem to be valid and theresults from both models are essential equal.


I detta arbete används extremvärdesteori för att uppskatta sannolikheten att stora försäkringsskadoröverträffar en vis nivå. Även den förväntade storleken på skadan, givetatt skadan överstiger ett visst belopp, uppskattas. Två olika modeller används. Den förstamodellen bygger på antagandet att underliggande slumpvariabler tillhör maximat aven extremvärdesfördelning. I den andra modellen används en Pareto fördelning. Olikagrafiska verktyg används för att besluta om modellernas giltighet. För att kunna genomförastudien har Länsförsäkring Kronoberg ställt upp med försäkringsdata.Slutsatser som dras är att båda modellerna verkar vara giltiga och att resultaten ärlikvärdiga.

APA, Harvard, Vancouver, ISO, and other styles
41

Young, Po-yuk, and 楊寶玉. "Profile of good computational estimators related mathematical variables and common strategies used." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1994. http://hub.hku.hk/bib/B31957626.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Nguyen, Thi Mong Ngoc. "Estimation récursive pour les modèles semi-paramétriques." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00938607.

Full text
Abstract:
Dans cette th ese, nous nous int eressons au mod ele semi-param etrique de r egression de la forme y = f( \theta'x; \epsilon), lorsque x \in R^p et y\in R. Notre objectif est d' etudier des probl emes d'estimation des param etres \theta et f de ce mod ele avec des m ethodes r ecursives. Dans la premi ere partie, l'approche que nous d eveloppons est fond ee sur une m ethode introduite par Li (1991), appel ee Sliced Inverse Regression (SIR). Nous proposons des m ethodes SIR r ecursives pour estimer le param etre . Dans le cas particulier o u l'on consid ere le nombre de tranches egal a 2, il est possible d'obtenir une expression analytique de l'estimateur de la direction de . Nous proposons une forme r ecursive pour cet estimateur, ainsi qu'une forme r ecursive de l'estimateur de la matrice d'int er^et. Ensuite, nous proposons une nouvelle approche appell ee \SIRoneslice" (r ecursive ou non r ecursive) de la m ethode SIR bas ee sur l'utilisation de l'information contenue dans une seule tranche optimale (qu'il faudra choisir parmi un nombre quelconque de tranches). Nous proposons egalement un crit ere \bootstrap na f" pour le choix du nombre de tranches. Des r esultats asymptotiques sont donn es et une etude sur des simulations d emontre le bon comportement num erique des approches r ecursives propos ees et l'avantage principal de l'utilisation la version r ecursive de SIR et de SIRoneslice du point de vue des temps de calcul. Dans la second partie, nous travaillons sur des donn ees de valvom etrie mesur ees sur des bivalves. Sur ces donn ees, nous comparons le comportement num erique de trois estimateurs non param etrique de la fonction de r egression : celui de Nadaraya-Watson, celui de Nadaraya-Watson r ecursif et celui de R ev esz qui est lui aussi r ecursif. Dans la derni ere partie de cette th ese, nous proposons une m ethode permettant de combiner l'estimation r ecursive de la fonction de lien f par l'estimateur de Nadaraya- Watson r ecursif et l'estimation du param etre via l'estimateur SIR r ecursif. Nous etablissons une loi des grands nombres ainsi qu'un th eor eme de limite centrale. Nous illustrons ces r esultats th eoriques par des simulations montrant le bon comportement num erique de la m ethode d'estimation propos ee.
APA, Harvard, Vancouver, ISO, and other styles
43

Khan, Khalid. "The Evaluation of Well-known Effort Estimation Models based on Predictive Accuracy Indicators." Thesis, Blekinge Tekniska Högskola, Sektionen för datavetenskap och kommunikation, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-4778.

Full text
Abstract:
Accurate and reliable effort estimation is still one of the most challenging processes in software engineering. There have been numbers of attempts to develop cost estimation models. However, the evaluation of model accuracy and reliability of those models have gained interest in the last decade. A model can be finely tuned according to specific data, but the issue remains there is the selection of the most appropriate model. A model predictive accuracy is determined by the difference of the various accuracy measures. The one with minimum relative error is considered to be the best fit. The model predictive accuracy is needed to be statistically significant in order to be the best fit. This practice evolved into model evaluation. Models predictive accuracy indicators need to be statistically tested before taking a decision to use a model for estimation. The aim of this thesis is to statistically evaluate well known effort estimation models according to their predictive accuracy indicators using two new approaches; bootstrap confidence intervals and permutation tests. In this thesis, the significance of the difference between various accuracy indicators were empirically tested on the projects obtained from the International Software Benchmarking Standard Group (ISBSG) data set. We selected projects of Un-Adjusted Function Points (UFP) of quality A. Then, the techniques; Analysis Of Variance ANOVA and regression to form Least Square (LS) set and Estimation by Analogy (EbA) set were used. Step wise ANOVA was used to form parametric model. K-NN algorithm was employed in order to obtain analogue projects for effort estimation use in EbA. It was found that the estimation reliability increased with the pre-processing of the data statistically, moreover the significance of the accuracy indicators were not only tested statistically but also with the help of more complex inferential statistical methods. The decision of selecting non-parametric methodology (EbA) for generating project estimates in not by chance but statistically proved.
APA, Harvard, Vancouver, ISO, and other styles
44

Bibi, Hatem. "Construction de bases d'ondelettes de $L^2[0,1]$ et estimation du paramètre de longue mémoire par la méthode des ondelettes." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2011. http://tel.archives-ouvertes.fr/tel-00666162.

Full text
Abstract:
Cette thèse est consacrée à l'utilisation des ondelettes dans deux domaines à savoir la construction de bases sur l'intervalle et l'estimation du paramètre de longue mémoire par transformée (discrète) d'ondelettes. Dans un premier volet Nous présentons des constructions générales d'analyses multirésolution orthogonales (par une méthode directe) et biorthogonale sur l'intervalle (par la méthode d'intégration et de dérivation) .Comme applications, on étudie les espaces de Sobolev $H^{s}([0,1])$ et $H^{s}_{0}([0,1])$ pour $s\in\mathbb{N}$ . Le second volet est consacré à l'estimation du paramètre de longues ondelettes (non issues d'une analyse multirésolution) dans un cadre semi paramétrique. Les processus stationnaires à longue mémoire considérés sont du type gaussien puis linéaire. Pour chaque type de processus, on construit un estimateur adaptatif vérifiant un théorème limite central à vitesse de convergence au sens du minimax (à un logarithme prés). Les qualités statistiques de ces estimateurs (robustesses et consistances) sont vérifiées par des simulations et enfin un test d'adéquation est établi (considéré comme un test de longue mémoire dans le cas linéaire).
APA, Harvard, Vancouver, ISO, and other styles
45

Erhardt, Erik Barry. "Bayesian Simultaneous Intervals for Small Areas: An Application to Mapping Mortality Rates in U.S. Health Service Areas." Link to electronic thesis, 2004. http://www.wpi.edu/Pubs/ETD/Available/etd-0105104-195633/.

Full text
Abstract:
Thesis (M.S.) -- Worcester Polytechnic Institute.
Keywords: Poisson-Gamma Regression; MCMC; Bayesian; Small Area Estimation; Simultaneous Inference; Statistics Includes bibliographical references (p. 61-67).
APA, Harvard, Vancouver, ISO, and other styles
46

Seck, Cheikh Tidiane. "Estimation non-paramétrique et convergence faible des mesures de pauvreté." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00825389.

Full text
Abstract:
Cette thèse introduit tout d'abord une formule générale qui englobe toutes les mesures de pauvreté uni-dimensionnelles basées sur le revenu. Nous proposons ensuite deux types d'estimateurs non-paramétriques (à noyau et de type "plug-in") pour cet indice général de pauvreté, tout en étudiant leurs propriétés asymptotiques. Notre méthodologie, basée essentiellement sur la théorie moderne du processus empirique indexé des fonctions, offre un cadre global et rigoureux qui permet d'étudier, avec la même approche, le comportement asymptotique de tous les indices de pauvreté encore disponibles jusqu'ici dans la littérature. Nous obtenons la consistance forte uniforme d'une très large classe de mesures de pauvreté incluant presque tous les modèles d'indices proposés par les économistes, décomposables comme non-décomposables. Ce résultat est utilisé pour construire des intervalles de confiance simultanés, de niveau asymptotiquement optimal (100%). Un théorème central limite uniforme fonctionnel est également établi pour cette large classe d'indicateurs de pauvreté. Comme conséquence, des procédures d'inférence robustes, basées sur le noyau de covariance et utilisant un test de Wald, sont développées afin de comparer de façon non-ambiguë la pauvreté entre deux populations différentes.
APA, Harvard, Vancouver, ISO, and other styles
47

Feuillard, Vincent. "Analyse d'une base de données pour la calibration d'un code de calcul." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00809048.

Full text
Abstract:
Cette recherche s'insère dans le contexte général de la calibration, en vue d'applications industrielles. Son objectif est d'évaluer la qualité d'une base de données, représentant la manière dont celle-ci occupe, au mieux des objectifs recherchés, son domaine de variation. Le travail réalisé ici fournit une synthèse des outils mathématiques et algorithmiques permettant de réaliser une telle opération. Nous proposons en outre des techniques de sélection ou d'importation de nouvelles observations permettant d'améliorer la qualité globale des bases de données. Les méthodes élaborées permettent entre autres d'identifier des défauts dans la structure des données. Leurs applications sont illustrées dans le cadre de l'évaluation de paramètres fonctionnels, dans un contexte d'estimation par fonctions orthogonales.
APA, Harvard, Vancouver, ISO, and other styles
48

Xu, Hao. "Estimation statistique d'atlas probabiliste avec les données multimodales et son application à la segmentation basée sur l'atlas." Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-00969176.

Full text
Abstract:
Les atlases d'anatomie informatisé jouent un rôle important dans l'analyse d'images médicales. Cependant un atlas se réfère généralement à une image standard ou une moyenne d'image aussi appelé template, qui probablement représente bien d'une population observée, il ne suffit pas pour caractériser la population observée en détail. Un template doit être apprises conjointement avec la variabilité géométrique des formes représentées dans les observations. Ces deux quantités seront par la suite former l'atlas de la population correspondante. La variabilité géométrique est modélisée comme des déformations du template de sorte qu'il s'adapte aux observations. Dans la première partie du travail, nous fournissons un nouveau modèle statistique générative basée sur des templates déformables denses qui représente plusieurs types de tissus observés dans les images médicales. Notre atlas contient à la fois une estimation des templates probabiliste de chaque tissu (appelée classes) et la métrique de déformation. Nous utilisons un algorithme stochastique pour l'estimation de l'atlas probabilistes donné un ensemble de données. Cet atlas est ensuite utilisé pour la méthode de segmentation basée sur l'atlas pour segmenter les nouvelles images. Expériences sont montrées sur les images T1 du cerveau. Les analyses traditionnelles d'imagerie de résonance magnétique fonctionnelle utilisent peu d'informations anatomies. Le recalage des images vers un template est basé sur l'anatomie individuelle et ne tient pas compte des informations fonctionnelles, donc les activations détectées ne se limitent pas à la matière grise. Dans la deuxième partie du travail, on propose un modèle statistique pour estimer un atlas probabiliste de l'IRM fonctionnelle et T1 qui résume à la fois des informations anatomies et fonctionnelles et la variabilité géométrique de la population. Le recalage et la segmentation sont effectuées conjointement pendant l'estimation de l'atlas et l'activité fonctionnelle est limitée à la matière grise, augmenter la précision de l'atlas. Inférer l'abondance des protéines de l'intensité de peptides est l'étape clé dans la protéomique quantitative. La conclusion est nécessairement plus précis quand de nombreux peptides sont pris en compte pour une protéine donnée. Pourtant, l'information apportée par les peptides partagées par différentes protéines est souvent jeté. Dans la troisième partie du travail, nous proposons un système statistique basée sur une modèle hiérarchique à inclure cette information. Notre méthodologie, basée sur une analyse simultanée de tous les peptides quantifiés, gère les erreurs biologiques et techniques ainsi que l'effet des peptides. En outre, nous proposons une mise en œuvre pratique adapté à l'analyse de grandes bases de données. Par rapport à une méthode basée sur l'analyse d'une protéine à la fois (ce qui ne comprend pas les peptides partagés), notre méthodologie s'est révélée être beaucoup plus fiable pour estimer l'abondance de protéines et de tester les changements d'abondance.
APA, Harvard, Vancouver, ISO, and other styles
49

Vareschi, Thomas. "Estimation non-paramétrique dans les problèmes inverses à opérateur bruité." Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00957985.

Full text
Abstract:
Cette thèse étudie l'effet de l'imprécision sur un opérateur intervenant dans la résolution d'un problème inverse. La problématique habituelle des problèmes inverses est l'approximation d'un signal d'entrée à partir de son image par un opérateur régularisant. A l'incertitude habituelle contaminant l'observation du signal de sortie, on ajoute cette erreur commise sur l'opérateur que l'on modélise par un processus Gaussien d'une certaine amplitude, potentiellement différente de la précédente. Nous nous intéressons plus particulièrement au cas où l'opérateur en question est un opérateur à noyau, lorsque ce dernier est lui même bruité. Ce modèle recouvre par exemple les cas de la convolution de Fourier périodique, de Laplace/Volterra, ou bien la convolution sphérique. \\Nous développons des procédures statistiques d'estimation dans chacun de ces cas, en traitant de manière adéquate la nouvelle erreur commise sur le noyau selon la forme de la matrice associée à un schéma de Galerkin. Plus précisément, nous étudions le risque quadratique dans le cas où cette dernière est diagonale, diagonale par blocs ou bien triangulaire inférieure et de Toeplitz. Dans chacun de ces cas, nous mettons en évidence de nouvelles vitesses de convergence faisant intervenir de manière explicite les deux paramètres d'incertitude (sur le signal de sortie et sur le noyau) et dont nous prouvons l'optimalité au sens minimax. Enfin, nous étudions spécifiquement le cas de la déconvolution sphérique en mettant à profit les needlets sphériques, sorte d'équivalent d'ondelettes sur la sphère, dans la construction d'une procédure qui traite ce même problème pour un risque en norme Lp.
APA, Harvard, Vancouver, ISO, and other styles
50

Canaud, Matthieu. "Estimation de paramètres et planification d'expériences adaptée aux problèmes de cinétique - Application à la dépollution des fumées en sortie des moteurs." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00677758.

Full text
Abstract:
Les modèles physico-chimiques destinés à représenter la réalité expérimentale peuvent se révéler inadéquats. C'est le cas du piège à oxyde d'azote, utilisé comme support applicatif de notre thèse, qui est un système catalytique traitant les émissions polluantes du moteur Diesel. Les sorties sont des courbes de concentrations des polluants, qui sont des données fonctionnelles, dépendant de concentrations initiales scalaires.L'objectif initial de cette thèse est de proposer des plans d'expériences ayant un sens pour l'utilisateur. Cependant les plans d'expérience s'appuyant sur des modèles, l'essentiel du travail a conduit à proposer une représentation statistique tenant compte des connaissances des experts, et qui permette de construire ce plan.Trois axes de recherches ont été explorés. Nous avons d'abord considéré une modélisation non fonctionnelle avec le recours à la théorie du krigeage. Puis, nous avons pris en compte la dimension fonctionnelle des réponses, avec l'application et l'extension des modèles à coefficients variables. Enfin en repartant du modèle initial, nous avons fait dépendre les paramètres cinétiques des entrées (scalaires) à l'aide d'une représentation non paramétrique.Afin de comparer les méthodes, il a été nécessaire de mener une campagne expérimentale, et nous proposons une démarche de plan exploratoire, basée sur l'entropie maximale.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography